Christoph Lampert vom IST Austria erklärt, wie in der Grundlagenforschung die Fähigkeiten der Systeme erweitert werden.

Foto: ISTA

Aktuelle künstliche Intelligenz (KI) ist keineswegs der Weisheit letzter Schluss. Christoph Lampert vom IST Austria erklärt, wie in der Grundlagenforschung die Fähigkeiten der Systeme erweitert werden. Er kritisiert zudem, dass in Sachen KI zwar viel Meinung, aber wenig tatsächliches Wissen im Umlauf ist.

STANDARD: Wie vermitteln Sie jemandem, der sich im Begriffsdickicht aus Machine-Learning, Deep Learning und künstlicher Intelligenz nicht so richtig zurechtfindet, eine Ahnung von Ihrer Forschungstätigkeit?

Christoph Lampert: Künstliche Intelligenz ist keine Magie. Es sind Techniken, die in der Informatik über viele Jahrzehnte entwickelt wurden und mittlerweile so gut funktionieren, dass man sie in praktischen Anwendungen einsetzen kann. Maschinelles Lernen ist eine Art, einem Computer zu erklären, was er tun soll. Man gibt ihm Beispiele von dem, was man erreichen will – etwa deutsche Sätze mit ihrer englischen Übersetzung. Der Computer findet durch einen Suchprozess selbst Regeln, wie man diese Sätze übersetzt, und macht daraus eine Software. Man erspart sich, dass ein Programmierer das alles erledigen muss. Deep Learning ist ein Begriff, der in den letzten Jahren für eine spezielle Art des maschinellen Lernens populär wurde. Dabei werden künstliche neuronale Netze benutzt, die stark dem menschlichen Gehirn nachempfunden sind – allerdings in sehr abstrakter Weise.

STANDARD: Ein großer Teil der Forschungsarbeit im KI-Bereich scheint die Suche nach neuen Anwendungsbereichen zu sein.

Lampert: Da würde ich widersprechen. Natürlich, man liest in den Medien meist über Anwendungen. Man liest, dass der Computer Musik komponieren, Auto fahren oder die Covid-Ausbreitung berechnen kann. Hinter solchen Nachrichten stehen oft Unternehmen mit ihren Produkten. Es tut sich aber auch viel im Bereich der Grundlagenforschung. Ursprünglich wurde maschinelles Lernen entwickelt, ohne eine spezifische Anwendung vor Augen zu haben. Allerdings ist der Weg von der Grundlagenforschung zu Anwendungen in diesem Bereich relativ kurz. Man kann als Forscher eine Idee haben, wie sich maschinelles Lernen in gewissen Aspekten verbessern lässt, und ein halbes Jahr später kann diese Idee bereits Teil einer App sein.

STANDARD: Wie kann man also abseits der Anwendungsentwicklung die grundlegenden Prinzipien maschinellen Lernens noch erweitern und verbessern?

Lampert: Wir stellen beispielsweise die Frage: Wie kann maschinelles Lernen davon profitieren, dass mehrere Dinge gleichzeitig trainiert werden? Oder wie kann ein Computer inkrementell – also kontinuierlich über die Zeit – neue Dinge lernen, ohne alte, schon gelernte zu vergessen? Diese Fähigkeiten haben aktuelle Modelle nicht. Wenn ein Computer trainiert wird, Katzenfotos im Internet zu finden, erinnert er sich nicht daran, dass er davor nach Hunden gesucht hat. Er fängt jedes Mal bei null an. Im Vergleich zum menschlichen Lernen wirkt das unnatürlich. Jeder Mensch nutzt beim Lernen das, was er früher gelernt hat, als Grundlage. Dieses Prinzip auf das maschinelle Lernen zu übertragen ist eine unserer Herausforderungen. Wenn meine kleine Tochter im Zoo lernt, was ein Zebra ist, benötigt sie nur ein Bild, um zu wissen, wie dieses Tier aussieht. Der Computer benötigt im Moment tausende Bilder von Zebras. Er hat völlig vergessen, was er sonst schon über Tiere gelernt hat.

STANDARD: Ist man weit davon entfernt, dass dieses sogenannte Lifelong Machine-Learning funktioniert?

Lampert: Die Frage ist nicht zu beantworten. Die Medien zeichnen gerne schwarz-weiß – nach dem Motto: Der Computer konnte eine Sache bisher nicht, jetzt kann er sie. Aber so ist es nicht. Im Lauf ihrer Entwicklung werden die Systeme besser und besser. Bisher braucht der Computer vielleicht 1000 Bilder eines Zebras, um gut zu wissen, wie dieses Tier aussieht. Mit unseren Techniken soll diese Zahl reduziert werden. Er braucht dann vielleicht nur noch 100 oder zehn oder drei. Den Zeitpunkt, zu dem wir sagen "Wir sind fertig" wird es nicht geben. Aber irgendwann wird man sagen: Es ist gut genug für die momentanen Umstände.

STANDARD: Welche Anwendungen werden möglich?

Lampert: Einerseits ist das schwer zu sagen. Vielleicht gibt es Ideen, die wir jetzt noch gar nicht absehen können. Andererseits könnte mit einer Verringerung der benötigten Daten alles, was jetzt schon mit maschinellem Lernen passiert, besser gemacht werden. Im Moment kommen von großen Konzernen wie Google, Facebook, Amazon viele Anwendungen für die Endnutzer. Sie haben die meisten Daten sowie die meiste Rechenkraft und damit das Potenzial, Anwendungen herzustellen, die nützlich sind. Wenn man die Anzahl der notwendigen Daten um den Faktor 100 reduzieren könnte, wäre es deutlich einfacher, dass auch kleinere Unternehmen oder Privatpersonen das hinbekommen. Eine konkrete Anwendung liegt im Bereich der Sprachen: Es ist heute kein Problem, eine Übersetzung vom Deutschen ins Englische zu trainieren. Es gibt Milliarden Dokumente im Netz, anhand derer das gemacht wird. Es gibt aber Sprachen, zu denen es online viel weniger Dokumente gibt. Würde man ein Übersetzungsprogramm für Maltesisch trainieren wollen, wäre wahrscheinlich nicht genug Material vorhanden. Wenn man aber Vorwissen mitintegrieren kann – etwa dass Maltesisch verwandt mit dem Arabischen ist, aber viele italienische Wortübernahmen enthält –, wird es einfacher.

STANDARD: Sie beschäftigen sich auch mit der Frage, wie man die Verlässlichkeit künstlicher Intelligenz erhöhen kann. Wie gehen Sie an diese Sache heran?

Lampert: Ich als Experte für maschinelles Lernen würde im Moment nicht mit einem Flugzeug fliegen, das von einer künstlichen Intelligenz gebaut wurde. Die Systeme funktionieren in 99 Prozent der Fälle wirklich gut, machen aber auch Fehler – und das macht sie weniger vertrauenswürdig. Wir fragen uns nun, wie wir Machine-Learning-Systeme entwerfen können, die zu 100 Prozent vertrauenswürdig sind. Der Algorithmus soll die Garantie abgeben können, dass innerhalb einer gewissen Bandbreite kein Fehler gemacht wird – so wie auf einer Brücke, vor der ein Schild anzeigt: Es ist okay, mit Fahrzeugen drüberzufahren, solange sie nicht mehr als drei Tonnen wiegen. Solche Aussagen gibt es für KI-Systeme im Moment nicht.

STANDARD: Dass nur mit Mühe nachvollziehbar ist, wie KI überhaupt zu ihren Ergebnissen kommt, trägt nicht gerade zum Vertrauen der Menschen in diese Systeme bei.

Lampert: Auch zur Frage der Interpretierbarkeit gibt es viele Ansätze. In gewisser Weise wissen wir exakt, wie die Systeme zu einem Ergebnis kommen – immerhin haben wir das Computerprogramm selbst gebaut. Es ist aber so komplex, dass uns die Intuition dazu fehlt. Hier ist die Herausforderung, die richtige Sprache, das richtige Level an Abstraktion zu finden. Zu sagen, dieses Neuron hat nach drei Sekunden gefeuert, also siehst du eine Katze auf dem Bildschirm, ist vielleicht nicht die Erklärung, die man haben will. Aber wenn der Computer sagt: Ich denke, auf dem Foto ist eine Katze, weil da ein Objekt ist, das aussieht wie ein Tier, spitze Ohren hat und ein flauschiges Fell, wäre das vielleicht eine Erklärung, die akzeptabel ist.

STANDARD: Sie haben vor kurzem ein Buch herausgegeben, das sich mit künstlicher Intelligenz beschäftigt. Was war die Motivation?

Lampert: Das Problem beim Thema künstliche Intelligenz ist, dass mittlerweile alle eine Meinung dazu haben, kaum jemand aber weiß, was tatsächlich dahintersteckt. Es wirkt wie Magie. Dabei ist es einfach eine Software, die gewisse Schritte ausführt, die zu einem Ergebnis führen. Manche Dinge werden damit leichter, es gibt aber auch nachteilige Effekte. Als Gesellschaft muss man darüber reden. Es muss einen Diskurs geben, welche Dinge automatisiert werden sollen, welche nicht; welche Daten bereitgestellt werden, welche privat bleiben sollen. Dafür braucht es aber Wissen, nicht nur Meinung. Wir haben uns die Aufgabe gestellt, die Konzepte zu erklären, ohne hinter einer Fachsprache zu verschwinden. Geschrieben ist das Buch von Studierenden in ihren 20ern, die noch verstehen, welche Probleme man hat, wenn man sich dem Thema neu nähert. (Alois Pumhösel, 21.9.2020)