Roboter wie der humanoide Künstlerroboter Ai-Da zeichnen und malen bereits eigene Gemälde. Wie intelligent die künstliche Intelligenz hinter der Fassade ist, ist Teil kontroverser Debatten.

Foto: APA/AFP/BEN STANSALL

Rund einen Monat ist es her, seit Google den Software-Spezialisten Blake Lemoine gefeuert hat. Der Grund: Lemoine habe "völlig unbegründete" Behauptungen aufgestellt. Nämlich dass der von Google entwickelte Chatbot LaMDA eigene Gefühle und sogar ein eigenes Bewusstsein habe. "Ich kenne eine Person, wenn ich mit ihr spreche. Es macht keinen Unterschied, ob sie ein Gehirn aus Fleisch in ihrem Kopf hat. Oder ob sie Milliarden Zeilen an Code besitzt", hatte Lemoine damals in einem vielfach verbreiteten Interview mit der "Washington Post" gesagt. Seine Chefs bei Google widersprachen und orteten einen Verstoß gegen die Unternehmensrichtlinien. Lemoine wurde gefeuert.

Zwar mag der Fall bei Google damit abgeschlossen sein – die Frage, ob künstliche Intelligenz (KI), Chatbots und Maschinen ein Bewusstsein haben können, ist mit dem Fall jedoch wieder ins Zentrum der öffentlichen Debatte gerückt. Befeuert wird die Diskussion von Sprachprogrammen wie LaMDA oder GPT-3, die immer menschenähnlichere Texte produzieren, und von Robotern, die Menschen auch äußerlich immer mehr ähneln. Dass KI tatsächlich bereits ein Bewusstsein besitzt, also Gedanken, Gefühle, das eigene Ich und die Welt erlebt und versteht, bezweifeln viele Experten jedoch. Warum aber schreiben ihnen Menschen wie Lemoine und viele andere dennoch diese Eigenschaften zu?

Blake Lemoine sah in LaMDA mehr als nur ein künstliches Programm.
Foto: Twitter

Sehr gute Imitation

"KI ist sehr gut darin geworden, uns Menschen in einigen Bereichen zu imitieren", sagt Benjamin Grewe, Professor für Neuroinformatik an der ETH Zürich, im STANDARD-Gespräch. Bereits seit vielen Jahren würden unterschiedliche Programme den sogenannten Turing-Test bestehen: Menschen können in Befragungen beispielsweise nicht mehr unterscheiden, ob es sich bei den Antworten um die eines Computers oder eines Menschen handelt.

Schon in den 1960er-Jahren entwickelte der deutsch-US-amerikanische Informatiker Joseph Weizenbaum am MIT das Computerprogramm Eliza, das das Gespräch mit einem Psychologen simulieren sollte. Die Funktionsweise des Programms war denkbar einfach: Stellten die Benutzer dem Programm eine Frage, antwortete das Programm, indem es die Benutzer aufforderte, ihre Gedanken genauer zu beschreiben. Oder es gab die Antwort der Benutzer einfach als Frage zurück.

Schnell gefasstes Vertrauen

Viele Benutzer merkten nicht, dass sie es mit einer Maschine zu tun hatten – und gaben im Dialog sogar viele sehr persönliche Details von ihnen preis. Dabei hatte das Programm weder ein eigenes Bewusstsein noch war es dafür ausgelegt, einen menschlichen Therapeuten zu ersetzen. Die Ergebnisse waren damals auch für Weizenbaum selbst eine Überraschung.

Heute sind die Programme und ihre künstlichen neuronalen Netzwerke dahinter durch die verbesserte Rechenleistung in der Lage, weitaus größere Datenmengen zu verarbeiten, sagt Grewe – eine Fähigkeit, die in der Fachwelt als Deep Learning bezeichnet wird. Programme wie GPT-3 können mittlerweile eigenständig Texte verfassen, andere, wie etwa Dall-E, aus Textbeschreibungen realistische Bilder generieren.

Nicht das gleiche Verständnis

Das heiße aber nicht, dass die Programme auch wirklich verstehen, worüber sie mit uns Menschen kommunizieren. "Wir sehen an vielen Beispielen, dass die Programme nicht dasselbe Verständnis von der Welt und den Dingen haben wie wir", sagt Grewe. Immer wieder würden sie in Gesprächen etwa Zusammenhänge falsch wiedergeben oder schlicht Unsinn reden. Kein Wunder, so der Experte, denn im Gegensatz zu uns habe KI nie die Erfahrung gemacht, ein eigenes Essen zu essen, als Mensch in einem Auto zu sitzen oder menschliche Nähe zu spüren.

"Hören wir den Begriff 'Auto', aktiviert das in unserem Gehirn sofort verschiedene Netzwerke, die den Begriff in Relation zu unserem Verhalten und unseren Erfahrungen stellen und bestimmte Emotionen auslösen, die wiederum ein Verhalten hervorrufen", sagt Grewe. Menschliche Intelligenz sei aber nicht nur in der Lage, intelligentes Verhalten zu erzeugen, sondern auch, nach bestimmten höhergesteckten Zielen zu handeln.

Arbeiten nach Statistik

Chatbots wie LaMDA oder GPT-3 haben hingegen keine dieser höhergesteckten Ziele, spüren keine Angst oder Freude und verstehen auch nicht, was hinter diesen Emotionen steckt, sagt der Experte. Stattdessen seien sie vor allem gute Rechner und Statistiker. Erstellt ein Chatbot etwa eine Antwort auf eine Frage, die ihm ein Mensch stellt, kombiniere er dafür die statistisch am wahrscheinlichsten miteinander auftretenden Wörter, basierend auf tausenden von Texten, mit denen der Algorithmus zuvor trainiert wurde.

Dadurch seien die Programme in der Lage, scheinbar emotional und bewusst mit uns zu kommunizieren. Viele Menschen bekommen das Gefühl, tatsächlich mit einem menschlichen Gegenüber zu kommunizieren. Verstärkt werde der Glaube von Filmen wie beispielsweise "Her", in denen Roboter und Programme menschlicher Kommunikation, Gedanken und Verhalten tatsächlich bereits äußerst nahe kommen.

Wie Kinder lernen

In der Realität sei die Technologie jedoch noch weit davon entfernt, ein menschenähnliches Verständnis und Bewusstsein für die Welt zu besitzen, sagt Grewe. Allenfalls seien sie in der Lage, menschliche Fähigkeiten in ganz bestimmten Bereichen zu imitieren. Vielmehr seien Algorithmen bisher gut darin, mehrere Aufgaben gleichzeitig zu lösen, Muster in großen Datenmengen, Bilder und Stimmen zu erkennen.

Grewe rechnet damit, dass Maschinen in frühestens zehn bis fünfzehn Jahren eine menschenähnlichere Intelligenz besitzen könnten – wenn überhaupt. Der Schlüssel dafür liegt seiner Ansicht nach darin, Maschinen beizubringen, wie Kinder zu lernen: nämlich schrittweise, indem sie ihre Umgebung beobachten, auf diese reagieren und mit ihr interagieren. Dafür müssten die Maschinen in der Lage sein, visuelle, auditorische und haptische Eindrücke aus der Umgebung zu verarbeiten, zu abstrahieren und diese dann mit einem Sprachsystem zu verbinden.

Eigene Ziele haben

Auch eigene Ziele müssten sich die Programme setzen können, um der menschlichen Intelligenz näher zu kommen. "Die Frage ist: Welche Ziele sollten das sein?", sagt Grewe. So sei etwa das Ziel eines Programms, Menschen glücklich zu machen, denkbar. Nur woher weiß das Programm überhaupt, was eine Person glücklich macht? Weiß es die Person überhaupt selbst? Sind die Ziele "falsch" gesetzt, kann es bei Algorithmen wie etwa jenem auf Facebook sogar zu Problemen kommen. So habe sich etwa in der Vergangenheit gezeigt, dass es der Entwicklung von Kindern langfristig schaden kann, wenn diese zu viel Zeit online verbringen.

Und auch die Frage, ob sich KI und Maschinen überhaupt in Richtung menschlicher Intelligenz entwickeln sollen, um eines Tages vielleicht eigene Gefühle oder ein Bewusstsein zu haben, müssen wir diskutieren, sagt Grewe. "Sonst kann es passieren, dass der Algorithmus im autonomen Auto Ihnen am Morgen sagt, dass er Sie nicht fahren will, weil er gerade keine Lust dazu hat."

Für Joseph Weizenbaum war das Programm Eliza Zeit seines Lebens eine Lehre, vor den potenziell gefährlichen Folgen künstlicher Intelligenz zu warnen. Künstliche Intelligenz könne ein Hilfsmittel für Menschen sein, um Informationen zu beschaffen, so seine Ansicht. Aber die eigentliche Entscheidungsgewalt müsse am Ende immer beim Menschen liegen. (Jakob Pallinger, 25.8.2022)