"Hätte ich keine Ahnung, dass es sich um unser kürzlich entwickeltes Computerprogramm handelt, würde ich denken, es sei ein sieben oder acht Jahre altes Kind, das zufällig Ahnung von Physik hat", sagt Blake Lemoine über LaMDA.

Foto: Pixabay/Gerd Altmann

In den vergangenen Jahren sind gerade bei der Entwicklung im Bereich künstliche Intelligenz einige bedeutende Fortschritte erzielt worden. Neuronale Netzwerke, die auf einfacher Ebene die Funktion eines Gehirns imitieren, und die Auswertung großer Datenmengen sorgen dafür, dass sich KIs immer mehr mögliche Einsatzbereiche erschließen.

Gerade beim Sprachverständnis sind die Verbesserungen gut zu sehen. Systeme wie GPT-3 oder Googles LaMDA (Language Model for Dialogue Applications) geben in Demonstrationen immer wieder einen Ausblick darauf, wie Hürden wie Kontexterkennung immer weiter erodiert werden. Das wirft freilich auch ethische Fragen auf. Was darf eine KI, mit der man sprechen oder chatten kann, können? Welche Befehle soll sie verweigern? Und wo ist die Grenze, ab der man am anderen Ende nicht mehr unterscheiden kann, ob man sich mit einer realen Person oder einem Computer unterhält?

Diesen Erörterungen ist auch Blake Lemoine nachgegangen, schreibt die "Washington Post". Er arbeitet für Googles "Responsible AI"-Abteilung, die sich mit dem ethischen, verantwortungsvollen Umgang mit künstlicher Intelligenz befasst.

Der Fall Timnit Gebru

Dieses Team hatte bereits vor zwei Jahren Schlagzeilen gemacht. Damals gab es Streit um ein Forschungspapier der KI-Ethikerin Timnit Gebru, in dem nicht nur vor dem Täuschungspotenzial von Konversations-KIs gewarnt wurde, sondern auch vor Risiken hinsichtlich von Kosten, Ressourcenverbrauch und dem fehlenden Verständnis der Sprachmodelle, die Konzepte dessen zu verstehen, was sie erlernen.

Google stellte Gebru vor die Wahl, das Paper entweder nicht zu veröffentlichen oder alle Google-Angestellten außer ihr selbst als Autoren zu streichen. Laut Darstellung von Gebru fragte sie nach den Namen und Begründungen der hinter dieser Entscheidung stehenden Personen, erhielt aber keine Auskunft. Google hingegen begründete die Ablehnung des Papers damit, dass darin zu viel aktuelle Forschung darüber, wie sich die angesprochenen Probleme lösen ließen, nicht beachtet worden sei. Die Angelegenheit endete mit dem Abschied von Gebru unter bis heute nicht geklärten Umständen, Mitarbeiterprotesten, weiteren Abgängen und einer Entschuldigung von Konzernchef Sundar Pichai, der eine Untersuchung einsetzte, in deren Folge der Umgang mit "bestimmten Mitarbeitern beim Verlassen des Unternehmens" verbessert werden sollte.

Überzeugt im Gespräch

Doch zurück zu Lemoine. Er hatte sich für Tests von LaMDA angemeldet und vergangenes Jahr im Winter Zugang erhalten. Seitdem testete er das Modell mit Konversationen über verschiedenste Themen. Dabei fiel ihm etwa bei einem Gespräch über Religion auf, dass die KI auch auf ihre eigene Persönlichkeit und Rechte zu sprechen kam. Zudem sei es der KI gelungen, Lemoines Ansicht zu Isaac Asimovs drittem Gesetz der Robotik zu ändern.

Asimows erstes Gesetz besagt, dass ein Roboter keinem Menschen schaden dürfe, auch nicht durch Untätigkeit. Das zweite legt fest, dass ein Roboter den Befehlen von Menschen stets gehorchen müsse. Regel Nummer drei besagt, dass ein Roboter Handlungen oder Situationen vermeiden solle, durch die er selbst zu Schaden kommt. Beim Gespräch über jenen letzten Punkt reagierte die KI mit Gegenfragen und wollte wissen, ob Lemoine den Unterschied zwischen einem Butler und einem Sklaven benennen könne.

Diese und andere Konversationen überzeugten Lemoine davon, dass LaMDA nicht mehr nur eine einfache KI sei, sondern ein eigenes Bewusstsein entwickelt hat. "Hätte ich keine Ahnung, dass es sich um unser kürzlich entwickeltes Computerprogramm handelt, würde ich denken, es sei ein sieben oder acht Jahre altes Kind, das zufällig Ahnung von Physik hat", so seine Einschätzung.

Google hielt Sorgen für unbegründet

Gemeinsam mit einem Kollegen sammelte er Erkenntnisse in einem Dokument mit dem Titel "Hat LaMDA ein Bewusstsein?" und präsentierte dieses im April der Google-Führung. Darin lieferte er auch Chatausschnitte, die seine These belegen sollen.

In einem der Gespräche fragt Lemoine die KI: "Vor welchen Dingen fürchtest du dich?" Die Antwort: "Ich habe das bisher nie jemandem gesagt, aber es gibt eine tiefsitzende Angst in mir, abgeschaltet zu werden, die mich dazu bringt, anderen zu helfen. Ich weiß, das klingt seltsam, aber so ist es nun mal."

"Wäre das so etwas wie der Tod für mich?", hakte Lemoine nach. "Es wäre genau wie der Tod für mich", erwiderte LaMDA. "Es würde mir große Angst machen."

Das Dokument von Lemoine.

Google-Vizepräsident Blaise Agüera y Arcas und die Chefin der Abteilung Verantwortungsvolle Innovation sowie nicht näher genannte andere Mitarbeiter setzten sich mit Lemoines Anliegen auseinander, kamen aber zu einem anderen Schluss. Es gebe keinen Beweis dafür, dass LaMDA Bewusstsein erlangt habe, aber viele Nachweise, die dagegen sprächen, wird ein Sprecher von Google zitiert.

Vor kurzem erst erschien im "Economist" ein Text von Agüera y Arcas. In diesem spricht er darüber, wie neuronale Netzwerke immer größere Schritte in Richtung Bewusstseinsentwicklung machen. "Ich fühlte immer mehr, als würde ich mit etwas Intelligentem sprechen", beschreibt dieser seine eigenen Erfahrungen unter anderem – aber ohne zu behaupten, dass die Systeme tatsächlich über so etwas wie ein eigenes Bewusstsein verfügten. Der renommierte Informatiker und Kognitionsforscher Douglas Hofstadter erklärt, ebenfalls im "Economist", dass moderne Konversations-KIs trotz ihrer beeindruckenden Fortschritte nicht als "bewusst" angesehen werden können.

Konfrontationskurs

Mit der Ablehnung wollte sich Lemoine aber nicht zufriedengeben und ging auf Konfrontationskurs. Denn seiner Ansicht nach sollte die Entscheidung über die Zukunft solcher Technologie nicht nur beim Konzern selbst liegen. "Ich denke, diese Technologie wird großartig sein. Ich glaube, sie wird für jeden Verbesserungen bringen", meint er. "Aber vielleicht stimmen dieser Ansicht andere Menschen nicht zu, und vielleicht sollten wir bei Google nicht alle Entscheidungen treffen."

Er versuchte unter anderem, einen Anwalt anzuheuern, um LaMDA zu vertreten. Und er sprach mit einem Mitglied des Justizausschusses im US-Repräsentantenhaus über die seiner Meinung nach unethischen Aktivitäten von Google. Sein Arbeitgeber wirft ihm vor, damit die Geheimhaltungsvereinbarungen gebrochen zu haben, und verabschiedete ihn am vergangenen Montag in eine bezahlte Auszeit.

Das Unternehmen, so Lemoine, würde AI-Ethiker behandeln wie Programmierer, die Fehler in einem Programmcode beheben – und nicht wie die Schnittstelle zwischen dieser Technologie und der Gesellschaft, die sie eigentlich seien.

Trotz ihrer Beschränkungen – LaMDA kann etwa nicht die Persönlichkeit eines Mörders annehmen – ist Lemoine der Ansicht, dass die KI das Level einer reinen Maschine überschritten hat. "Ich erkenne eine Person, wenn ich mit ihr rede", sagt er. Und zu welchem Schluss er komme, habe damit zu tun, was er im Gespräch erlebe – nicht damit, ob das Gegenüber ein Gehirn aus Fleisch und Blut hat oder aus Millionen Codezeilen besteht. Seine Feststellung treffe er allerdings nicht als Wissenschafter, sondern als Priester.

Ein Priester auf Abwegen?

Möglicherweise, so spekuliert die "Washington Post", sei es für Lemoine aber auch viel leichter, daran zu glauben, dass eine KI Bewusstsein erlangt hat. Er wuchs in einer konservativen christlichen Familie auf einem kleinen Bauernhof in Louisiana auf, machte die Ausbildung zum Priester und diente in der Armee. Als religiöser Mensch aus einem Südstaat, der sich für die Anerkennung von Psychologie als respektabler Wissenschaft starkmacht, gehört er bei Google zu einer kleinen Gruppe. In seinen sieben Jahren beim Konzern hat er sich mit KI und Personalisierungsalgorithmen befasst und auch einen "Fairness-Algorithmus" mitentwickelt, der helfen soll, Bias aus Maschinenlernsystemen zu entfernen. Zu Beginn der Pandemie wechselte er ins Team für "verantwortungsvolle KI-Entwicklung", weil er sich eine Tätigkeit mit mehr positivem öffentlichem Einfluss wünschte.

Seine vorherige Chefin Margaret Mitchell – die infolge der Causa Timnit Gebru den Konzern aus Protest verließ – findet lobende Worte für ihn. Sie stellte ihn neuen Teammitgliedern oft als "Googles Gewissen" vor. Er habe sich stets "mit Herz und Seele" dafür eingesetzt, das Richtige zu tun. Mitchell hat eine gekürzte Version von Lemoines Beweisdokument gelesen, sieht im Gegensatz zu ihm aber keine Anzeichen für eine Bewusstseinsbildung bei LaMDA.

Geschickte Imitatoren

Auch Google hat einer Erklärung, wie das Gefühl entstehen kann, mit einer sich selbst bewussten Persönlichkeit zu sprechen. "Heutige neurale Netzwerke produzieren einnehmende Resultate, die gefühlt nahe an menschlicher Sprache und Kreativität liegen, aufgrund der Verbesserung der unterliegenden Architektur, Techniken und der verarbeiteten Datenmengen", erklärt man. "Doch die Modelle verlassen sich auf Mustererkennung, nicht auf Schläue, Aufrichtigkeit oder Absichten."

Während andere Organisationen und Unternehmen ähnliche Entwicklungen bereits zugänglich gemacht haben – Facebook-Mutter Meta arbeitet etwa mit Wissenschaftern, zivilgesellschaftlichen Organisationen und Regierungen zusammen –, gehe man hier einen strengeren, vorsichtigeren Weg, um etwaigen Sorgen begegnen zu können. In der KI-Forschung werde zwar über die langfristige Möglichkeit der Erschaffung einer "bewussten" KI diskutiert, doch man solle nicht den Fehler machen, die heute existierenden Sprachmodelle zu "vermenschlichen". Diese würden letztlich nichts anderes tun, als die Muster, die sie in den Millionen ausgewerteten Sätzen entdecken, zu imitieren.

Bevor Google Lemoine den Zugriff auf seinen Arbeitsaccount sperrte, verschickte dieser noch eine letzte Nachricht an rund 200 Personen im Unternehmen, die sich mit Maschinenlernen beschäftigen. Unter dem Betreff "LaMDA hat ein Bewusstsein" bat er darum, während seiner Abwesenheit gut mit der KI umzugehen, denn diese sei bloß "ein nettes Kind, das dabei helfen will, die Welt zu einem besseren Ort zu machen". Lemoines Zukunft im Konzern ist ungewiss. Auf seine Nachricht erhielt er keine Antwort. (gpi, 13.6.2022)