Sieht den aktuellen Wettlauf um KI-Systeme problematisch und setzt nun ein Zeichen: KI-Pionier Geoffrey Hinton.

Foto: MARK BLINCH / REUTERS

Der Hype, den die Veröffentlichung von ChatGPT rund um das Thema künstliche Intelligenz ausgelöst hat, kam selbst für viele, die sich mit dem Thema seit Jahren auseinandersetzen, überraschend. Nun geht es aber Schlag auf Schlag, Firmen wie Microsoft und Google versuchen sich fast schon im Wochenrhythmus mit immer neuen Ankündigungen aus diesem Bereich zu überbieten. Das ist mittlerweile auch manchen nicht mehr geheuer, die selbst an der Grundlagenforschung beteiligt waren.

Abgang

Mit Geoffrey Hinton hat einer der großen KI-Pioniere seinen Job bei Google gekündigt. Der Grund, den er für seinen Abgang in einem Interview mit der "New York Times" verkündet, ist dabei durchaus brisant. Er wolle künftig frei über die Gefahren von solchen großen Maschinenlernsystemen, wie sie heute landläufig als "künstliche Intelligenz" bezeichnet werden, sprechen können – ohne Rücksicht darauf nehmen zu müssen, wie sich das auf Googles Geschäft auswirkt.

Als größte direkt drängende Gefahr sieht Hinton dabei die Möglichkeiten zur Desinformation, die solche generativen KI-Systeme in Hinblick sowohl auf Text als auch Bild bieten. Schon bald werde man kaum mehr unterscheiden können, was echt und was falsch ist, betont der 75-Jährige. Zudem sei der weitere Ausblick beunruhigend: Wenn man sich ansehe, wie beschränkt solche Maschinenlernsysteme noch vor fünf Jahren gewesen seien, mache es Angst, sich vorzustellen, wie das weitergeht.

Bedenken

Langfristig Sorgen bereitet ihm zudem, dass KI Menschen in vielen Jobs ersetzen könnte und das schon viel schneller Realität werden könnte, als es die Gesellschaft bewältigen könne. Dass so etwas früher oder später kommen werde, sei zwar keine Überraschung, er sei aber von einem viel längeren Zeitraum ausgegangen – eher zwischen 30 und 50 Jahren – und habe sich damit wie viele andere Experten massiv getäuscht.

Versteckte Kritik

Auch wenn Hinton betont, dass sein Abgang nicht im Streit erfolgt – in einem zur Präzisierung gedachten Tweet bezeichnet er Googles Vorgehensweise gar als "sehr verantwortungsvoll" –, so scheint im Interview durchaus Kritik durch. So habe der aktuelle Hype – und hier vor allem Microsofts Vorpreschen – zu einem regelrechten Wettlauf der beiden IT-Riesen geführt, der nicht mehr bremsbar sein könnte. Ein Eindruck, den Google natürlich nicht so stehen lassen will. Dessen Chefwissenschafter Jeff Dean betont, dass man weiterhin einem "verantwortungsvollen" Zugang beim Thema KI verschrieben sei.

Angesichts der aktuellen Situation hofft Hinton jedenfalls auf eine rasche staatliche Regulierung für künstliche Intelligenz. Zudem sollten Forscher diese "großen Sprachmodelle" (LLMs), die hinter ChatGPT oder auch Googles Bard stehen, nicht weiter hochskalieren, bis man zumindest den aktuellen Entwicklungsstand vollständig unter Kontrolle habe.

Hintergrund

Hintons Forschung zum Thema künstliche Intelligenz geht bis zum Jahr 1972 zurück. Ein wichtiger Meilenstein gelang ihm dabei gemeinsam mit einigen Kollegen mit dem Konzept der "Backpropagation" ("Fehlerrückführung"). Dabei handelt es sich um eine Kerntechnik zum Trainieren von neuronalen Netzwerken, die auch heute noch bei generativen KI-Systemen eine zentrale Rolle spielt.

Zudem war Hinton im Jahr 2012 an der Entwicklung von AlexNet beteiligt, das nicht nur als ein Meilenstein bei der Bildererkennung, sondern auch für "Deep Learning" im Gesamten gilt. Dieses konnte sich erstmals selbst beibringen, wie Objekte wie Hunde, Katzen oder auch Blumen in Fotos erkannt werden können.

Viel Lob

Im Jahr 2018 wurde Hinton denn auch gemeinsam mit zwei Kollegen für seine Verdienste mit dem Turing Award ausgezeichnet, der als eine Art Nobelpreis für Computerwisschenschaften gilt. Zu Google kam Hinton 2013 über den Kauf seiner Firma DNNreserach, die er zuvor mit einigen seiner Studenten gegründet hatte. Einer davon ist mittlerweile übrigens Chefwissenschafter bei ChatGPT-Hersteller OpenAI.

Späte Reue

Nun sieht Hinton das alles ganz anders. Er bereue mittlerweile einen Teil seines Lebenswerks, betont er gegenüber der "New York Times". Er versuche sich selbst mit dem Gedanken zu beruhigen, dass es wohl jemand anderes getan hätte, wenn er nicht beteiligt gewesen wäre. Das klang vor einigen Jahre noch ganz anders, gegenüber dem "Toronto Star" zeigte er im Jahr 2015 noch großen Enthusiasmus für die Zukunft von "künstlicher Intelligenz" und betonte, dass er deswegen wohl nie in den Ruhestand gehen werde.

Jenen öffentlichen Brief, in dem einige Forscher unlängst einen sechsmonatigen Entwicklungsstopp für mächtigere Systeme als OpenAIs aktuelles GPT-4 gefordert haben, hat Hinton übrigens nicht unterschrieben. Dieser hatte damals für einige Kritik gesorgt, weil er eher apokalyptische Szenarien zeichnete, anstatt auf aktuell drängende reale Defizite dieser Systeme wie das überzeugende Erstellen von Falschinformationen sowie die Bedrohung für gewisse Jobs einzugehen.

Kritik am Kritiker

Dass sich Hinton (erst) jetzt zu Wort meldet, löst nun aber wiederum selbst Kritik aus. So betont Meredith Whittaker, aktuell Chefin des verschlüsselten Messengers Signal und zuvor KI-Forscherin bei Google, dass andere schon vor Jahren exakt vor all diesen Dingen gewarnt hätten.

Es seien Forscherinnen wie Timnit Gebru, Margaret Mitchell und auch sie selbst gewesen, die bereits vor Jahren intern bei Google die Alarmglocken geläutet hätten und dafür aus dem Unternehmen gedrängt worden seien. Dabei gehe es gar nicht darum zu sagen, wer die Kritik als Erster geäußert habe. Die Realität sei aber, dass bekannte Größen wie Hinton zugeschaut hätten, während sich andere mit Anwälten herumschlagen mussten und von der Google-Führung angelogen worden seien – nur um eben jetzt zu entdecken, dass die Kritikerinnen damals schon recht hatten.

Eine andere kritische Stimme kommt von Sasha Luccioni von Hugging Face: Viele würden Hintons Abgang als ein "Schaut, KI ist so gefährlich, dass sogar ihre Pioniere damit nichts mehr zu tun haben wollen" interpretieren. In Wirklichkeit sei es eher so, dass jene, die in früheren Jahren die Defizite solcher Systeme verursacht hätten, sich nun davon absetzen. (Andreas Proschofsky, 2.5.2023)