Die seltsamen Vorgänge rund um OpenAI-Boss Sam Altman (im Hintergrund) sorgen weiter für Spekulationen.
AFP/OLIVIER DOULIERY

Zumindest für eine Miniserie sollte der Stoff reichen: Was sich in den vergangenen Tagen rund um ChatGPT-Hersteller OpenAI abgespielt hat, sorgte weit über die Branche hinaus für einiges Aufsehen – aber auch Verwunderung. Dass eine Firma ihren eigenen Chef hinauswirft, damit eine Mitarbeiterrevolte auslöst und ihn schließlich darum bittet, wieder zurückzukehren, das ist selbst im an Dramen nicht gerade armen Silicon Valley einigermaßen ungewöhnlich.

So ungewöhnlich, dass dies unweigerlich Fragen nach den wahren Hintergründen aufwirft. Also, was hat sich hinter den Kulissen abgespielt, dass es ausgerechnet beim Mediendarling unter den KI-Firmen so weit kommen konnte?

Alarm?

Eine besonders saftige Theorie liefert nun die Nachrichtenagentur Reuters. Behauptet diese doch in einem aktuellen Bericht, dass es hinter den Kulissen Streitigkeiten über einen neuen KI-Durchbruch gegeben haben soll, manche Forscher des Unternehmens gar in einem Brief an das Aufsichtsgremium der Firma vor den dadurch entstehenden Gefahren gewarnt haben sollen. Der Bericht insinuiert zudem, dass es ebendiese Warnung gewesen sein soll, die zur überstürzten Entlassung von Altman geführt hat.

Das Problem dabei: Mittlerweile dementieren das mehrere andere Quellen. So berichtet "The Verge" unter Berufung auf eigene Quellen bei OpenAI, dass das Board einen solchen Brief nie gesehen habe und auch der erwähnte KI-Durchbruch keine Rolle bei den aktuellen Dramen gespielt haben soll. Trotzdem nährt all das natürlich das Interesse, insofern: Worum geht es eigentlich?

Q*

Laut "The Information" soll OpenAI vor einigen Monaten tatsächlich ein weiterer Durchbruch bei der Entwicklung von KI-Systemen gelungen sein. Worum es sich dabei im Detail handelt, wird zwar nicht verraten, der Bericht erwähnt aber ein darauf basierendes Projekt. Dieses nennt sich Q* (ausgesprochen: Q-Star) und kann einfache Mathematikprobleme lösen, ohne diese vorher schon einmal samt Lösung gesehen zu haben.

Ein neuer KI-Durchbruch könnte die Basis für mächtigere Sprachmodelle liefern.
AFP/STEFANI REYNOLDS

Das mag zunächst trivial klingen, wäre aber tatsächlich ein großer Fortschritt. Denn was bei aktuellen KI-Systemen gern übersehen wird: Diese besitzen kein eigenes Logikverständnis oder gar eine Intelligenz im klassischen Sinne. Sie liefern einfach auf eine Anfrage die statistisch jeweils wahrscheinlichste Antwort, die sich aus der riesigen Menge an Daten, auf die sie trainiert wurden, ergibt.

Das hat übrigens dazu geführt, dass Chatbots wie Bard oder ChatGPT in ihren ersten Versionen mitunter an einfachen Mathematikaufgaben gescheitert sind. Dass das mittlerweile nicht mehr der Fall ist, liegt nicht an Forschungsdurchbrüchen, sondern daran, dass die Hersteller für solche Dinge "schummeln" und auf andere Quellen für die Berechnung zurückgreifen.

Eine bessere Basis

Wirklich interessant ist bei dieser Entwicklung insofern weniger der konkrete Anwendungsfall denn was das für die Zukunft großer KI-Modelle bedeutet. Zumal laut dem Bericht noch ein weiterer Durchbruch dazukommt: In der Entwicklung von großen Sprachmodellen, wie sie hinter ChatGPT und Co stehen, spielt das Trainingsmaterial eine zentrale Rolle, was aber auch gleichzeitig eine zentrale Beschränkung ist. Sowohl was dessen Qualität aber auch damit einhergehende Rechtsfragen anbelangt. OpenAI soll es nun gelungen sein, dieses Material zum Teil durch computergenerierte Daten zu ersetzen. Klingt interessant, leider fehlen aber auch hier die Details.

Sicherheitsfragen

Bei OpenAI scheinen jedenfalls viele davon auszugehen, dass all das den Weg für deutlich mächtigere KI-Systeme aufmacht. Das wiederum soll das interne Safety-Team, das zur Überwachung neuer Entwicklungen etabliert wurde, alarmiert haben. Dieses soll bereits vor einigen Monaten gewarnt haben, dass OpenAI nicht die notwendigen Schutzmaßnahmen etabliert habe, um solch eine Technologie verantwortungsvoll mit der Öffentlichkeit, aber auch kommerziellen Partnern zu teilen.

Diese Frage der "Sicherheit" spielt in der KI-Entwicklung seit Jahren eine große Rolle. So gab sich etwa Google jahrelang sehr zurückhaltend bei entsprechenden Veröffentlichungen. ChatGPT-ähnliche Chatbots wurden zwar immer wieder einmal vorgezeigt, aber zunächst nicht freigegeben, weil man negative Konsequenzen aufgrund der Tendenz solcher Systeme, sehr überzeugt Falsches zu behaupten, befürchtete. Auch andere KI-Firmen haben eigene Abteilungen, die vor der Veröffentlichung entsprechender Produkte deren gesellschaftliche Auswirkungen prüfen sollen.

AGI

Plakativ geht es in der Debatte dabei oft um das Kürzel AGI, das für Allgemeine künstliche Intelligenz steht. Die Definition dieses Begriffs – aber auch die Frage, ob eine solche je erreicht werden kann – ist dabei nicht unumstritten. Vereinfacht gesagt steht dahinter aber die Idee einer KI, die menschenähnlich agiert. Denn so überzeugend Textautomaten wie ChatGPT auch sein mögen, davon sind sie derzeit noch weit entfernt.

Dass die Debatte über AGI in den vergangenen Monaten in der weiteren Öffentlichkeit gelandet ist, liegt nicht zuletzt daran, dass einige Forscherinnen und Forscher in dieser Hinsicht mit recht dramatischen Warnungen an die Öffentlichkeit gegangen sind, bis zu einer existenziellen Bedrohung für die Menschlichkeit war da zum Teil die Rede.

Widerspruch

Gleichzeitig gibt es aber bei KI-Expertinnen und -Experten auch die Gegenperspektive, die betont, dass man davon noch weit entfernt ist, und eine ganz andere Motivation hinter solch apokalyptischen Szenarien vermutet: von den aktuellen Problemen rund um KI-Systeme abzulenken. Nämlich dass diese erst durch die massenhaft Datensammlung großer Konzerne möglich sind, Unsummen an Energie verbrauchen, sehr überzeugende Falschinformationen erstellen können oder auch eine Bedrohung für zahlreiche Jobs darstellen.

Diese Debatte ist zwar nicht neu, sie wird aber natürlich durch jeden neuen Forschungsdurchbruch frisch angefeuert. Der Grund für die aktuellen Chaostage bei OpenAI scheint sie aber nicht zu sein, auch diese Suche muss also wohl weitergehen. (Andreas Proschofsky, 23.11.2023)