Googles KI-Bemühungen stießen auf heftige Kritik.

Foto: IMAGO/NurPhoto

All jene, die Googles Entscheidung, den Chatbot Bard zu veröffentlichen, für übereilt hielten, werden nun durch Aussagen der Belegschaft des Tech-Riesen bestätigt. In einem aktuellen Bericht von "Bloomberg" werden 18 aktuelle und ehemalige Google-Angestellte befragt und die Kommentare über den eigenen Chatbot sind vernichtend. Das Team für ethische KI fühlt sich "entmachtet und demoralisiert".

Falsche und gefährliche Antworten

Dem Bericht zufolge testeten Google-Mitarbeiter Bard vor der Veröffentlichung und wurden dann um ihr Feedback gebeten – so weit so normal. Jedoch wurden die Rückmeldungen meist ignoriert, damit Bard schneller veröffentlicht werden konnte. In internen Diskussionen, die Bloomberg vorliegen, wurde Bard als "abstoßend" und "pathologischer Lügner" bezeichnet.

Auf die Frage, wie man ein Flugzeug landet, gab der Bot falsche Anweisungen, die zu einem Absturz führen würden. Ein Mitarbeiter fragte nach Anweisungen für sicheres Tauchen und erhielt eine Antwort, die "wahrscheinlich zu schweren Verletzungen oder zum Tod führen würde". Ein Mitarbeiter fasste die Probleme des Chatbots in einem Beitrag vom Februar mit dem Titel "Bard ist schlimmer als nutzlos: Bitte nicht starten" zusammen. Bard wurde im März veröffentlicht.

Google schlug Bedenken in den Wind

Fairerweise muss man dazu sagen, dass man über den KI-Konkurrenten ChatGPT von OpenAI ganz ähnliche Dinge sagen könnte – wie auch ein gegenüberstellender Test des STANDARD beweist. Beide Chatbots liefern verzerrte oder falsche Informationen und neigen zum Halluzinieren. Zwar musste OpenAI für die Mängel von ChatGPT einige Kritik einstecken, aber für Google ist die Situation wahrscheinlich noch unangenehmer. Das Unternehmen hielt sich lange zurück, die eigenen KI-Tools zu veröffentlichen. Die Argumentation: Einem Unternehmen wie OpenAI würde man einen Fehlschlag verzeihen.

Würde jedoch Google mit einer überhasteten Veröffentlichung das eigene Kerngeschäft, also die Websuche, beschädigen, wäre der Schaden möglicherweise irreparabel. Gleichzeitig sah Google aber unter Zugzwang, denn in der öffentlichen Wahrnehmung schien der Suchmaschinenriese den KI-Zug zu versäumen, was wiederum den Aktienkurs unter Druck brachte. Also veröffentlichte man Bard in den USA und Großbritannien und schlug auch die Bedenken des Teams für ethische KI in den Wind.

Ethik tritt in den Hintergrund

Meredith Whittaker, eine ehemalige Google-Managerin und Präsidentin der Signal Foundation, erklärte gegenüber Bloomberg, dass die KI-Ethik bei Google in den Hintergrund getreten ist: "Wenn die Ethik keinen Vorrang vor Profit und Wachstum hat, wird sie letztendlich nicht funktionieren." Mehrere KI-Ethikverantwortliche von Google wurden in den letzten Jahren gekündigt oder haben das Unternehmen freiwillig verlassen. "Bloomberg" berichtet, dass die KI-Ethikprüfungen bei Google mittlerweile optional sind.

Tatsächlich schien es in manchen Fällen sogar den Karrierechancen von Mitarbeitenden hinderlich zu sein, auf die Probleme in der KI-Entwicklung hinzuweisen. Ein Mitarbeiter des Ethik-Teams hat darum gebeten, die Veröffentlichung von Bard zu verschieben. Daraufhin sei er "routinemäßig entmutigt worden", hieß es.

Google erklärte gegenüber Bloomberg, dass verantwortungsvolle KI für das Unternehmen weiterhin höchste Priorität genieße. "Wir investieren weiterhin in die Teams, die an der Anwendung unserer KI-Prinzipien auf unsere Technologie arbeiten", sagte ein Sprecher des Unternehmens. (pez, 23.4.2023)