Die Fehleranfälligkeit von neuen KI-Tools ist kein Google-eigenes Problem. Der US-Konzern ist aber einer von denen, die auch mit halbfertigen Produkten schnell eine große Masse an Menschen erreichen.
REUTERS/Gonzalo Fuentes

Seit Google seine Suchmaschine in den USA auf breiter Front mit KI-Übersichten ergänzt hat, machen im Internet peinliche bis verstörende Fehler der Software die Runde. So veröffentlichte ein Nutzer die Empfehlung, den Käse auf einer Pizza mit nicht giftigem Klebstoff zu befestigen. Bei anderen behauptete die Suchmaschine in den KI-Antworten laut Screenshots etwa, dass Hunde in der Basketball-Liga NBA und der Football-Liga NFL gespielt hätten. Barack Obama sei zudem der erste muslimische Präsident der USA gewesen, hieß es außerdem falsch.

Das kürzlich in den USA eingeführte Feature "AI Overviews" soll Nutzern schneller eine direkte Antwort auf Fragen geben, statt wie bisher Listen von Weblinks zu präsentieren. Kurze Antworten auf Fragen nach simplen Fakten gab es in der Suchmaschine über den Links schon längere Zeit, mit dem neuen KI-gestützten Feature sind es aber zum Teil Texte mit mehreren Absätzen – inklusive einer gewissen Fehleranfälligkeit.

Problem erkannt

Aber wie kommt es derzeit zu den Fehlern? Die KI-Software scheint in vielen Fällen seriöse Informationen nicht von Scherzen oder Satire unterscheiden zu können. So fanden sich als Quellen für einige besonders lächerliche Behauptungen Spaßposts auf Onlineplattformen oder Artikel der Satirewebsite The Onion – etwa die Behauptung, dass Geologen empfehlen, einen kleinen Stein pro Tag zu essen. Eine Google-Sprecherin sagte dem Technologieblog The Verge am Donnerstag, die Fehler gingen "allgemein auf sehr ungewöhnliche Nachfragen zurück und entsprächen nicht dem, was die meisten Leute suchen oder erleben". Diese "vereinzelten Beispiele" würden aber in weiterer Folge dazu verwendet, das Produkt zu verbessern.

Schon bei der Präsentation des Features vor wenigen Tagen auf der Google-Konferenz I/O wurde Kritik laut, die Antworten der KI seien sogar in diesem vordefinierten Setup nicht ganz zufriedenstellend gewesen. In einer Demo sah man einen Mann, der die KI nach der Lösung für seine nicht funktionierende Kamera fragte. Die Antwort, "öffne die Rückseite der Kamera und entferne vorsichtig die Filmrolle", sollte man tatsächlich nicht für bare Münze nehmen, wie vielen Zusehern zu Recht auffiel.

Probleme nicht neu

Google musste bereits im Februar wegen eines KI-Programms Spott im Netz über sich ergehen lassen. Die Software Gemini erzeugte Bilder nichtweißer Nazi-Soldaten und nichtweißer amerikanischer Siedler. Google erläuterte, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platz sei. Danach ließ der Konzern Gemini vorerst keine Bilder mehr von Menschen generieren. Gemini ist aber kein Einzelfall. Alle neu eingeführten KI-Tools kämpfen mit Problemen, auch gelegentlichen Verzerrungen der Realität. Dessen sind sich Microsoft beziehungsweise OpenAI und auch Google bewusst, jedoch befindet man sich derzeit noch mitten im Prozess der Fehlerbehebung.

Dennoch rollt man Features wie "AI Overview" schon an eine große Bevölkerungsgruppe aus, wissend, dass die Fehleranfälligkeit höher ist als in bisher genutzten Suchtools im Netz. Die Firmen scheinen den Ansatz zu haben, dass man Sachen eben ausprobieren muss, aber gelegentlich drängt sich der Eindruck auf, die Systeme laufen außerhalb der Kontrolle der Eigentümer.

In Sachen "AI Overview" soll dieses Feature zum Jahresende auch in weiteren Ländern eingeführt werden. Viele Website-Betreiber und Medien machen sich Sorgen, dass Google durch die KI-Zusammenfassungen weniger Menschen zu ihnen leiten wird und ihr Geschäft darunter leidet. Google kontert, dass es zu den Quellen für Informationen, die in den Übersichten landen, sogar mehr Datenverkehr gebe. Wie es dabei dem Rest geht, blieb aber bisher unklar. (APA, red, 24.5.2024)