Der Start in das Zeitalter der generativen KI ist für die Google-Suche – sagen wir mal – nicht ganz optimal verlaufen. Obwohl Google betont, dass die eigenen "AI Overviews" durch sehr spezifisches Training deutlich weniger zu Falschinformationen neigen als ChatGPT und Co, fiel das neue System gleich zum Start mit allerlei seltsamen bis bedenklichen Antworten auf. Dabei wurde den Fragenden etwa geraten, mindestens einmal am Tag einen kleinen Stein zu verspeisen. Wer nicht will, dass der Käse von der Pizza fällt, könnte ihn ja ankleben, riet die KI ebenfalls mit vollem Ernst.

Googles Suchchefin Liz Reid bei der Präsentation der "AI Overviews" Mitte Mai.
AP/Jeff Chiu

Beschränkung

Google reagierte auf diese Vorfälle auf zweierlei Weise: Einerseits besserte man gezielt nach, um die entsprechenden Antworten zu entfernen, andererseits wurde die Häufigkeit der Anzeige der "AI Overviews" reduziert. Umso überraschender kommt, was nun folgt: Vorübergehend rieten die "AI Overviews" nämlich erneut dazu, Klebstoff bei einer Pizza zu verwenden.

Der Grund dafür ist ebenso banal wie interessant, verrät er doch, wie solche Systeme funktionieren und wie anfällig sie für falsche Interpretationen sind. Ausgerechnet jene Berichte über das Versagen der "AI Overviews" waren es nämlich, die den falschen Tipp wieder ganz oben als Antwort auf die Frage "how much glue to add to pizza" katapultierten. Als Quelle für die Empfehlung gab die Google-Suche einen Artikel von Business Insider an, der sich eigentlich kritisch mit den "AI Overviews" befasste, dessen Inhalt aber vollständig falsch zusammengefasst wurde.

Nachgeprüft

In diesem Fall hat Google zumindest schnell reagiert, eine entsprechende Fragestellung ist mittlerweile nicht mehr möglich. Zuvor konnte aber The Verge überprüfen, dass die Antwort echt war, also wirklich so von der Google-Suche geliefert wurde. Das ist insofern wichtig, da bei der ersten Aufregung um die "AI Overviews" sehr viele gefälschte Screenshots kursierten.

Google argumentiert, dass die Fehler allesamt Ergebnis von sehr ungewöhnlichen Fragestellungen sind. Das mag so sein, ändert aber nichts daran, dass der Beitrag der "AI Overviews" zur Google-Suchqualität bisher im besten Fall zweifelhaft ist. Dass sich Google in dieser Hinsicht mehr Kritik als KI-Chatbots, die allesamt ebenfalls regelmäßig falsche Antworten liefern, gefallen lassen muss, liegt nicht zuletzt daran, dass die Erwartungen an die Google-Suche einfach eine andere sind.

AI Overview Pizza Fail
Die nächste Runde an seltsamen Empfehlungen der Google-KI.
The Verge

Vorgeschichte

Die AI Overviews sind das Ergebnis von längeren Experimenten Googles mit dem Einsatz Künstlicher Intelligenz in der Suchmaschine. Im Rahmen des "Search Generative Experiments" wurden diese und viele andere KI-Erweiterungen bereits seit rund einem Jahr getestet, doch wie sich nun zeigt, konnte man dabei die strukturellen Probleme nur begrenzt ausräumen.

Für heimische User bleibt der Trost, dass das Ganze derzeit in Europa noch gar nicht verfügbar ist. Die "AI Overviews" werden in der Google-Suche vorerst nun in den USA und auf Englisch dargestellt. Google hat aber angekündigt, dass dieses Feature in den kommenden Monaten nach und nach weltweit genutzt werden soll. (apo, 13.6.2024)