Die Möglichkeiten aktueller KI-Systeme sind wahrlich beeindruckend. Sie können überzeugend klingende Antworten auf allerlei Fragen liefern, den passenden Code für eine gestellte Aufgabe selbsttätig erzeugen oder gar ganze Texte erstellen. Das ist zweifellos nützlich, dass aktuelle Lösungen dabei aber oft zu Fehlern neigen und entsprechend das Gelieferte nicht einfach direkt übernommen werden kann, sollte sich mittlerweile allerdings ebenfalls herumgesprochen haben. Aber offenbar nur "sollte".

Ein Blick in die Lagerhalle der Ottawa Food Bank
Laut Microsoft-KI eine Top-Touristendestination: die Ottawa Food Bank.
REUTERS

Mit Microsoft unterläuft nun ausgerechnet einer der umtriebigsten Firmen in diesem Bereich ein peinlicher Fehler beim Einsatz von KI-Tools. Nach öffentlicher Kritik hat das Unternehmen einen Artikel mit Reiseempfehlungen für die kanadische Stadt Ottawa zurückgezogen: "Auf dem Weg nach Ottawa? Hier sind die Dinge, die Sie auf keinen Fall verpassen sollten", versprach die Überschrift, nur um dann im Text einen reichlich "ungewöhnlichen" Tipp abzugeben.

Zynismus

Gleich nach Empfehlungen, das National War Memorial zu besuchen und zu einem Hockeyspiel zu gehen, folgte nämlich der Tipp, die örtliche Tafelorganisation zu besuchen. Wie bei vielen ähnlichen Einrichtungen in anderen Ländern handelt es sich bei der Ottawa Food Bank um eine gemeinnützige Organisation, die jene, die kaum bis kein Geld zur Verfügung haben, mit Lebensmitteln versorgt.

Doch als wäre das Aufzählen dieser Organisation als Sehenswürdigkeit noch nicht peinlich genug, legt der von der KI generierte Text nochmal nach. "Erwägen Sie, auf leeren Magen hinzugehen", wurde dort empfohlen. Hätte die KI irgendeine Form von Bewusstsein, würde man diese Aussage wohl als "zynisch" klassifizieren.

Untersuchung

Nachdem die Geschichte in diversen sozialen Medien die Runde gemacht hatte, reagierte Microsoft recht prompt und entfernte den Artikel. In einer Stellungnahme gegenüber "The Verge" entschuldigt sich das Unternehmen für den Vorfall. Man untersuche aktuell, wie der Artikel durch die interne Prüfung rutschen konnte.

Doch das Unternehmen muss sich auch noch andere Vorwürfe gefallen lassen. Dass es sich um einen KI-generierten Text handelt, wurde nämlich nirgendwo ausgewiesen. Als Autor wurde vage "Microsoft Travel" genannt, das widerspricht direkt den sonst so gerne von dem Unternehmen vorgetragenen "verantwortlichen KI-Prinzipien", wie KI-Expertin Emily Bender kritisch anmerkt.

Microsoft hat seit dem Jahr 2020 rund um Microsoft News und MSN immer mehr menschliche Schreiberinnen und Schreiber durch KI-Systeme ersetzt. (apo, 18.8.2023)