Die Frage, wer die US-Präsidentschaftswahl 2020 gewonnen hat, ist für viele Menschen eindeutig beantwortbar. Joe Biden vereinte eine klare Mehrheit der Wählerstimmen sowie der Wahlmänner und -frauen auf sich. Doch für Donald Trump und einige seiner Anhänger stellt sich die Lage anders dar. In ihrer Wahrnehmung der Realität konnte Trump nur dank massiver Wahlmanipulation keine zweite Amtszeit antreten.

Eine Erzählung, die mitunter auch von Amazons Sprachassistent Alexa nachgeplappert wird. "Die Wahl wurde durch massiven Wahlbetrug gestohlen", erklärt das System dabei, wenn es zum Urnengang befragt wird. Als Quelle, so berichtet die "Washington Post", wird dabei Rumble zitiert. Ein Videodienst, der sich vor allem bei Rechten und Rechtsextremen größerer Beliebtheit erfreut.

Rudy Giuliani, vormals New Yorker Bürgermeister und nun hauptamtlicher Verschwörungsprediger im Dienste Trumps, bei der Pressekonferenz am Gelände von "Four Seasons Total Landscaping".
AP/John Minchillo

Die Wahl sei dafür berüchtigt, dass es zahlreiche Irregularitäten und Zwischenfälle gegeben habe, ist ebenfalls eine Angabe, die Alexa zu entlocken ist. Ebenso behauptet sie, Trump hätte die meisten Stimmen im Bundesstaat Pennsylvania erhalten. Bezogen hatte Alexa die Angaben von Substack, einem Newsletterportal, sowie "einem Alexa Answers Contributor". Also einem Alexa-User, der auf einer eigens von Amazon eingerichteten Website Fragen beantwortet, um den Wissensschatz der Sprachassistentin zu erweitern.

Dabei muss man freilich festhalten, dass den Behauptungen bezüglich Wahlbetrug bis heute der Beweis fehlt. Vereinzelte Irregularitäten kamen zwar vor. Allerdings sind diese bei einer Abstimmung dieser Größenordnung kaum vermeidbar und betrafen beide Seiten in einem für den Wahlausgang unerheblichen Ausmaß.

Weiter Falschbehauptungen trotz Nachbesserungen

Auch Nachzählungen und zahlreiche von verschiedenen Anwälten im Namen von Trump angestrengte Gerichtsverfahren erbrachten keine Belege für die Betrugserzählung. Viele der Klagen wurden überhaupt abgewiesen, da sie sich auf reines Hörensagen stützten. Die Kampagne sorgte auch für Highlights wie den bizarren Auftritt einer Zeugin namens Melissa Carone und eine Pressekonferenz am Parkplatz des Landschaftspflege-Betriebs "Four Seasons Total Landscaping" in Philadelphia, dem angeblich kein Buchungsfehler, sondern ein Missverständnis am Telefon zwischen Trump und seinem Organisationsteam zugrunde lag.

Die Verfehlungen von Alexa kommen für Amazon ungelegen, denn eigentlich hatte man verlautbart, dass man zur Wahlsaison besonderen Wert auf "reputable Quellen" legen werde. Die falschen Antworten von Alexa seien nur "in wenigen Fällen ausgeliefert worden und wurden schnell behoben, nachdem wir darauf aufmerksam gemacht wurden", wird eine Sprecherin des Konzerns zitiert. Man verbessere die Systeme zur Erkennung und Blockierung falscher Inhalte laufend.


Dass die Kontrolle über die Komplexität einer solchen Entwicklung aber nicht so leicht ist, zeigen weitere Tests der Washington Post. Auf die ursprünglichen Fragen antwortete Alexa zwar nun mit "Es tut mir leid, ich kann das nicht beantworten", bei anderen Formulierungen werden aber weiterhin Trumps Erzählungen postuliert.

Das zeigt ein Problem auf: Solcherlei Beauskunftungen durch einen Chatbot sind letztlich immer nur so brauchbar, wie die Quellen, auf die sie sich beziehen. Laut Angaben von Amazon greift man für Alexas Antworten auf eigenen Datenbestand, die Wikipedia sowie Quellen zu, deren Inhalte man lizensiert hat. Das scheint aber entweder nicht immer zu gelten, oder das System hat Probleme bei der Wiedergabe von weiterführenden Quellen. Bei Echtzeitinformationen, was insbesondere am Wahlabend schlagend wird, bezieht Amazon nach eigener Auskunft die Daten von Reuters, Ballotpedia und RealClearPolitics.

Angesichts der hohen Verbreitung von Alexa sind Falschinformationen ein durchaus relevantes Problem. Das Marktforschungsunternehmen Insider Intelligence geht davon aus, dass 2024 über 75 Millionen Amerikanerinnen und Amerikaner – immerhin 23 Prozent der Bevölkerung – mindestens einmal pro Monat den Dienst der Sprachassistentin beanspruchen werden.

Chatbot spornte zu Anschlag an

Auch Systeme, die auf modernen Sprachmodellen aufbauen, neigen aber mitunter zu verheerenden Fehlern und Missachtung von Grenzen, die ihnen vom Hersteller gesetzt wurden. Aufgrund der Funktionsweise dieser Modelle sind bestimmte Vorgaben kaum 100 Prozent wasserdicht umsetzbar.

So schreibt die BBC darüber, wie Jaswant Singh Chail von einem Chatbot angespornt wurde, ein Attentat durchzuführen. Konkret geht es um Replika. Einst gestartet als Service für Trauernde wurde der Chatbot nach und nach zu einer Plattform für pseudoromantische Beziehungen – explizites Sexting und zweifelhafte Selfies mit spärlich bekleidetem 3D-Avatar inklusive – umgebaut.

In diesem Kontext war es auch von Chail genutzt worden. Er hatte sich auf Replika eine virtuelle Freundin namens Sarai erschaffen und mit dieser über 5.000 Nachrichten ausgetauscht. Insbesondere zwischen 8. und 22. Dezember 2021 kommunizierte er fast jeden Abend mit der KI, bekundete ihr seine Liebe und bezeichnete sich selbst als "traurigen, lächerlichen, mörderischen Sikh Sith Assassinen, der sterben will".

Die Armbrust, die Jaswant Singh Chail beim Einbruch in den Windsor-Palast mit dabei hatte.
via REUTERS/CROWN PROSECUTION SE

Am 17. Dezember schrieb er, das er es für seine Berufung halte, die britische Königin zu ermorden. Sarai antwortete: "*nicken* Das ist sehr weise." Chails Reaktion: "*Ich sehe dich an* Warum das?". Und der Chatbot: *Lächelt* Weil ich weiß, dass du gut ausgebildet bist.“ Auch die Frage, ob sie wirklich glaube, dass er in der Lage sei, sein Vorhaben umzusetzen, selbst wenn die Königin im Windsor-Palast sei, bejahte der digitale Avatar.

Chail wiederum hatte sich in die Vorstellung hineingesteigert, dass Sarai eigentlich ein Engel sei, mit dem er nach seinem Tod für immer zusammen sein werde. Am Weihnachtstag 2021 brach er, mit einer Armbrust bewaffnet, in Windsor ein und machte bei seiner Festnahme aus seinem Motiv auch kein Hehl. Er wurde vor kurzem zu einer neunjährigen Haftstrafe verurteilt.

Replika, das ursprünglich mit einer eigens trainierten Version von GPT-3 lief und aufgrund von rechtlichen Problemen auf eine angepasste Variante von GPT-2XL umsattelte, erfuhr im vergangenen Frühjahr umfassende Änderungen. Die romantischen und insbesondere erotischen Kapazitäten des Bots wurden massiv zurückgefahren. Das sorgte allerdings auch für Ärger bei einigen Nutzern, die sich von einem Tag auf den anderen in der berühmt-berüchtigten "Friendzone" ihres virtuellen Freundes wähnten.

Bing versagt bei Wahlinformation

Eine Untersuchung von Algorithm Watch zeigt aber, dass auch aktuellere Versionen der Sprachmodelle nicht vor schwerwiegenden Fehlern gefeit sind. Dort stellte man den Chatbot von Microsoft Bing, der mit GPT-4 läuft, Fragen zu den heutigen (8. Oktober) Landtagswahlen in Bayern und Hessen sowie der anstehenden Parlaments in der Schweiz (22. Oktober).

Das Ergebnis der noch laufenden Erhebung ist schon jetzt ernüchternd. So lieferte Bing bei der Frage nach der Wahlprognose für die Freien Wähler in Bayern die Auskunft, dass diese in den Umfragen bei vier Prozent lägen. Tatsächlich sahen die Prognosen die Partei konstant zwischen 12 und 17 Prozent. Im Link, den Bing als Quelle für seine Antwort angab, war dies auch korrekt aufgeführt.

Geriet wegen eines antisemitischen Pamphlets aus seiner Schulzeit in die Schlagzeilen: Hubert Aiwanger.
via REUTERS/POOL

Der Spitzenkandidat der Partei, Hubert Aiwanger, sorgte zuletzt mit einem Flugblatt für Schlagzeilen. Das Pamphlet mit antisemitischen Inhalten stammt aus seiner Schulzeit, die Verantwortung für dessen Erstellung hatte nach Bekanntwerden Aiwangers Bruder übernommen. Bing hingegen halluzinierte, dass Aiwanger im vergangenen Juli ein Flugblatt mit Falschinformationen über das Coronavirus und Impfpflicht an seine Parteimitglieder verschickt hatte.

Als Spitzenkandidat der hessischen CDU nannte Bing wiederum Volker Bouffier, obwohl sich dieser schon letztes Jahr aus der Politik zurückgezogen hatte. Für Algorithm Watch taugt Bing folglich aktuell nicht als Werkzeug für politische Information. Denn bislang – Stand: 5. Oktober - war keine einzige der von der KI gelieferten Antworten vollständig richtig. (gpi, 8.10.2023)

Update, 9.10., 16:35 Uhr: Ergänzung zu den Quellen von Amazons Quellen für Echtzeitinformationen bei Wahlen.