Künstliche Intelligenz kann nicht nur Gesichter erkennen, sondern auch völlig neue erstellen. Im Internet und auf sozialen Medien können diese künstlichen Profile mit Falschnachrichten großen Schaden anrichten.

Foto: APA/AFP/DAVID MCNEW

"Die Idee, dass Menschen den Klimawandel kontrollieren können, ist illusionär." "Soros/Gates spendeten 6,5 Millionen Dollar an Gruppe, die warnt, dass die Welt in einen Klima-Lockdown treten muss." "Der Klimawandel ist der neue Kommunismus: Eine Ideologie, die auf einer Pseudowissenschaft aufbaut, die nicht infrage gestellt werden darf."

Was sich wie Tweets menschlicher Klimaleugner anhört, ist in Wahrheit das Werk eines Computerprogramms. Genauer gesagt handelt es sich um das Sprachmodell GPT-3 der US-amerikanischen Non-Profit-Organisation Open AI, das in der Lage ist, menschenähnliche Texte zu erstellen. Hunderte Tweets wie jene von oben kann das Programm theoretisch innerhalb weniger Sekunden produzieren, auf der Basis von bereits veröffentlichten Nachrichten, die in das Programm eingespeist werden. Das Erschreckende: Die meisten Menschen können die Nachrichten des Programms nicht von jenen von Menschen unterscheiden und werden unbewusst beeinflusst.

Manipulierende Falschnachrichten

Zu diesem Ergebnis kommt jedenfalls eine Studie US-amerikanischer Wissenschafter und Wissenschafterinnen der Universität Georgetown. Über einen Zeitraum von sechs Monaten haben die Forschenden mithilfe des Programms bestehende Informationen abgeändert oder gleich völlig neue, willkürliche Nachrichten produziert. Anschließend legten sie die Nachrichten hunderten Studienteilnehmerinnen vor, um zu analysieren, welche Auswirkungen sie auf die Menschen haben.

Dabei ging es etwa um die Frage, ob wirtschaftliche Sanktionen gegen China gesetzt werden sollen. Den Teilnehmenden wurden Argumente für oder gegen Sanktionen vorgehalten, die zuvor vom Programm erstellt wurden. Menschen, die beispielsweise die Anti-Sanktions-Nachrichten erhielten, tendierten danach doppelt so häufig dazu, Sanktionen abzulehnen, heißt es in der Studie.

Renaissance der Täuschung

Die Möglichkeiten, eine solche Technologie auch im Alltag und in Falschinformations-Kampagnen einzusetzen, sind vielfältig. Einige Experten befürchten etwa, dass künstliche Intelligenz automatisch Profile auf Facebook oder Twitter erstellen könnte, die dann regelmäßig kurze (Falsch-)Nachrichten für ein ausgewähltes Publikum produzieren und damit Wahlkämpfe, wissenschaftliche Debatten und die internationale Diplomatie beeinflussen. Schon jetzt ist es beispielsweise möglich, Profilfotos künstlich zu erstellen und mithilfe von Bots Falschnachrichten im Netz zu verbreiten. Hinzu kommen Deepfake-Videos, die von echten kaum mehr zu unterscheiden sind.

Laut den Studienautoren sind Programme wie GPT-3 aktuell besser darin, Falschinformationen zu produzieren als faktenbasierte Information. Denn das Programm tendiere dazu, bestimmte Informationen einfach hinzuzudichten. Es fehle noch an genauen Richtlinien und Begrenzungen, die das Programm dazu bringen, sich an etablierte Fakten zu halten. Die Wissenschafter warnen davor, dass Staaten oder einzelne Gruppen, die mehr finanzielle Mittel zur Verfügung haben, noch viel mehr mit solchen Programmen anstellen könnten. Hinzu kommt, dass auch die Programme selbst immer menschenähnlicher kommunizieren.

Schaden schnell angerichtet

Das Problem: Mit genügend Zeit können zwar die meisten Falschinformationen und künstlichen Onlineprofile entlarvt werden. Bis es dazu kommt, könnte der Schaden allerdings bereits angerichtet sein. Denn wenn es etwa um Informationen in Finanzmärkten, bei Wahlen oder diplomatischen Beziehungen geht, könnten einige Stunden oder sogar Minuten genügen, um mit einer Falschinformation großflächigen Schaden anzurichten.

Grundsätzlich ist das nichts Neues. Denn Falschinformationen werden seit vielen Jahren von Gruppen verbreitet, um sich bestimmte Vorteile zu verschaffen. Mithilfe von künstlicher Intelligenz könnte künftig jedoch eine verhältnismäßig kleine Gruppe von Menschen eine Vielzahl an Falschnachrichten in extrem kurzer Zeit produzieren, heißt es von vielen Experten und Expertinnen.

KI als Waffe gegen Falschnachrichten

Ironischerweise könnte künstliche Intelligenz auch dabei helfen, Falschnachrichten und deren Verbreiter frühzeitig zu entlarven. Denn die Technologie erlaubt es Wissenschaftern, große Datenmengen innerhalb kürzester Zeit auf ihre faktische Richtigkeit zu überprüfen.

Forschende am Massachusetts Institute of Technology (MIT) haben beispielsweise ein Programm entwickelt, das Profile und Nachrichten auf sozialen Medien analysiert und mit 96-prozentiger Genauigkeit feststellen kann, ob es sich dabei um Accounts handelt, die Falschnachrichten verbreiten. Anschließend lässt sich daraus ein Netzwerk aus den einflussreichsten und aktivsten Profilen und Nutzern erstellen.

Wettlauf um Informationen

Einige Expertinnen rechnen bereits mit einem KI-Informationswettlauf: zwischen jenen Menschen, die immer ausgefeiltere Programme nutzen, um Falschinformationen zu verbreiten, und jenen, die versuchen, Falschnachrichten aufzuspüren und rasch zu blockieren. Es ist ein Wettlauf, der gerade erst begonnen hat.

Einen Appell haben die Wissenschafter aber schon jetzt: Wir sollten alle aufmerksamer sein, welchen Informationen wir vertrauen und wie Programme und Gruppen unsere Leichtgläubigkeit auszunutzen versuchen. Entwickler wie jene von GPT-3 versichern, dass sie an den Sicherheitsrisiken ihres Programms arbeiten. Sie tun gut daran, sicherzustellen, dass ihr Werkzeug in die richtigen Hände gerät. (Jakob Pallinger, 18.6.2021)