Die AfD – Alternative für Deutschland – schreckt auch vor drastischen Formulierungen und Bildern nicht ab, um am rechten Rand weiter auf Wählerstimmenfang zu gehen.

Foto: Emmanuele Contini via www.imago-images.de

"Nein zu noch mehr Flüchtlingen", lässt der stellvertretende AfD-Fraktionsvorsitzende Norbert Kleinwächter auf seinem Instagram-Account wissen. Begleitet wird der für die rechte Partei nicht überraschende Satz von einem emotionsgeladenen Foto, voller schreiender Männer. Ein Fake-Bild, wie vermutet wird.

Sechs Finger und klare Botschaften

Ein unrealistisch in die Länge gezogenes Gesicht, eine Hand mit sechs Fingern – bei genauerer Betrachtung liegt der Verdacht nahe, dass das von dem AfD-Politiker verbreiteten Foto ein sogenanntes Fake-Foto ist, also mithilfe Künstlichen Intelligenz erstellt wurde. Doch so genau schaut man auf Instagram oft nicht hin und schnell bleibt die Botschaft oberflächlich: gewaltbereite Flüchtlinge, die aus welchem Grund auch immer emotional aufgeladen sind.

Schon jetzt wird mit KI-generierten Fotos Politik gemacht. Es zeigt, dass sehr bald strengere Regeln für diesen KI-Einsatz benötigt werden.
Foto: AfD/Instagram

Die dazu passende Meinung wird der Leserin und dem Leser von Kleinwächter mitgeliefert. Die Polizei rechne in den nächsten Monaten mit noch mehr Flüchtlingen, schreibt der Politiker unter Verweis auf ein Statement aus der Polizeigewerkschaft. Derzeit würden etwa 1.500 Personen pro Woche "illegal in unser Land" flüchten, ergänzt Kleinwächter.

Generell scheint die AfD solche KI-generierten Fotos für sich entdeckt zu haben. So findet sich auf dem Instagram-Kanal des AfD-Politikers eine offensichtlich überzeichnete Karikatur des deutschen Bundesministers für Gesundheit, Karl Lauterbach (SPD). Die an den realen Lauterbach angelehnte Fratze, anders kann man es nicht nennen, ist, zusammen mit dem Satz "Lauterbachs Lügen lückenlos aufdecken", ein sehr klarer politischer Angriff. Das zombie-eske Gesicht soll zusammen mit dem textlichen Vorwurf ein ganz klares Gefühl beim Leser auslösen.

Der deutsche Gesundheitsminister Lauterbach wird als Zombie dargestellt – hier siegt die Überzeichnung gegen den Versuch, ein realistisches Foto zeigen zu wollen.
Foto: AfD/Instagram

Bedrohlicher Trend

Schon zuletzt sorgten Fake-Fotos von Politikern für große Aufregung. Putin scheint auf einem Foto vor dem chinesischen Präsident auf die Knie zu gehen, in einer ganzen Fotostrecke sieht man den ehemaligen US-Präsidenten Donald Trump, wie er von mehreren Polizisten niedergerungen wird und in der Folge das Klo im Gefängnis putzen muss.

Ohne Markierung können diese Fotos als Realität dargestellt werden, was künftig noch mehr die Grenzen zwischen Realität und Fiktion verschwimmen lassen wird – speziell, wenn die Fake-Fotos nicht als solche gekennzeichnet werden.

Zwischen Witz und Ernst

Der Publizist Sascha Lobo warnte dazu passend kürzlich in der TV-Sendung "Markus Lanz". "Es gibt eine ganze Reihe von Leuten, die im Netz versuchen, die Künstliche Intelligenz missbrauchbar zu machen," sagt Lobo. Die Verwendungen seien jetzt zu Beginn dieses Fake-Foto-Hypes noch oftmals "lustig" gemeint und klar als Fake zu erkennen, dies sei in der nahen Zukunft aber wohl nicht mehr der Fall. Sogar Stimmen ließen sich mittlerweile einfach imitieren. Nach dem Hochladen eines Podcasts oder einer Sendung, wo das Opfer gesprochen hat, könne man dieser Dank KI eigene Worte in den Mund legen.

Ein witziges und gleichzeitig verstörend echt wirkendes Gespräch zwischen drei US-Präsidenten zeigt zumindest die audio-technische Brillanz solcher KI in einem kürzlich hochgeladenen Youtube-Video. Hier diskutieren Donald Trump, Joe Biden und Barack Obama um die Qualität der einzelnen Teile der Videospiel-Reihe "Zelda". Ganz klar, dass dieses Gespräch nie stattgefunden hat, würde man allerdings nur die Stimmen hören, man könnte wohl nicht mit Sicherheit behaupten, dass es sich um einen Fake handelt

LinksterGames

Wahlmanipulation

Vor allem das Thema Wahlmanipulation wird von Lobo in den Raum gestellt. So sei es in jedem Fall "erahnbar", dass in künftigen Wahlkämpfen – vor allem in den USA – Falschinformationen und Fake News auftauchen würden, die wirklich "besorgniserregend" seien. Die Öffentlichkeit könne noch gar nicht mit solch professionellen Fake-News umgehen, meint der Autor. Man stelle sich vor, es würde kurz vor einer Wahl ein Video zwischen Olaf Scholz und Wladimir Putin auftauchen, in dem man die beiden miteinander plaudern hört. Auf die Frage nach dem Ursprung des Videos könnte das jeweilige Medium oder der Privatnutzer sagen, dieses sei "geleakt und heimlich aufgenommen worden". "Damit haben wir eine völlig neue Front, was Fake News angeht", kommentiert Lobo.

Ganz hoffnungslos ist der Kampf gegen diese Fake-Information nicht, zumindest aktuell im Kampf gegen Fake-Fotos. Plattformen, wie etwa die Website "Hugging Face", bieten eine Erkennungssoftware für künstlich erzeugte Bilder an. Das eingangs erwähnte Foto von der AfD wird dort zu einer 90-prozentigen Wahrscheinlichkeit als Fake erkannt. Andere Fotos, etwa das von Putins Kniefall, sind nicht mehr so einfach zu enttarnen. Hier ist sich die Software nur noch zu 56 Prozent sicher, dass es sich um kein echtes Foto handelt. (aam, 26.3.2023)

Update, 27.3.: Quellenverweis zu den im Posting des Abgeordneten erwähnten Statement der Polizeigewerkschaft ergänzt (Neue Osnabrücker Zeitung).