"Amerika! Ihr beschuldigt mich, in eure Demokratie einzugreifen", sagt Wladimir Putin. "Aber das muss ich gar nicht. Ihr macht das selber. Wahllokale werden geschlossen, ihr wisst nicht, wem ihr vertrauen sollt. Ihr seid gespalten." Und weiter: "Es gibt Fäden, an denen wir ziehen können, aber wir müssen nicht. Ihr zieht sie für uns."

Das ist freilich kein reales Statement des autokratisch regierenden Präsidenten Russland, der jegliche Einmischung in die US-Politik seit jeher abstreitet. Sondern eine kurze Ansprache in einem beeindruckend gemachten Deepfake-Video der NGO "Represent Us", die sich für höhere Wahlbeteiligung und gegen problematische Wahlgesetze und Korruption einsetzt.

RepresentUs

Es gibt auch einen zweiten Clip, in der sich Nordkoreas Diktator Kim Jong-un an die Amerikaner wendet. "Demokratie ist ein fragiles Ding", erklärt er einleitend. "Fragiler, als ihr denkt. Wenn die Wahl scheitert, gibt es keine Demokratie. (…) Es ist nicht schwer für eine Demokratie, zu kollabieren. Alles, was ihr dafür tun müsst, ist nichts."

TV-Sender warfen Clips raus

Die Videos sorgten schon vor ihrer Veröffentlichung für eine Kontroverse. Represent Us hatte für sie eigentlich schon Sendeplätze bei Fox News, CNN und MSNBC in Washington DC gebucht, doch alle drei entschieden sich kurzfristig dafür, sie doch nicht auszustrahlen. Laut der Organisation hat man noch keine Erklärung dafür bekommen.

RepresentUs

Es ist eine der ersten Fälle, in denen Deepfake-Technologie für politische Einschaltungen zum Einsatz kommt. Via Maschinenlernen, üblicherweise die Auswertung einer großen Mengen an Daten bzw. Vorlagen, bringt sich eine Künstliche Intelligenz bei, Gesichter synchron zu einem Text zu animieren. Vielfach eingesetzt wird sie bereits bei Pornos, um Köpfe von Prominenten in Filme einzusetzen.

Darüber hinaus dürften die immer besser werdenden Deepfakes zukünftig aber auch bei Hollywood-Blockbustern zum Einsatz kommen. Das kreative Potenzial hinter der Technologie ist unübersehbar, allerdings auch die Missbrauchsanfälligkeit. Beobachter fürchten, dass Deepfakes, wenn sie eines Tages nur noch über datenforensische Analyse von echten Aufnahmen unterscheidbar sind, zu einem mächtigen Desinformationswerkzeug werden könnten. (gpi, 30.9.2020)