Der echte Witali Klitschko.

Foto: IMAGO/NurPhoto

Die Bürgermeisterinnen und Bürgermeister von Wien, Madrid und Berlin: Sie alle haben in den vergangenen Tagen mit einem falschen Witali Klitschko telefoniert. Rasch warfen Beobachter auf, dass für den Auftritt des vermeintlichen Kiewer Bürgermeister wahrscheinlich ein Deepfake zum Einsatz gekommen sei. Diese erlauben es, mithilfe alter Videoaufnahmen und künstlicher Intelligenz das Gesicht von Personen für gefälschte Videos zu missbrauchen. Auf technischer Ebene wäre das zwar beeindruckend. Es gibt jedoch immer mehr Hinweise darauf, dass simplere Methoden zum Einsatz gekommen sind.

Während die Erstellung eines Deepfakes für bestehende Videoaufnahmen mittlerweile relativ einfach ist, gestaltet sich die fehlerfreie Umsetzung in Echtzeit deutlich schwieriger. So wäre es nicht unwahrscheinlich, dass Gesprächspartner aufgrund unnatürlicher Bewegungen des Gegenübers misstrauisch werden. Dem Wiener Bürgermeister Michael Ludwig (SPÖ) scheinen solche jedoch nicht aufgefallen zu sein.

Fake, aber nicht deep

Viel wahrscheinlicher ist es deshalb, dass die Akteure sich eines sogenannten "Shallowfake" bedienten, also bestehende Bildaufnahmen mithilfe von Bearbeitungsprogrammen veränderten. Von einer solchen Vorgehensweise geht der deutsche Investigativjournalist Daniel Laufer aus. Auf Twitter veröffentlichte dieser eine ausführliche Analyse des Videos. Ihm fiel auf, dass die Aufnahmen Klitschkos aus einem Interview vom April stammen, wie anhand des Hintergrunds und der Kleidung zu erkennen ist.

Deshalb verglich Laufer das Ursprungsmaterial mit den von der Berliner Stadtregierung veröffentlichten Screenshots. Ziel war ein Abgleich der Aufnahmen, um herauszufinden, ob Kameraeinstellung, Mimik und Hintergrund mit den Aufnahmen vom April übereinstimmen – oder ob Fehler zu finden sind, die auf eine Bearbeitung mittels KI hindeuten könnten. Für eine fehlerfreie Analyse korrigierte er zuvor die Perspektive der Bilder und verglich sie mit den Einstellungen des Videos.

Übereinstimmung

"Für alle fünf Fotos der Senatskanzlei lässt sich mal mehr, mal weniger eindeutig ein wahrscheinliches Referenzbild im Quellenmaterial finden", lautet Laufers Urteil. Eines fand er sogar doppelt. Allesamt würden sie im Ursprungsmaterial jedoch bereits innerhalb der ersten fünf Minuten auftauchen.

Dass es sich tatsächlich um einen Deepfake handelt, sei deshalb eher unwahrscheinlich. "Wenn alle fünf Bilder auch genau so im Quellmaterial auftauchen (mit übereinstimmender Mimik und übereinstimmendem Hintergrund): Worin sollte dann die KI-Manipulation liegen?", schreibt der Journalist.

Keine KI im Einsatz?

Ihm zufolge könnten die Betrüger stattdessen einzelne Ausschnitte des Videos hergenommen haben, um sie während der jeweiligen Gesprächstermine mit Madrid, Wien und Berlin live wieder zusammenzusetzen. Da das Gespräch mit der Berliner Bürgermeisterin Franziska Giffey auf Russisch – und jenes mit Ludwig auf Englisch – geführt wurde, dürfte es durchaus möglich gewesen sein, gewisse Ungereimtheiten zu vertuschen. In ersterem Fall soll es eine konsekutive, also nachträgliche Übersetzung von Klitschkos Aussagen gegeben haben. Das Gespräch mit Ludwig soll ohne Dolmetscherin oder Dolmetscher stattgefunden haben, berichtete der STANDARD.

Natürlich kann nicht mit Sicherheit gesagt werden, wie die Fälschung wirklich zustande gekommen ist. Das betont auch Laufer. Zudem kamen Deepfakes bereits zu früheren Zeitpunkten des Ukraine-Kriegs zum Einsatz. Erst im März entfernte der Facebook-Konzern Meta ein gefälschtes Kapitulationsvideo des ukrainischen Präsidenten Wolodymyr Selenskyj. Sieht man sich dieses genauer an, kann man jedoch deutlich erkennen, dass an der Aufnahme etwas nicht stimmt. Einen Mitschnitt des Gesprächs zwischen Ludwig und dem falschen Klitschko scheint es jedoch nicht zu geben. (mick, 27.6.2022)