Panzer am Tian’anmen-Platz ohne "Tank Man": Bilder lassen sich immer leichter manipulieren.

Foto: AP/Jeff Widener; Montage: STANDARD

Auf dem Swerdlow-Platz in Moskau, vor dem Bolschoitheater, ist ein hölzernes Podest aufgebaut. Rundherum drängen sich Soldaten, um dem Redner zu lauschen. Es ist der 5. Mai 1920, der Redner ist Wladimir Iljitsch Lenin. Auf der Holztreppe neben ihm: die Genossen Lew Borissowitsch Kamenew und Leo Trotzki. Auf dem Foto, das später in der Sowjetunion verbreitet wird, wird nur eine leere Stiege zu sehen sein. Die in Ungnade gefallenen Genossen wurden einfach ausradiert.

Schon gehört? Lassen Sie sich diesen Artikel vorlesen!
Das Originalbild...
Foto: Grigori Petrowitsch Goldstein / Staatliches Historisches Museum Moskau
... und die modifizierte Version, die später verbreitet wurde: Kamenew und Trotzki wurden wegretuschiert.
Foto: Grigori Petrowitsch Goldstein / Staatliches Historisches Museum Moskau

Fast genau 100 Jahre später, am 26. April 2020, retweetet US-Präsident Donald Trump ein Video auf Twitter. Es zeigt seinen demokratischen Herausforderer Joe Biden, der Grimassen schneidet. Es ist offensichtlich gefälscht – und das nicht einmal gut. Wie dereinst die Sowjets basteln Trump und sein Team an alternativen Fakten: Auf den Bildern, die Trump von seiner Amtseinführung verbreitete, wirkt die Menschenmasse vor dem Kapitol größer, als sie tatsächlich war. Ein andermal nutzte das Weiße Haus ein manipuliertes Video, um einem Reporter die Akkreditierung zu entziehen.

Was das Biden-Video auszeichnet? Es ist ein sogenannter Deepfake. Eine künstliche Intelligenz manipuliert dabei automatisch Videos, Bilder und Tonaufnahmen. Jemandem Wörter in den Mund oder Grimassen ins Gesicht zu legen ist kein Problem mehr. Was bis vor kurzem stundenlange Fitzelei-Arbeit war, macht ein Algorithmus nun auf Knopfdruck. Die Technik ist beeindruckend, aber verpönt. Auf der politischen Bühne waren Deepfakes bisher tabu – mit dem Tweet hat Trump eine neue Linie überschritten.

Menschenmassen bei der Angelobung von Barack Obama 2009 (rechts) und jene von Donald Trump 2017 (links), laut Weißem Haus "das größte Publikum, jemals bei einer Amtseinführung".
Foto: Reuters

Krieg um die Vergangenheit

Die Rechenpower, die für Deepfakes notwendig ist, ist noch enorm: Um einen einigermaßen realen Deepfake zu erstellen, ist entweder teures Equipment oder sehr viel Rechenzeit notwendig. Den meisten Deepfakes sieht man es wohl deshalb an, dass irgendetwas nicht stimmt. Es dürfte bisher nur eine Handvoll richtig guter Deepfakes geben – aber wer kann das schon genau sagen? Eine richtig gute Fälschung gibt sich schließlich nicht als solche aus.

Bald aber könnten Deepfakes so gut sein, dass sie nicht mehr von echten Aufnahmen unterscheidbar sind. Und sie könnten auch einfacher zu produzieren sein. So sind etwa Bots denkbar, die im Sekundentakt neue Fälschungen ins Netz stellen, unsere Newsfeeds zumüllen und unser Weltbild bröckeln lassen. Auch geschriebene Wörter können das, aber Bilder gehen uns näher, bleiben in Erinnerung. Die Mondlandung, 9/11, das Ibiza-Video – es waren Fernseh- und keine Zeitungsereignisse. Die großen Geschichten werden mit Bildern geschrieben. Und Bilder könnten sie nun umschreiben.

Was, wenn parallel zu Skandalvideos künftig mehrere harmlose Versionen auftauchen?
Screenshot: SZ/Spiegel; Montage: STANDARD

Starr war die Vergangenheit ohnehin nie, Lenins Fotomontage ist nur eines von etlichen Beispielen. Dutzende Konflikte, etwa um Grenzziehungen, fußen auf unterschiedlichen Auffassungen von Geschichte. Mit Deepfakes könnte man in Zukunft seine eigene Version der Vergangenheit bebildern.

Was soll man noch glauben, wenn mit dem politischen Skandalvideo in den sozialen Medien noch dutzende harmlose Versionen auftauchen? Oder wenn einem plötzlich Fotos vom Uropa in SS-Uniform zugespielt werden?

Das stellt auch Historiker vor Probleme. Quellenkritik, die zentrale Methode, welche die Geschichtswissenschaft erst zur Wissenschaft macht, wird im digitalen Zeitalter zunehmend schwieriger. Verfasser, Datierung und erstes Erscheinen seien bei digitalen Inhalten nicht immer zweifelsfrei festzustellen. Und auch wenn das Netz angeblich "nichts vergisst" ist es doch ziemlich flüchtig. Websites gehen offline, Medien gehen pleite, Social-Media-Accounts werden gelöscht.

Foto: imago/UPI Photo; Montage: STANDARD

Pascal Föhr hat seine Dissertation zu Quellenkritik im digitalen Zeitalter verfasst. Um der Flüchtigkeit des Digitalen entgegenzukommen, brauche es unabhängige Archive und Bibliotheken, auf die man sich verlassen kann, sagt Föhr. Sie müssten möglichst viel vertrauenswürdige Quellen für die Zukunft konservieren. Dass Historiker massenhaft auf Deepfakes hineinfallen, glaubt er aber nicht. Denn mit den Möglichkeiten der Manipulation wüchsen auch jene der Aufdeckung. "Es ist ein Katz-und-Maus-Spiel, wo die Wissenschaft immer dranbleiben muss", sagt Föhr.

Wege in die Wahrheit

Im Wettrüsten gegen die Manipulierer können die Aufdecker auf große Verbündete wie Facebook oder Microsoft zählen. Schließlich schwächen dort verbreitete Deepfakes das Vertrauen in die Plattformen. Anfang September hat Microsoft etwa einen Video-Verifizierer angekündigt, der Deepfakes entlarven soll.

Einen anderen Weg will die Content Authenticity Initiative (CAI) gehen. New York Times, BBC, Twitter und andere wollen zusammen eine Art verschlüsselte Signatur für Inhalte entwickeln. Wann und von wem etwa ein Foto erstellt wurde, soll dann ebenso lückenlos und sicher dokumentiert werden wie die Bearbeitung. Eine fehlende Person würde dann sofort auffallen. (Philip Pramer, 17.10.2020)