Auf dem chinesischen Mikroblogging-Dienst Weibo behauptet ein User, dass er zehntausende Frauen in Pornofilmen identifizierte, indem er sie mit Hilfe einer Gesichtserkennungs-Software auf Social Media-Plattformen ausfindig machte. Den Wahrheitsbeweis bleibt der Profiler schuldig, doch klingt sein Eintrag durchaus glaubwürdig. Man denke nur an das Sozialkreditsystem in China. Dort werden Menschen von Kameras im öffentlichen Raum mit Gesichtserkennung-Software erfasst und beobachtet. Wer das Hundehäufchen beim Gassigehen nicht aufräumt, bekommt Minuspunkte im staatlichen Sozialkreditsystem und verspielt sich, bei wiederholten Verstößen gegen die öffentliche Ordnung, Studienplatz und Reisepass.

Die totale Überwachung in China

Kürzlich erzählte mir ein Freund, wie er am Flughafen in Shenzen empfangen wurde. Als er sich dem Automaten für das U-Bahn-Ticket näherte, zeigt ihm der Bildschirm unaufgefordert die Route in jenes Hotel an, das er für sich gebucht hatte. Der Trick dahinter: er hatte bei der Einreise seine Unterkunft angeben müssen und sein Passfoto wurde von der Einreisebehörde automatisch weitergeleitet. Der Fahrkartenautomat wiederum verfügt über eine eingebaute Kamera, die das Gesicht meines Freundes nur noch mit seiner in Echtzeit aktualisierten Datenbank abgleichen musste.

Mit Deep Fake das neue Gesicht für den Porno

Zurück zu den Pornodarstellerinnen. Bekanntlich landen viele Amateurfilme ohne Wissen geschweige denn Zustimmung der Darstellerinnen im Netz. Man möchte sich gar nicht ausmalen, wieviel Tragödien ihren Lauf durch Gesichtserkennung nehmen werden. Das Ganze wird noch brisanter, wenn man die Gesichter der Pornodarstellerinnen mit Deep Fake verändert. Dazu sehe man sich den jüngsten Late-Night Auftritt des amerikanischen Comedian Bill Hader an, in dem er Al Pacino und Arnold Schwarzenegger parodiert. Auf Youtube ist eine Nachbearbeitung mit Deep Fake zu sehen, bei der die Gesichter der beiden Schauspieler perfekt eingearbeitet sind. Das Ergebnis ist verblüffend. Wenn nun Deep Fake Software auch zum Massenprodukt wird, dann kann jeder einen Pornofilm oder anderes kompromittierendes Material mit dem Gesicht seines Opfers bearbeiten, das dann vom Hobby-Profiler auf Facebook "identifiziert" wird.

Wir werden den Bildern nicht mehr glauben

Wenn es hierzulande in zwei Jahren wieder ein Ibiza-Gate gibt, dann wird der Betroffene in einer ersten Reaktion durchaus glaubhaft behaupten, dass es sich um Deep Fake handelt. Wir werden ihm glauben, weil wir dann den Bildern schon lange nicht mehr glauben. (Markus A. Gaßner, 30.5.2019)

Zum Thema:

Mona Lisa erwacht mit täuschend echt aussehendem Deepfake zum Leben

"Betrunkene" Pelosi: Alt-Right teilen Fake-Video über US-Demokratin

Links:

Social Snoop Says He IDed 100k Women on Porn Sites (Ozy)

Spot on impressions of Al Pacino and Arnold Schwarzenegger by Bill Hader [Youtube]

Vom Autor:

Kunstprojekt: Alternative Fakten mit Kellyanne Conway

Automatische Emotionserkennung trickst den Menschen aus