Täuschend echt: Diese Dame existiert nicht wirklich. Sie wurde von einem auf Gesichter spezialisierten neuronalen Netzwerk von Nvidia generiert, das sich über die Website "This Person Does Not Exist" erproben lässt.

Foto: Nvidia/ThisPersonDoesNotExist.com

Lange wenig beachtet hat sich insbesondere seit den Aufdeckungen des NSA-Whistleblowers Edward Snowden mehr Bewusstsein rund um den Schutz unserer Daten und unserer Identität im Netz entwickelt. Dennoch gibt es noch leicht zu übersehende Hürden.

An deren Überwindung arbeiten Ilke Demir und ihre Kolleginnen und Kollegen bei Intel. Sie wollen unter dem Namen "My Face My Choice" ("Mein Gesicht, meine Entscheidung") Deepfakes einsetzen, um unsere Privatsphäre besser abzusichern.

Großes Potenzial, nicht nur für Gutes

Unter dem Begriff "Deepfake" versteht man von künstlicher Intelligenz (KI) gestützte Manipulationen von Bildern, Ton und Videos. Gängig ist dabei die Veränderung des Gesichts, das mit jenem einer anderen Person ersetzt wird und trotzdem täuschend echt aussehen kann. Das kreative Potenzial dieser Technologie zeigt etwa das Projekt "Deepfake Tom Cruise".

Allerdings werden die Möglichkeiten auch schon für sinistre Machenschaften genutzt, etwa Deepfake-Pornos, in denen die Gesichter von Personen – betroffen sind vorwiegend Frauen – in einschlägige Filme montiert und diese danach verbreitet werden. Befürchtet wird auch, dass die Technologie in Zukunft vermehrt für politische Desinformation genutzt werden wird. Eine Sorge, die durch das Aufkommen einfach bedienbarer Bildgenerierungs-KI wie Midjourney oder Stable Diffusion eher nicht entkräftet wird.

Veränderbarer Digital-Zwilling

Die Forschenden bei Intel widmen sich einem unterschätzten Problem, nämlich Gesichtsfotos in sozialen Medien. Auf Instagram und anderen Plattformen ist es möglich, sein eigenes Gesicht und das von Freunden zu "taggen". Damit werden sie ihren Accounts zugeordnet. Selbst wenn sie ihre Konten mit Pseudonymen betreiben, ist durch den Einsatz von Gesichtserkennung und Verknüpfung von Daten durch andere Stellen – wie Behörden – eine Zuordnung zur realen Identität ein realistisches Szenario.

Die Nutzung eines digitalen Deepfake-Zwillings ermöglicht gezielte Verfremdungen, die sich je nach Betrachter unterscheiden können.
Foto: Umur Ciftci / Binghamton University

Die Plattformen bieten daher üblicherweise die Möglichkeit an, Tags zu unterbinden, sodass es anderen nicht möglich ist, auf Bildern den jeweiligen Account zu markieren. Das limitiert zwar die Nachverfolgbarkeit auf den ersten Blick, erweist sich aber bei genauerem Hinsehen als sehr unvollständige Lösung. Denn trotzdem lassen sich die Fotos in Gesichtserkennungssoftware einspeisen.

"My Face My Choice" greift hier ein, indem es die digitale Abbildung der Gesichter von Personen verwendet und anstatt ihrer eine Deepfake-Nachahmung erzeugt. Je nach Einsatzzweck kann diese dann so eingestellt werden, dass sie dem Original sehr ähnlich sieht oder stark verfremdet ist, fasst "New Scientist" zusammen.

Einstellen ließe sich das auch je nach Betrachter, sodass etwa enge Freunde das unveränderte Foto angezeigt bekommen, während unbekannte Profilbesucher ein Deepfake-Gesicht mit geringerer Ähnlichkeit sehen. Letzteres wäre für Gesichtserkennungssoftware auch nicht mehr zuordenbar.

Bremsklotz für Gesichtserkennnungssoftware

Damit würde das echte Antlitz auch nicht mehr in Trainingsdaten für Gesichtserkennungssoftware landen, für welche auch häufig öffentliche Social-Media-Profile nach entsprechenden Fotos "gescraped" (in diesem Kontext: automatisiert entdeckt und heruntergeladen) werden. Und der Aufwand, die Deepfakes den eigentlichen Personen zuzuordnen, wäre kaum zu bewältigen, wenn jeder Nutzer auf einmal tausende Gesichter haben kann, erklärt Demir.

Die ersten Daten zur Effektivität des Systems sind vielversprechend. Ein Paper zu ihrer Entwicklung wurde auf Arxiv veröffentlicht. Bevor "My Face My Choice" bereit ist, auf einem großen Social Network eingesetzt zu werden, müssen allerdings noch Hürden in puncto Speicherbedarf und Sicherheit überwunden werden, schätzt Lewis Griffin vom University College London. Zudem bleibt abzuwarten, ob nicht nur das Intel-Team, sondern auch die Nutzerinnen und Nutzer größeres Interesse an dieser Erfindung haben. (gpi, 21.11.2022)