Ein aktuelles Tool erlaubt es, mithilfe von künstlicher Intelligenz das Gesicht einer Person in einem Video anhand existierender Fotos einer anderen Person auszutauschen. Das Resultat ist ein Fake-Video, welches täuschend echt aussieht. Die Methode wird, benannt nach dem Reddit-Namen ihres Erfinders, als "deepfake" bezeichnet. Was damit begann, bekannte Prominente in Porno-Gifs einzufügen, hat nun eine weitere Wendung genommen: Wie Motherboard berichtet, sollen Nutzer begonnen haben, mit der Software Fake-Pornos von Bekannten zu schaffen.

Beispiel für ein "deepfake"-Video: Amy Adams wurde mit Nicholas Cage ausgetauscht (Credits: gfycat).

Discord-Gruppe wurde gesperrt

Etwa soll es eine eigene Gruppe für "deepfakes" im VoIP-Programm Discord gegeben haben. Dort berichtete etwa ein Nutzer, dass er ein Video von einer ehemaligen Schulkollegin erstellt hat, indem er 380 Bilder aus ihrem Instagram-Profil herunterlud. Discord sperrte die Gruppe und blockierte die Nutzer permanent. Das Unternehmen begründete die Entscheidung damit, dass die Gruppe genutzt wurde, um nicht-einvernehmliche Pornografie zu erstellen. Weitere Nutzer sollen auf Reddit um Hilfe gebeten haben, um gefälschte Rachepornos zu erstellen.

Pornostar-Suchmaschinen

Die Software setzt voraus, dass die betroffenen Personen eine ähnliche Gesichtsform wie die Person im Originalvideo haben. Aus diesem Grund sollen "deepfake"-Ersteller begonnen haben, eigene Pornostar-Suchmaschinen zu verwenden: Die Ersteller laden Fotos betroffener Personen hoch, woraufhin die Maschine Pornostars anzeigt, die der Person ähnlich sehen. Anschließend werden die Bilder Betroffener in großen Mengen aus sozialen Medien extrahiert, die schließlich genutzt werden, um mit dem Tool "deepfake"-Videos zu erstellen. (red, 27.1.2018)