Komplexe Formen von Deepfake-Technologien werden Gesellschaften vor neue Herausforderungen stellen.

Foto: Pixabay/geralt

In den letzten Jahren haben sogenannte Deepfakes immer wieder für Furore gesorgt, in Österreich tauchte der Begriff zuletzt im Zusammenhang mit den Fake-Klitschko-Anrufen auf. Die originalgetreue, aber fiktive Darstellung von Personen und Ereignissen mittels künstlicher Intelligenz (KI) und maschinellem Lernen, wie man sie bislang kannte, sei allerdings nur die Spitze des Eisbergs.

Eric Horvitz, Chief Science Officer von Microsoft, warnt vor einer neuen Ära von Deepfakes, die immer schwieriger von der Realität zu unterscheiden sein werden und Gesellschaften vor neue Herausforderungen stellen. "Die steigenden Fähigkeiten (der KI, Anm.) legen Bedenken nahe, dass sich unsere Kinder und Enkelkinder in einer Welt vorfinden werden, in der es schwierig oder unmöglich ist, Fakten von Fiktion zu unterscheiden", schreibt Horvitz im Forschungspaper unter dem Titel "On the Horizon: Interactive and Compositional Deepfakes".

Kampf der Systeme

Eine Herausforderung ergibt sich seinen Ausführungen zufolge aus der Methodik der sogenannten Generative Adversarial Networks (GAN). Damit sei eine "sich wiederholende Technik" gemeint, "bei der das maschinelle Lernen und die Vorhersagetechnik, die zur Generierung synthetischer Inhalte eingesetzt werden, gegen Systeme antreten, die versuchen, generierte Fiktionen von Tatsachen zu unterscheiden".

Mit der Zeit, fuhr er fort, lerne der Generator, den Detektor zu täuschen. "Mit diesem Prozess auf der Grundlage von Deepfakes werden weder Mustererkennungstechniken noch Menschen in der Lage sein, Deepfakes zuverlässig zu erkennen", schreibt Horvitz.

Vom Einzelfall zur komplexen Täuschung

Eine weitere Herausforderung besteht seiner Ansicht nach aber vor allem darin, dass Deepfakes sehr viel komplexer werden. Handelte es sich bislang meistens um einmalige Aktionen, "können wir jedoch mit dem Aufkommen neuer Formen von Deepfakes rechnen", so Horvitz.

In diesem Zusammenhang warnt der Wissenschafter einerseits vor interaktiven Deepfakes, die Gesicht und Stimme einer täuschenden Person in Echtzeit umwandeln können. Andererseits sei es auch nicht ausgeschlossen, dass künftig umfassende Informationskampagnen mithilfe von Deepfakes erstellt werden, um Personen über einen langen Zeitraum hinweg glaubwürdig zu manipulieren.

Umdenken erforderlich

Dieses Aufkommen immer ausgefeilterer Methoden macht es erforderlich, dass sich nicht nur Regierungen, Organisationen und Unternehmen effizient gegen solche Deepfakes wehren können. Ebenso liegt seiner Ansicht nach die Messlatte an die Erwartungen und Anforderungen der medialen Berichterstattung höher. Hinzu komme die Notwendigkeit, die Medienkompetenz zu fördern und ein Bewusstsein für solche neuen Trends zu schärfen.

Aus technischer Hinsicht müsse man laut Horvitz unter anderem auch evaluieren, welche neuen Authentizitätsprotokolle zur Bestätigung der Identität notwendig seien. Möglicherweise müssten auch neue Standards für den Nachweis authentischer Inhalte eingeführt werden, wofür beispielweise Wasserzeichen und das Scannen von Fingerabdrücken zum Einsatz kommen könnten. (red, 28.9.2022)