KI wird zur Erzeugung von Deepfakes eingesetzt, wird in Zukunft aber auch eine wichtige Rolle spielen, um genau solchen Manipulationen auf die Schliche zu kommen.

Foto: Pixabay/Gerd Altmann

Die mit Künstlicher Intelligenz gestützte Verfremdung von Bildern, Tondateien und Videos hat enormes Potenzial für kreative Zwecke. Diese sogenannten "Deepfakes" lösen aber auch Besorgnis aus, lassen sie sich doch auch für Diskreditierung und politische Meinungsmache einsetzen. Auch im Verlauf des Ukraine-Krieges wurden bereits manipulierte Videos gezeigt, in denen etwa dem ukrainischen Präsidenten Wolodymyr Selenskyj und dem russischen Diktator Wladimir Putin Aussagen in den Mund gelegt werden, die sie nie getroffen haben.

Dementsprechend ist es ein zweischneidiges Schwert, dass diese Technologie immer besser und zugänglicher wird. Wissenschaftler und Netzpolitik-Experten diskutieren daher schon lange über verschiedene Ansätze, um negative Auswirkungen zu verhindern oder zumindest abzufedern. Im Gespräch sind etwa eine Kennzeichnungspflicht, wenn Social Media-Plattformen solche Verfremdungswerkzeuge anbieten oder digitale "Wasserzeichen", die sich auslesen lassen. Ebenso wird hier Künstlicher Intelligenz eine wichtige Rolle zukommen, wie der Wettbewerb "Trusted Media Challenge" zeigt.

Eine kurze BBC-Dokumentation zu Deepfakes aus dem Jahr 2019.
BBC

KI-Modell erkennt fast alle Deepfakes

In Rahmen von "AI Singapore", einem staatlich geförderten Programm, das von der National University geführt wird, ritterten 470 Teams um KI-basierte Lösungen, um Deepfake-Videos zu erkennen. Durchsetzen konnte sich Wang Weimin als Ein-Mann-Team. Der Singapurer arbeitet für Bytedance, den Mutterkonzern von Tiktok. Sein KI-Modell konnte mit einer Genauigkeit von 98,5 Prozent unterscheiden, ob ein Video unbearbeitet ist oder Gesichter, Ton oder beides digital verändert wurden.

Das brachte Weimin ein Preisgeld von 100.000 Singapur-Dollar (rund 68.600 Euro) ein, berichtet The Straits Times, die selbst auch Videomaterial für den Bewerb bereit gestellt hat. Zudem wurde ihm ein Zuschuss von 300.000 Singapur-Dollar für die Gründung eines Start-ups zur Kommerzialisierung seiner Erfindung angeboten. Sofern sein Arbeitgeber Interesse zeigt, würde er sein KI-Modell allerdings lieber in die BytePlus-Plattform integrieren, um sie auf diesem Wege als Service anbieten zu können.

"Ob gut oder schlecht, Deepfakes sind eine aufkommende Technologie, die man nicht einfach ignorieren kann", sagt der KI-Spezialist zu seinem Erfolg. Die Herausforderungen, die sich den Medien künftig stellen, überschnitten sich mit seinen Forschungsinteressen. Er wolle dazu beitragen, mit KI-basierten Lösungen reale Probleme zu lösen.

Nicht nur technische Lösungen

Das Rennen wurde denkbar knapp entschieden. Platz 2 sicherte sich das schweizerisch-chinesische Team aus dem Softwareentwickler Peter Gronquist und dem PhD-Studenten Ren Yufan von der Polytechnik-Universität in Lausanne. Ein chinesisches Quintett rund um den PhD-Studenten Li Tianlin von der Technischen Universität Nanyang erreichte Platz 3. Auch ihre KI-Modelle erreichten jeweils eine Genauigkeit von über 98 Prozent.

Bei der Preisverleihung warnte Telekommunikations-Minister Tan Kiat How allerdings, dass man sich nicht nur auf technische Lösungen verlassen dürfe. Es brauche ein breites Spektrum gesellschaftlicher Maßnahmen. Als einen Schlüssel zur Bekämpfung von Desinformation sieht er die Arbeit von vertrauenswürdigen, regionalen Medien. (gpi, 1.5.22)