Sora Video mit Wasserzeichen
Dieses Standbild eines mit Sora erstellten Videos enthält ein Wasserzeichen. Können Sie es erkennen?
Open AI

Das Social Web hat die Verbreitung von Inhalten demokratisiert, künstliche Intelligenz macht nun die Erstellung für jedermann zum Kinderspiel. Hatte vor über einem Jahr ein KI-Bot namens ChatGPT noch mit dem automatischen Schreiben von Texten für Aufsehen gesorgt, so ermöglichten kurz darauf Bildgeneratoren wie jene von Midjourney und Stable Diffusion das Generieren von immer realistischer wirkenden Fake-Fotos. Zuletzt sorgte wiederum eine Video-KI namens Sora für Aufsehen, die überzeugende Bewegtbilder erstellen kann.

Das schafft kreatives Potenzial, birgt aber auch Gefahren. Gerade in einem intensiven Wahljahr wie dem jetzigen befürchten Beobachter eine massive Zunahme an Desinformation mit dem Potenzial, Wahlen zu beeinflussen. Zudem können auch Privatpersonen diffamiert werden, indem via KI beleidigende oder sexuell anstößige Inhalte von ihnen erstellt werden.

Über Wasserzeichen, also virtuelle Stempel, sollen KI-Inhalte gekennzeichnet und sie somit als solche erkannt werden. Allerdings hegen Beobachter schon länger Zweifel an der Effektivität solcher Modelle. Und eine aktuelle Studie der Mozilla Foundation führt nun offen aus, wo die Probleme bei diesem Ansatz liegen.

Kennzeichnung für Menschen

Unterschieden wird dabei zwischen Wasserzeichen, die für Menschen sichtbar sind, und unsichtbaren Kennzeichnungen, welche durch eine bestimmte Software ausgelesen werden können. Die erstgenannten können ihren Zweck erfüllen, haben jedoch ihre Schwächen, wie es in der Studie heißt.

So kann es sein, dass die oft sehr kleinen Wasserzeichen – etwa in den Videos von Sora – nicht wahrgenommen werden. Erschwert wird dieses Erkennen für Menschen mit eingeschränktem Seh- oder Hörvermögen, wie Ramak Molavi Vasse'i, AI Transparency Research Lead bei Mozilla, dem STANDARD sagt.

Außerdem ist es möglich, die sichtbaren Wasserzeichen in Bildern einfach zu entfernen, entweder durch Beschneiden des Bildes oder ironischerweise durch die Nutzung eines anderen KI-Tools, mit dem Objekte aus Bildern entfernt werden können. In Summe werden diese Wasserzeichen von den Forschern negativ bewertet, da sie nicht wirklich Vertrauen schaffen, sondern im Extremfall bestehende Unsicherheit noch verstärken können.

Kennzeichnung für Maschinen

Und die unsichtbaren Wasserzeichen, die nur von Software ausgelesen werden können? Diese werden von den Studienautoren besser bewertet, doch auch sie sind alles andere als perfekt.

"In unserer Analyse haben wir festgestellt, dass diese Wasserzeichen robuster sind, allerdings sind sie von den Erkennungsmechanismen abhängig, sie müssen akkurat und unvoreingenommen sein", sagt Vasse'i. So habe OpenAI, das Unternehmen hinter ChatGPT und Sora, eine Software zum Klassifizieren von KI-Inhalten nach ein paar Monaten wieder offline genommen, weil die Fehlerquote extrem hoch war: Nur in 26 Prozent der Fälle wurden KI-Inhalte richtig erkannt. "Watermarking ist somit eine interessante Option, aber keine Silberkugel", sagt Vasse'i.

Mehrere Ansätze nötig

"Wir brauchen einen vielschichtigen Ansatz", führt die Expertin aus, "nicht nur mit Wasserzeichen, sondern mit einem Bündel von Ideen, wie wir die KI-Governance angehen können, eingebettet in demokratisch legitimierte Prozesse, mit der Beteiligung aller Interessengruppen." Es bestehe Bedarf an vertrauenswürdigeren, neutraleren und unabhängigeren Institutionen, Infrastrukturen und Standardsetzungsgremien.

Dementsprechend brauche auch eine breitere Diskussion über die richtigen Standards, die nicht von der Branche selbst, sondern von neutralen Institutionen geführt wird. Dazu gehöre auch, dass die erwähnten Schwachstellen der Wasserzeichen offen diskutiert und Lösungen gesucht werden.

Zu den anderen möglichen Mitteln in der Bekämpfung von KI-Fakes zählt die Expertin unter anderem einen Fokus auf "Slow AI", also ein Mitdenken von Aspekten wie Sicherheit, Fairness und ökologischer Verantwortung bei der Entwicklung der KI-Tools anstatt diverser Schnellschüsse. Auch ein Fokus auf Datenschutz sei in diesem Kontext wichtig. Die Wasserzeichen müssten am Ursprungsort des Werks eingebaut werden, um die Verbreitung schädlicher Inhalte bereits an der Quelle zu bekämpfen. (Stefan Mey, 26.2.2024)