Dies ist nicht Claudia. Es ist ein Bild, das wir mit der Bilder-KI Midjourney unter dem Prompt "dark silhoutte of a woman standing in a house --ar 3:2" generiert haben.

Foto: Midjourney/Stefan Mey

Claudia ist schlank, hat lange schwarze Haare und große Augen. Unter dem Titel "F/19 feeling pretty today" stellte sie ein Posting auf die Plattform Reddit und erntete sogleich viel positives Feedback von der dortigen, großteils männlichen Community. Das Problem ist bloß: Claudia ist nicht echt, das Bild wurde mithilfe künstlicher Intelligenz generiert. Das fiel zumindest einem Reddit-User auf und wurde von den Urhebern des Bildes in einem Interview mit dem "Rolling Stone" bestätigt.

100 Dollar für KI-Nacktbilder

Demnach handelt es sich um zwei Studenten der Computerwissenschaften, die den Account eigentlich als Scherz erstellt hatten, nachdem sie sahen, dass ein anderer Reddit-User mit Fotos echter Frauen 500 Dollar verdient hatte. Sie selbst verdienten schließlich 100 Dollar mit den Verkauf von Nacktbildern der KI-Person.

"Mit dem Account wollten wir testen, ob man Menschen mit KI-Bildern hereinlegen kann", sagen die Initiatoren, die anonym bleiben möchten: Man könnte es mit dem Konzept von virtuellen Youtubern vergleichen, die ebenfalls eine gänzlich fiktive Persönlichkeit erschaffen. Dass das Projekt für so viel Aufsehen sorgen würde, hatten sie nicht erwartet.

Erschaffen wurde "Claudia "mit dem kostenlosen KI-Tool Stable Diffusion, welches realistisch aussende Bilder aus reinen Texteingaben ("Prompts") erstellen kann. In diesem Fall wurde nach einem Selfie einer Frau in ihrem Haus gefragt – ohne Make-up, mit langen, glatten schwarzen Haaren und einem neutralen Hintergrund.

Viele ungeklärte Fragen

Von den Reddit-Moderatoren heißt es, dass sie sich der Thematik bewusst seien, das Bild aber nicht löschen, da es vorerst nicht gegen die Regeln verstoße. Gleichzeitig bestätigt ein Streich wie dieser aber auch jene Kritikerinnen und Kritiker, die sich für eine stärkere Regulierung künstlicher Intelligenz aussprechen.

So ist Deepfake-Pornografie schon geraumer Zeit ein Problem. Hier werden Gesichter von oft berühmten Persönlichkeiten in pornografische Videos montiert, die Umsetzung dieser rufschädigenden Vorgangsweise wird durch KI leichter und günstiger. Doch es wird auch gefordert, dass per KI generierte Bilder generell klar zu kennzeichnen sind, was etwa im Fall Claudia nicht zutrifft. Ende März gingen KI-Bilder viral, welche die angebliche Verhaftung Donald Trumps zeigten.

Regulierung gefordert

Ein anderer Fall betrifft jenen des Ursprungsmaterials. Denn die KIs werden mit echten Bildern von realen Menschen trainiert – und es ist nicht auszuschließen, dass sich ein Model eines Tages in einem pornografischen KI-Bild wiederfindet, nachdem sie zuvor für ein unschuldiges Stockfoto posiert hatte.

Der AI Act der Europäischen Union soll sich auch diesen Themen widmen. Er befindet sich derzeit in Arbeit und wird wohl frühestens 2024 in Kraft treten. Unter anderem hatte der deutsche Digitalminister Volker Wissing hier zuletzt mehr Tempo gefordert. (red, 17.4.2023)