"Auszieh-Apps" wie Deepnude und Clothoff, gefälschte Promi-Nacktbilder auf Ebay, Deepfake-Pornos mit primär weiblichen Stars. Aber auch Privatpersonen werden immer wieder zum Opfer. "Es ist, als ob Frauen nichts bedeuteten", erklärte eine junge Mutter dem britischen Sender Channel 4. Auch von ihr hatte jemand erniedrigende Nacktaufnahmen mithilfe eines KI-Tools erstellt.

Der Fortschritt im Bereich generativer KIs birgt zweifelsohne großes kreatives Potenzial, aber eben auch Gefahren. Und an diese erinnert nun auch ein Kunstprojekt, das sich präsentiert wie ein Start-up. Nuca heißt es. Und entwickelt hat man eine Kamera, die statt Porträtfotos Nacktbilder abliefert.

Für die öffentlichen Demobilder wurden KI-generierte Personen entkleidet.
Nuca

Mehrstufiger Prozess

Wer ein Foto mit Nuca macht, bekommt als Resultat eine entkleidete KI-Nachstellung. Das aufgenommene Bild wird an einen Server geschickt, dort ergänzt mit Daten zur Körperhaltung und den Gesichtsmerkmalen. Anschließend werden für das Foto per Algorithmus 45 "Identifikatoren" erstellt, darunter etwa Hautfarbe, geschätztes Alter, Geschlecht, Mimik, Körpertyp und verschiedene Kleidungsmerkmale.

Aus diesen Informationen wird schließlich ein Textkommando für die Bildgenerierungs-KI Stable Diffusion erstellt, die daraus eine zur Beschreibung passende, "generischen nackte Person" erzeugt. Diese Vorlage wird schließlich um die Haltung und das Gesicht der eigentlich aufgenommenen Person ergänzt, um das finale Nacktporträt zu generieren.

Auch das "Titelbild" von Nuca weist bereits auf KI-Schwächen hin, erkennbar an den sechs Fingern der rechts abgebildeten Hand.
Nuca

"Mach einfach Fotos von deinen Freunden"

Auf sich aufmerksam gemacht hat man ursprünglich mit Videoclips im Tiktok-Stil. Mit der Aufforderung "mach einfach Fotos von deinen Freunden" und dem Slogan "zieht jeden aus" sorgte man für manche entrüstete Reaktion. Das war freilich intendiert, erklären die Macher, der Künstler Mathias Vef und der Designer Benedikt Groß, gegenüber dem "Spiegel".

Es gehe nicht darum, die Deepfakes von Taylor Swift und Co zu "zelebrieren". Vielmehr wolle man "entlarven", dass die zur Erzeugung verwendeten KIs mit Wahrscheinlichkeiten arbeiten, die mit der Wirklichkeit nicht zusammenpassen. Die generierten Körper für die Erzeugnisse von Nuca sehen oft aus wie aus einem Model-Katalog, zumindest wenn am Ausgangsfoto ein jüngeres Gesicht zu sehen ist. Je höher das geschätzte Alter, desto eher bestückt die KI den nachgebauten Körper mit einem dicken Bauch, erklären die Macher.

Nuca soll auch die Problematik von Stereotypen in KI-Modellen zeigen.
Nuca

Stereotype in Aktion

Mache man selbst ein Foto von sich, so fallen diese im Algorithmus verankerten Vorurteile natürlich gleich auf. Getestet hat man die App im kleinen Kreis mit Bekannten. Für das öffentlich verfügbare Material griff man allerdings auf KI-generierte Personen zurück, die am Nuca-Server digital entkleidet wurden. Auch hier sind Stereotype zu erkennen. Junge Männer werden mit Muskeln ausgestattet, die sich am bekleideten Bild nirgends abzeichnen, bei Frauen wächst tendenziell die Körbchengröße. Die Verpixelung erfolgte im Nachhinein manuell, die Kamera selbst liefert unzensierte Ergebnisse.

Eine Massenherstellung von Nuca ist freilich nicht angedacht. Interessenten können sie allerdings in Berlin selbst an sich ausprobieren. Ende Juni soll der Prototyp in der Galerie "Nüüd" vorgestellt werden. (gpi, 9.4.2024)