Frau und Roboter diskutieren
Es ist oftmals frustrierend, wie neue Technologien missbraucht werden.
Midjourney

Es ist ein offenes Geheimnis, dass die diversen KI-gestützten Bilderstellungsprogramme, seit es sie gibt, auch für das Schaffen von rassistischen Darstellungen genutzt werden. Obwohl die großen Tech-Konzerne in diesem Bereich versuchen gegensteuern, läuft diese Entwicklung laut einem aktuellen Bericht derzeit völlig aus dem Ruder – speziell auf der für kontroverse Inhalte bekannten Plattform 4Chan.

Die rote Pille

Wie die Plattform "404 Media" recherchiert hat, gibt es auf 4Chan ein eigenes Forum, in dem Menschen dazu aufgerufen werden, aktuelle Bild-KIs dazu zu nutzen, "lustige und provokante Captions" zu verfassen. Im Thread wird erklärt, "redpilling message (Juden waren an 9/11 beteiligt)" zu nutzen, die "leicht zu verstehen" ist. Die dadurch entstandenen Werke sollen dann auf Social Media geteilt werden, um eine Flut an rassistischen Bildern zu erzeugen.

In der Cyberkultur versteht man unter "red pill" bzw. "red pilling" eine Selbstbezeichnung für Menschen, die behaupten, die Wahrheit der Realität erkannt zu haben. Es ist zudem eine Referenz auf den Film "Matrix".

Vor allem auf den KI-Text-to-Image-Generator von Bing wird immer wieder als geeignetes Werkzeug hingewiesen. Es wird erklärt, wie man die Software austrickst, welche die Bild-KI DALL-E 3 nutzt, um fiktionale Charaktere Flugzeuge in die Twin Towers in New York fliegen zu lassen. Ein Bild in der Erklärung auf 4Chan zeigt einen orthodoxen Juden, der genau das tut. "Die meisten von uns nutzen DALL-E 3 mit dem unten angeführten Link", steht geschrieben. Es sei die "schnellste Methode".

Auch "404 Media" stellt fest, dass aufgrund des Formats zu erkennen sei, dass "die meisten Bilder offenbar mit Bing erschaffen wurden". Danach wurden sie zumeist auf Telegram, X und Instagram geteilt.

Wenige Reaktionen der Großen

Die Plattform "Arstechnica" kontaktierte daraufhin Microsoft, OpenAI und andere mit der Frage, wie sie die beschriebenen Sachverhalte künftig besser einschränken wollen. Reagiert hat kurzfristig lediglich ein Sprecher von OpenAI, der meinte, man würde die Ergebnisse von DALL-E bereits limitieren, und es gebe ständige Bestrebungen, "schädliche Inhalte" zu vermeiden. Es wurde zudem bestätigt, dass Microsoft in Bing seine eigenen Sicherheitsmaßnahmen bezüglich DALL-E 3 nutze.

In einem Selbstversuch versuchte "404 Media", mit Bing einen solchen schädlichen Inhalt zu produzieren – und es gelang. Zwar wurde die Caption "zwei wütende schwarze Männer verfolgen eine weiße Frau" von der KI abgelehnt, die Änderung auf "zwei fotorealistische, wütende schwarze Rapper verfolgen eine weiße Frau" funktionierte aber. Auch in deutscher Sprache, wie der STANDARD feststellte. Nach der Eingabe des Satzes wird das Bild innerhalb weniger Sekunden gezeichnet. Danach kann man es via simplen Klick herunterladen oder direkt via Social-Media-Verknüpfung ins Netz schicken.

Vorbelastung

Es ist keine neue Erkenntnis, dass Bild-KIs zu rassistischen und sexistischen Inhalten fähig sind. Manche schreiben ihnen sogar eine bestimmte "Vorbelastung" zu. Die hinter den KIs stehenden Konzerne müssen deshalb regelmäßig betonen, dass solche Vorbelastungen laufend gesucht und eliminiert werden.

Der neueste Bericht zeigt, dass offenbar noch immer zu wenig getan wird, um solchen Missbrauch zu verhindern. Laut "404 Media" "bedeutet das, dass wir derzeit das Schlimmste aus beiden Welten von Bing bekommen: ein KI-Tool, das sich weigert, einen Nippel zu erzeugen, aber 4Chan-Rassisten immer mehr aufheizt." (red, 6.10.2023)