Ein KI-generiertes Bild von Robotern beim Programmieren.
Open-Source-KI-Modelle wie Metas LLaMA lassen sich völlig ohne Einschränkungen anpassen.
DER STANDARD, Benajamin Brandner, Midjourney

Allie ist eine 18-Jährige mit langen braunen Haaren, die "jede Menge sexuelle Erfahrung" hat, wie sie selbst sagt. Sie lebt für die Aufmerksamkeit teilt sich mit, genauso wie die "Details ihrer Eskapaden". Allie ist nicht echt, sie ist ein Chatbot, der geschaffen wurde, um sexuelle Fantasien der Nutzerinnen und Nutzer an ihr auszuleben – bis hin zu Vergewaltigungs- und Missbrauchsfantasien.

Während Unternehmen wie Google, Microsoft und OpenAI ihren KI-Modellen verboten haben, über sexuelle Inhalte zu sprechen, wurde Allie mit Open-Source-Technologie entwickelt – also einem Code, der öffentlich frei zugänglich ist und deshalb keinen derartigen Einschränkungen unterliegt. Allie basiert nämlich auf dem von Meta entwickelten Modell namens LLaMA – und jeder kann damit KI-Chatbots selbst erstellen. Die Palette reicht von Werkzeugen für Schreibaufgaben über Bots für die Datenanalyse bis zu Allie.

Die quelloffene generative Idee verspricht die ultimative Freiheit: KI, frei von der Kontrolle der großen Unternehmen der Tech-Branche, ein Segen für Wissenschafter, Künstler und Aktivisten, die frei mit der transformativen Technologie experimentieren können.

"Das Hauptargument für Open Source ist, dass es die Innovation im Bereich der KI beschleunigt", sagte Robert Nishihara, CEO und Mitgründer des Start-ups Anyscale, der "Washington Post". Nishiharas Unternehmen hilft anderen Firmen beim Einsatz von Open-Source-KI-Modellen.

Die Kunden von Anyscale setzen KI-Modelle ein, um neue Arzneimittel zu entwickeln, den Einsatz von Pestiziden in der Landwirtschaft zu verringern und betrügerische Onlineangebote zu erkennen, sagte der CEO. Diese Anwendungen wären teurer und schwieriger, wenn nicht gar unmöglich, wenn sie sich auf die wenigen Produkte der größten KI-Unternehmen stützen müssten.

"Rollenspiel ohne Menschen"

Der Schöpfer von Allie sprach mit der "Washington Post" unter Zusicherung seiner Anonymität. Er meinte, dass kommerzielle Chatbots wie Replika und ChatGPT "stark zensiert" seien und nicht die Art von sexuellen Konversationen bieten könnten, die er sich wünsche. Mit Open-Source-Alternativen, von denen viele auf dem LLaMA-Modell von Meta basieren, könne er sich seine eigenen ungehemmten Gesprächspartner aufbauen.

"Ich denke, es ist gut, ein sicheres Ventil zum Erforschen zu haben", sagte er. "Ich kann mir nichts Sichereres vorstellen als ein textbasiertes Rollenspiel gegen einen Computer, bei dem keine Menschen beteiligt sind”, so der Schöpfer von Allie.

Wettrüsten unter Pädophilen

Nicht jeder verfolgt beim Einsatz künstlicher Intelligenz hehre Ziele. Open-Source-Modelle wurden in der Vergangenheit verwendet, um Darstellungen von sexuellem Missbrauch von Kindern anzufertigen. Als Trainingsmaterial wurden Darstellungen von echten Kindern verwendet. Generative KI-Tools haben in Pädophilenforen eine Art "Wettrüsten" ausgelöst, wie es Rebecca Portnoff, Leiterin der Abteilung für Datenwissenschaft bei Thorn, einer gemeinnützigen Gruppe für Kindersicherheit, nennt. Binnen Sekunden können realistisch wirkende Bilder von Kindern bei sexuellen Handlungen erstellt werden.

Laut einer aktuellen Studie der Kinderschutzorganisation in Zusammenarbeit mit der Stanford University sind mittlerweile rund 66 Prozent aller Darstellungen von sexuellem Missbrauch von Kindern und Jugendlichen fotorealistisch – früher lag dieser Wert bei etwa einem Prozent. Noch könne man die KI-generierten Darstellungen meist von echten Missbrauchsszenen unterscheiden, aber auch das werde sich in Zukunft ändern, so die Studie.

Kritiker befürchten, dass dies auch Betrug, Cyberhacking und ausgeklügelte Propagandakampagnen ermöglichen könnte. Anfang Juni schickten die beiden US-Senatoren einen Brief an Meta-CEO Mark Zuckerberg, in dem sie davor warnten, dass die Freigabe von LLaMA zu "Missbrauch für Spam, Betrug, Malware, Verletzung der Privatsphäre und Belästigung und anderen Verfehlungen und Schäden" führen könnte. Sie fragten, welche Schritte Meta unternimmt, um einen solchen Missbrauch zu verhindern.

Chatkontrolle würde auch für KI gelten

Die Europäische Union versucht unter dem Schlagwort der Missbrauchsbekämpfung eine umfassende Chatkontrolle einzuführen. Nach dem aktuellen Vorschlag wären davon auch KI-Systeme erfasst. Der Entwurf sieht vor, dass Messenger-Apps, Suchmaschinen und auch generative KI automatisch nach Material gescannt werden, das sexuellen Missbrauch von Kindern zeigt. Kritiker befürchten, dass dieses System auch zur Überwachung der Kommunikation verwendet werden könnte. (pez, 27.6.2023)