Von hinten beleuchtetes Bild der Silhouette einer Frau, die ihre Hände gegen ein Glasfenster drückt.
KI-Tools lassen auch Albträume wahr werden: Kindesmissbrauch kann damit per Knopfdruck wiederholt werden.
Getty Images

Im anhaltenden Hype um künstliche Intelligenz (KI) werden auch Albträume wahr: KI-generierte Bilder zu Kindesmissbrauch markieren einen beängstigenden neuen Trend bei der Verbreitung expliziter Inhalte im Internet. Kriminelle verwenden generative Open-Source-KI-Modelle, die nicht nur in der Lage sind, äußerst realistische Bilder zu erstellen, sie wiederholen damit oft auch den Missbrauch von Kindern, die bereits Opfer solcher Verbrechen waren. Diese KI-Modelle werden auf der Grundlage gemeinsam genutzter Datensätze mit Missbrauchsbildern maßgeschneidert – und die Kriminellen sind mittlerweile so dreist geworden, dass sie sogar monatliche Abos für den Zugang zu diesen neuen Inhalten verkaufen.

Die Internet Watch Foundation (IWF), eine gemeinnützige Organisation mit Sitz in Großbritannien, die sich für die Entfernung von Missbrauchsinhalten aus dem Internet einsetzt, hat umfangreiche Untersuchungen zu diesem Thema durchgeführt und jetzt veröffentlicht. Bereits im Juni entdeckte sie sieben URLs, die mutmaßlich KI-generiertes Material enthielten, wie es zuvor beschrieben worden ist. Allein eine kürzlich durchgeführte Untersuchung eines Darknet-Forums, das sich auf illegale Darstellungen sexuellen Missbrauchs von Kindern (Child Sexual Abuse Material, CSAM) spezialisiert hat, förderte schon rund 3.000 KI-generierte Bilder zutage.

Verstörende Inhalte mit Stable Diffusion

KI-Bildgeneratoren haben ihr Potenzial bereits in unterschiedlichen Anwendungen, einschließlich Kunst und Design, unter Beweis gestellt – die Erstellung von Darstellungen von Kindesmissbrauch ist ein trauriger Höhepunkt in dieser Entwicklung. Stable Diffusion von Stability AI wurde von der IWF dabei als Tool identifiziert, das am häufigsten von den Tätern verwendet wurde. Zwar ist es durch die jüngsten Updates der Software schwieriger geworden, explizite Inhalte zu erstellen, jedoch verwenden Kriminelle nach wie vor ältere Versionen dieser Modelle.

Die Inhalte sollen von eindeutigem Missbrauch von Kleinkindern und jugendlichen Promis bis hin zu BDSM-Szenen mit Teenagern reichen. In einigen Fällen werden Prominente zu Kindern "verjüngt" oder auch selbst als Täter dargestellt. Trotz der beträchtlichen Menge an tatsächlichem Missbrauchsmaterial, das online zu finden ist, gibt die rasche Entwicklung von KI-generiertem CSAM Anlass zur Besorgnis hinsichtlich ihres Potenzials, wie einfach neue Formen von Missbrauchsinhalten produziert werden können.

Nicht mehr aufzuhalten

Das volle Ausmaß des Problems lässt sich nur schwer abschätzen, aber eine detaillierte Analyse eines Darknet-Forums durch die Forscher des IWF hat die alarmierende Geschwindigkeit aufgezeigt, mit der diese Bilder produziert und verbreitet werden. Während Technologieunternehmen und Forscher aktiv nach Lösungen suchen, darunter Wasserzeichen, verbesserte Erkennungswerkzeuge und Präventivmaßnahmen, erscheint der Einwand valide, dass derartige Sicherheitsmaßnahmen viel zu spät eingeführt werden. Die Technologie befindet sich bereits in den falschen Händen, wodurch ein Teufelskreis des Missbrauchs entsteht, der nur noch schwer zu durchbrechen ist.

Mit der Weiterentwicklung der KI-Technologie bahnt sich auch schon das nächste große Problem an: KI-generierte Videos, die zu einer noch größeren Bedrohung ausarten können. Aber auch der bisherige Schaden, der bereits angerichtet worden ist, unterstreicht den dringenden Bedarf an umfassenden Lösungen und proaktiven Maßnahmen zur Bekämpfung dieses digitalen Albtraums. (bbr, 25.10.2023)