Technische Kompetenz ist den Köpfen immer noch mit Männern verknüpft.
Technische Kompetenz ist den Köpfen immer noch mit Männern verknüpft.
Getty Images

Wenn es um Taylor Swift geht, schaut die Welt genauer hin. Gesellschaftspolitische Debatten kann das durchaus voranbringen – so auch zuletzt. Im Jänner wurde der Pop-Superstar Opfer von pornografischen Deepfake-Bildern, die mittels generativer künstlicher Intelligenz (KI) erstellt wurden. Nutzer:innen fluteten Social-Media-Plattformen mit den Bildern – insbesondere auf X (vormals Twitter) verbreitete sich das Material rasant. Einzelne Bilder wurden millionenfach aufgerufen. Der Fall Swift zeigt eindrücklich, wie schlecht Plattformanbieter offenbar für den Kampf gegen gefälschte – und degradierende – Bilder und Videos gerüstet sind. In Zeiten grassierender Desinformation liefert künstlich generiertes Bildmaterial, das immer einfacher erstellt werden kann, neue Munition – umso mehr in Wahlkampfzeiten.

Misogyne Taktik

Deepfakes sind aber auch Teil eines technologisch neu aufgerüsteten Frauenhasses, der das Netz überschwemmt. Er trifft Superstars ebenso wie junge Frauen, deren verschmähte Ex-Partner nach Rache streben. "Swifts Deepfake-Alptraum ist nur die Spitze des Eisbergs, der die existenzielle Bedrohung von Frauen und Mädchen aufzeigt", schreibt Tech-Journalistin Laurie Segall auf CNN. Ende Jänner brachte nun eine Gruppe von US-Senator:innen einen Gesetzesentwurf ("Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024“) ein, der es Betroffenen ermöglichen würde, auf Schadenersatz zu klagen. Darüber hinaus hat sich eine – globale – Debatte darüber entspannt, wie Deepfakes besser reguliert werden könnten.

"Technisch werden aktuell vor allem zwei Maßnahmen diskutiert", erklärt Asena Soydaş, Projektmanagerin im Bereich Digitalisierung und Gemeinwohl bei der Bertelsmann Stiftung.

Einerseits seien das Wasserzeichen, die es Plattformen erleichtern würde, Inhalte zu erkennen und zu sperren. Andererseits sogenannte Verzerrungen oder Vergiftungen: Schutzmechanismen wie Photoguard, entwickelt am MIT, könnten etwa Bilder vor missbräuchlicher Verwendung durch KI schützen, indem sie sie für das menschliche Auge unsichtbar verzerren. Aber auch solche Tools bergen Fallstricke. "Die Frage, ob es wirklich eine technische Lösung für diese Probleme gibt, ist offen", sagt Soydaş.

Fehlende Diversität

Mit dem Hype um generative KI, also Anwendungen wie ChatGPT oder Musikgeneratoren, sei das gesellschaftliche Interesse merkbar gewachsen, so Soydaş. "Aber die Frage, wer in dieser Debatte am Tisch sitzt, ist essenziell."

Schon die Unternehmen und Institutionen, die Zukunftstechnologien entwickeln, sind klar männerdominiert. Nur 22 Prozent aller europäischen Tech-Jobs sind von Frauen besetzt, meldete der Unternehmensberater McKinsey im vergangenen Jahr. Auch in den technischen Studienfächern tut sich wenig. Die Zahl der MINT-Absolventinnen stagniere seit 2016. Als besonders problematisch schätzt Soydaş aber einen zusätzlichen Faktor ein: "Hinter den KI-Produkten stehen im Wesentlichen ein paar wenige bekannte Konzerne und Namen. Wie abhängig wollen wir von deren Produkten sein?"

Tatsächlich haben die großen Tech-Konzerne schon eine ganze Reihe beschämender Beispiele geliefert, wie wenig inklusiv ihre Produkte sind. Als 2014 etwa das Apple Health Kit erschien, das alle relevanten Körperfunktionen erfassen und analysieren sollte, fehlte eine Kleinigkeit: Es war nicht möglich, den Menstruationszyklus zu tracken. Eine Studie am MIT Media Lab wiederum zeigte, dass Gesichtserkennungssoftware Gesichter mit hellerer Haut deutlich besser erkennt als dunkle Hauttöne. Bei Frauen mit dunkler Hautfarbe war die Fehlerquote der Software am höchsten.

Unsichtbare Diskriminierung

"Der Bias von künstlicher Intelligenz ist ein systemimmanentes Problem", sagt Barbara Herbst. Die IT-Expertin hat die Agentur en.AI.ble gegründet und berät Unternehmen zum Thema KI. So wurde etwa ChatGPT mit einem riesigen Satz an Trainingsdaten gefüttert – Geschlechterstereotype oder rassistische Darstellungen inklusive. "Die Geschichte der Menschheit ist nun mal keine Geschichte des Matriarchats", sagt Herbst. Stereotype, die in den historischen Daten enthalten sind, tragen nun wieder dazu bei, diese zu verstärken. "Es ist enorm wichtig, sich mit diesem Daten-Bias kritisch auseinanderzusetzen", sagt Herbst. KI sei schließlich nicht bloß eine neue Software, die Unternehmen auf ihre Rechner spielen. "Sie ist eine disruptive Technologie, die tief in unsere Gesellschaftsordnung eingreift und in die Art, wie wir miteinander arbeiten", sagt Herbst.

Wie Algorithmen diskriminieren, bleibt oft unsichtbar – was Anwendungen künstlicher Intelligenz besonders tückisch macht. Etwa wenn Bewerber:innen nachgereiht werden, weil ein Algorithmus sie als wenig erfolgversprechend klassifiziert – allein wegen ihres Geschlechts.

"Die vorgebliche Neutralität der Technik lässt Entscheidungsprozesse objektiv erscheinen und verschleiert Diskriminierungen, wodurch Betroffene oft nicht einmal wissen, dass sie betroffen sind", formulieren es die Wissenschafterinnen Nicola Marsden, Kerstin Raudonat und Monika Pröbster in einem Aufsatz zum "Kreislauf der Diskriminierung" in IT-Systemen.

Werden diskriminierende Effekte nicht erkannt, sind sie dann nicht nur technisch verankert, sondern tragen sogar dazu bei, weitere "verzerrte" Daten zu produzieren. Eine sogenannte "baked-in bias".

Technik für das Gemeinwohl

Dass Technik schon in der Entwicklung dringend mehr Diversität braucht, darin sind sich Soydaş und Herbst einig. Frauen fehlen in technischen Ausbildungen – oder verlassen das Feld wieder. Das Problem der "Leaky Pipline" ist in der Technik ein besonders drastisches. So zeigte eine Studie der Europäischen Kommission, dass im Alter von 45 Jahren über 90 Prozent der weiblichen Absolventinnen in der Information and Communication Technology das Berufsfeld wieder verlassen haben. Darüber hinaus sind einflussreiche Konzerne wie Google, Apple oder Meta ganz besonders von einer männlichen und weißen Start-up-Kultur geprägt. Frauen in der Technik würden aber auch unsichtbar gemacht, kritisiert Asena Soydaş. Technische Kompetenz ist den Köpfen immer noch mit Männern verknüpft. "Ich erlebe ständig Podiumsdiskussionen, die rein männlich besetzt sind. Und auch große Medien berichten beim Thema KI oft nur über männliche Experten im Feld", so Soydaş.

Wie künstliche Intelligenz stärker auf das Gemeinwohl ausgerichtet werden kann, dafür gibt es indes durchaus Ideen. So setzt sich die Menschenrechtsorganisation Algorithmwatch etwa für "eine Welt, in der Technologie im Allgemeinen und algorithmische Systeme im Besonderen den Menschen zugutekommen" ein und deckt regelmäßig Fehler automatischer Entscheidungssysteme auf. "Solche zivilgesellschaftlichen Initiativen leisten wichtige Arbeit", sagt Soydaş. Es brauche aber auch klare gesetzliche Regulierungen. "Der AI Act der EU etwa liefert Grundlagen dafür, wie KI sicher eingesetzt und kontrolliert werden kann. Gleichzeitig ist es kein Gesetz, das explizit darauf abzielt, Menschenrechte zu wahren oder Diskriminierung zu minimieren."

Für strengere Regulierungen, die sich der Geschlechtergerechtigkeit verschreiben, braucht es wohl auch Druck aus der Zivilgesellschaft. Taylor Swift könnte dazu einen Beitrag leisten. (Brigitte Theißl, 24.2.2024)