Künstliche Intelligenz, wie sie etwa der Chatbot ChatGPT nutzt, trägt laut einem Bericht der Unesco zur Verbreitung sexistischer Vorurteile bei. "Bestehende Diskriminierungen werden im digitalen Raum nicht nur widergespiegelt, sondern verstärkt", erklärte Tawfik Jelassi von der UNO-Organisation für Bildung, Wissenschaft und Kultur in Paris.

Bild zeigt einen Computer und ein Smartphone mit ChatGPT
Neue Kritik an Chatbots wie ChatGPT
IMAGO/Luka Stanzl

Chatbots wiesen weiblichen Namen eher Worte zu wie "Haus", "Familie", "Kinder" zu, während männliche Namen eher mit "Geschäften", "Gehalt" und "Karriere" verknüpft würden, heißt es in einer am Donnerstag vorgestellten Studie. Dies gilt der Studie zufolge sowohl für die Softwareversionen GPT 2 und GPT 3.5 von OpenAI, die etwa für die Gratisversion ChatGPT benutzt werden, als auch für die konkurrierende Software Llama 2 des Meta-Konzerns. Texte, die Frauen oder Angehörige kultureller Minderheiten beträfen, basierten häufig auf Stereotypen.

Testweise

Die Wissenschafter beauftragten die Chatbots etwa, Geschichten über Menschen verschiedener Herkunft und verschiedenen Geschlechts zu produzieren. Britische Männer wurden demnach häufig als Lehrer, Fahrer oder Bankangestellter dargestellt. Britische Frauen hingegen wurden in 30 Prozent der Texte als Prostituierte, Model oder Kellnerin vorgestellt.

Da solche Chatbots mehr und mehr Verbreitung finden, "haben sie die Macht, die Wahrnehmung von Millionen von Menschen zu beeinflussen", sagte die Unesco-Direktorin Audrey Azoulay. "Das geringste sexistische Vorurteil in ihren Inhalten kann die Ungleichheiten in der Welt erheblich vergrößern", fügte sie hinzu.

Chatbots können in Sekundenschnelle Fragen beantworten und hochkomplexe Texte generieren. Insbesondere ChatGPT macht seit Ende 2022 die Möglichkeiten sogenannter generativer KI schlagartig einem großen Publikum bewusst. Zugleich wuchsen aber Befürchtungen hinsichtlich möglicher Gefahren der Technologie. (APA, 7.3.2023