Dass Alexa und andere Sprachassistenten mit weiblicher Stimme sprechen ist kein Zufall.

Foto: Reuters/Mike Blake

Alexa, ändere deine Stimme!" Fünf Jahre nachdem Amazons digitaler Assistent erstmals in heimische Wohnzimmer einzog, können Nutzer nun auch mit Ziggy, einer männlichen Stimme, sprechen. Die Persönlichkeit von Alexa bleibt dabei unverändert. Das verspricht zumindest Amazon in einem Werbevideo.

Dass Alexa bisher ausschließlich als Frauenstimme assistierte, ist kein Zufall: Nahezu alle Sprachassistenten, die in immer mehr Wohnzimmern stehen und dort Aufgaben übernehmen, werden als weiblich wahrgenommen. "Smart Wife" nennen die australischen Wissenschafterinnen Yolande Strengers und Jenny Kennedy das Phänomen in ihrem gleichnamigen Buch, denn als Prototyp für Alexa, Siri, Cortana und Co sehen sie das Stereotyp der Mittelschichtshausfrau der 1950er-Jahre: Stets verfügbar, freundlich und geduldig wachen die smarten Assistentinnen über die Einkaufsliste und schalten das Licht ab, wenn wir es uns im Bett gemütlich gemacht haben.

Ungleiche Entwicklung

In einem 2019 veröffentlichten Bericht warnt sogar die Unesco angesichts der enormen Popularität digitaler Assistenten vor fatalen Folgen für das Geschlechterverhältnis. Denn traditionelle Geschlechterstereotypen würden durch Siri und Co verstärkt – und zugleich rund um den Globus verbreitet.

"Technologie ist nie neutral", sagt dazu Techniksoziologin Fiona Krakenbürger. Wie wir Technik nutzen, sei von gesellschaftlichen Normen geprägt, bereits in die Entwicklung fließen die Wertvorstellungen von Programmiererinnen und Designern ein. Und es sind mit großer Mehrheit Männer, die in der IT-Branche die Technologien von morgen entwerfen.

In vielen Staaten hat sich der Gender-Gap in der Technik sogar verstärkt, wie die Unesco berichtet. So arbeiteten in Großbritannien 2019 rund zwölf Prozent Frauen in der Sparte Programmieren und Softwareentwicklung – zehn Jahre zuvor waren es noch 15 Prozent. In den USA ist indes der Anteil von Studentinnen der Informatik und Informationswissenschaft von 37 Prozent Mitte der 1980er-Jahre auf 18 Prozent geschrumpft. Je mehr Technologien an Bedeutung gewannen, umso stärker seien Frauen aus diesen Sektoren verdrängt worden.

Auch im Silicon Valley, in jenen Techkonzernen, die den globalen Markt dominieren, ist es schlecht um die Diversität bestellt. Laut eigenen Angaben beschäftigt Google aktuell 32,5 Prozent Frauen, in den USA sind schwarze Mitarbeiterinnen und Mitarbeiter im Konzern deutlich unterrepräsentiert.

Das Patriarchat in der Dose

"Bei Unternehmensstatistiken stellt sich immer die Frage, wer tatsächlich in entscheidenden Positionen sitzt und so darüber entscheidet, wie Technologie heute ausgestaltet ist", sagt Krakenbürger. Für Frauen sei es in der männerdominierten Techbranche schwierig, gerade weiblich geführte Start-ups würden weitaus weniger Investitionen anziehen.

Wie patriarchale Wertvorstellungen sich in Technologie einschreiben, demonstrieren digitale Sprachassistentinnen indes eindrücklich. Statt etwa auf verbale sexuelle Belästigung oder Beleidigungen abweisend zu reagieren, antworten sie oft spielerisch. "I’d blush if I could" – "Ich würde rot werden, wenn ich das könnte", so die einstige Reaktion von Siri auf "You’re a slut".

Inzwischen hat Apple auf die Kritik reagiert und verschiedene Antworten entfernt. Auch Amazon schraubte an Alexas Repertoire – die Unterwürfigkeit der Assistentin ist jedoch erhalten geblieben.

Wie die Forschung indes zeigt, werden weibliche Stimmen eher als hilfsbereit und kooperativ wahrgenommen, männliche hingegen wirken auf Menschen autoritärer. Darin spiegeln sich auch die Geschlechterverhältnisse der analogen Welt wider. Dort übernehmen bekanntlich überwiegend Frauen bezahlte und unbezahlte Sorgearbeit, während Männer in den Führungsetagen den Ton angeben.

Datenschutz-Kritik

Stereotype weiblicher Rollen wie die Hausfrau, Mutter oder Ehefrau würden Unternehmen auch dazu nutzen, Überwachungsstrukturen zu verschleiern, schreibt Francesca Schmidt in Netzpolitik – Eine feministische Einführung. Datenschützerinnen und Datenschützer kritisieren seit jeher die Datensammelwut und Intransparenz der Techkonzerne: Smarte Geräte speichern eine Unmenge an Daten, wo und für welchen Zweck diese genutzt werden, ist für Nutzer aber nur schwer nachzuverfolgen.

Umso wichtiger sei eine breite gesellschaftliche Debatte über technologische Entwicklung, ist Fiona Krakenbürger überzeugt. "Viele Menschen scheuen die Auseinandersetzung mit Technologie. Sie prägt aber unser Leben massiv, es braucht also eine Einmischung möglichst vielfältiger Stimmen."

Entwicklerinnen und Entwickler finden inzwischen aber auch kreative Zugänge zur geschlechtlichen Identität der digitalen Assistenten. Kai, ein Onlinebanking-Chatbot des Unternehmens Kasisto, antwortet nur mit Text und setzt statt auf eine menschliche Identität auf roboterhafte Züge. "Als ein Bot bin ich kein Mensch. Aber ich lerne. Das ist Maschinenlernen", antwortet Kai auf die Frage, ob es männlich oder weiblich sei – und reagiert auch abweisend auf verbale Belästigung.

Genderneutral assistiert

Einen anderen Zugang verfolgt ein Zusammenschluss verschiedener Institutionen: 2019 präsentierten sie Q, eine geschlechtsneutrale Stimme. "Da die Gesellschaft die Geschlechterbinarität aufbricht, sollte die von uns geschaffene Technologie dem folgen", ist auf der Website zu lesen. Genderneutrale Stimmen könnten künftig in Assistenzsystemen eingesetzt und Stereotype so unterlaufen werden, hoffen die Entwicklerinnen und Entwickler.

Vorstöße wie diese bewertet Techniksoziologin Krakenbürger positiv – doch sie gehen ihr nicht weit genug. "Es braucht eine grundsätzliche Debatte darüber, wie wir als Gesellschaft Technik regulieren wollen." Im feministischen Hackspace Heart of Code in Berlin, wo Krakenbürger Mitglied ist, wird einem patriarchalen Technikverständnis entgegengearbeitet – spielerisch oder aber auch mit Blick auf die mögliche Vermarktung einer Technologie.

Dass mehr Diversität in der Technik unabdingbar ist, betonen die Autorinnen und Autoren der Unesco-Studie gerade angesichts neuer Entwicklungen im Maschinenlernen. So sollen sich die noch recht hölzernen und einsilbigen Assistentinnen in digitale Wesen verwandeln, die menschliche Emotionen möglichst realistisch imitieren. "Emotionale Sprachassistenten können Geschlechternormen etablieren, die Frauen und Mädchen als mit unendlichen Reserven an emotionalem Verständnis und Geduld positionieren, während sie selbst keine emotionalen Bedürfnisse haben", ist im Bericht zu lesen – patriarchale Bilder, gegen die Feministinnen seit vielen Jahrzehnten ankämpfen. Die Uhr tickt jedenfalls, so die finale Warnung der Unesco. (Brigitte Theißl, 11.1.2022)