Die MIT-Forscherin Joy Buolamwini stellte einen Datensatz von Menschen aus drei afrikanischen und drei europäischen Ländern zusammen.
Buolamwini

Joy Buolamwini existierte einfach nicht. Zumindest in den Augen von Maschinen. Während eine Gesichtserkennungssoftware ihre hellhäutige Freundin problemlos erfasste, tat sich bei ihr – nichts. In der Studie "Gender Shades", die Buolamwini am MIT Media Lab durchführte, stellte die Computerwissenschafterin die (künstliche) Intelligenz von Klassifizierungsprogrammen auf die Probe: Dafür schickte sie 1270 Bilder von Menschen aus drei afrikanischen und drei europäischen Ländern durch die Software dreier Unternehmen – IBM, Microsoft und Face++.

Die Ergebnisse zeigten: Alle Programme brachten bei helleren Hauttönen bessere Resultate als bei dunkleren. Bei der Erkennung weiblicher Gesichter war die Fehlerrate außerdem deutlich höher als bei männlichen. Am höchsten war die Fehlerrate bei Frauen mit dunkler Hautfarbe.

Die Auswertung aus der Studie "Gender Shades" zeigt große Differenzen.
Buolamwini

Selbstlernende Systeme, die Gesichter, Stimmen und Bewegungen registrieren, einordnen und darauf reagieren, verbreiten sich rasend. Programme, die auf künstlicher Intelligenz basieren, geben Empfehlungen ab, wer angestellt und wer gefeuert, wem ein Kredit gewährt oder wie hoch eine Gefängnisstrafe angesetzt werden soll. Die Basis dafür sind Datensätze – und die bilden trotz ihrer schieren Größe kaum die gesamte menschliche Vielfalt ab.

Das führt dazu, dass sich die Spracherkennung von Alexa, Siri & Co schwerer mit den Stimmen älterer Menschen tut, und biometrische Systeme mit dunkler Haut nicht so gut zurechtkommen wie mit heller Haut. Das zeigt übrigens auch das viral gegangene Beispiel eines automatischen Seifenspenders, dessen Sensor nur auf weiße Hände reagierte.

Es gibt mittlerweile eine ganze Reihe von Fällen, die zeigen, dass Datensätze, in denen tief sitzende Stereotype und Vorurteile eingeschrieben sind, dazu führen, dass sich Sexismus und Rassismus in KI-Systemen fortsetzen – und sich weiter verstärken. Das geht so weit, dass es zu handfesten Benachteiligungen kommt. Erst kürzlich wurde bekannt, dass der Algorithmus hinter Apples neuer Kreditkarte Männern einen um ein Vielfaches höheren Kreditrahmen gewährt als Frauen, die sich in genau der gleichen Lebenssituation befinden.

Automatisierung von Vorurteilen

"Wir riskieren, dass wir das, was wir durch die Bürgerrechts- und Frauenbewegungen gewonnen haben, verlieren, indem wir der falschen Annahme folgen, dass Maschinen neutral sind", sagt Buolamwini. "Wir müssen verstärkt Transparenz und Verantwortlichkeit fordern." Dafür tritt auch die von der MIT-Forscherin gegründete Algorithmic Justice League ein – eine Plattform zur Bekämpfung der Automatisierung von Vorurteilen.

Je weiter sich Systeme in unserem Alltag ausbreiten, die durch Algorithmen und künstliche Intelligenz gesteuert werden, desto lauter wird der Ruf nach mehr Diversität in der Technikgestaltung. "Es geht nicht nur um eine Vielfalt innerhalb von Forschungsgruppen, sondern auch um eine Vielfalt von Daten, von Einstellungen, Perspektiven und Hintergründen der Entwickler", sagte Martina Mara, Professorin für Roboterpsychologie an der JKU Linz, bei einem Vortrag am Ars Electronica Festival in Linz. "Ich bin überzeugt, dass Diversität eine der wichtigsten Voraussetzungen für ein menschenzentriertes Zeitalter der künstlichen Intelligenz ist. Jeder Mensch – egal welches Geschlecht und Alter, welche sexuelle Orientierung, Hautfarbe oder körperliche Beeinträchtigung jemand hat – sollte dasselbe Recht haben, die Welt zu gestalten, in der wir künftig leben werden."

Frauen sind in den Computerwissenschaften immer noch in der Minderheit.
Foto: Getty Images

Dass das noch nicht der Fall ist, wird am augenfälligsten, wenn man das unausgewogene Geschlechterverhältnis in der IT betrachtet. Trotz langjähriger Initiativen, Frauen und Mädchen für Computerwissenschaften zu begeistern, dümpelt in Österreich der Anteil der Frauen unter den Informatikabsolventen laut einer Statistik von Informatics Europe bei derzeit rund 15 Prozent (im Bachelorstudium) bis 20 Prozent (im Master- und PhD-Studium) dahin. Ein nicht unbeträchtlicher Teil an Frauen steigt im Lauf des Bachelorstudiums aus. Es gibt aber auch andere Beispiele: In osteuropäischen Staaten liegt der Anteil traditionell höher, Spitzenreiter ist Bulgarien mit fast 44 Prozent Masterabsolventinnen.

Fürsorgliche KI-Assistentinnen

Doch trotz Ausnahmen hält sich auch in den IT-Abteilungen abseits der Universitäten hartnäckig ein monopolartiger Zustand von etwa 80 Prozent Männern. Der vielzitierte Boys-Club der Tech-Millionäre aus dem Silicon Valley wird auch damit in Verbindung gebracht, dass Assistenzsysteme wie Alexa oder Siri, die meist eine dienende, fürsorgliche Rolle einnehmen, mit größter Selbstverständlichkeit als weiblich voreingestellt sind. Auch humanoide Roboter wie Sophia aus dem Hause Hanson Robotics folgen allzu oft eindeutigen Geschlechterklischees.

"Es fängt damit an, dass Studiengänge von Männern entwickelt, gelehrt und repräsentiert werden", sagt Regine Kadgien. Die Studiengangsleiterin für Informatik an der FH Vorarlberg und Teilnehmerin der Tagung "Informatik in Österreich: Perspektiven und Strategien", die kürzlich von Österreichischen Wissenschaftsrat veranstaltet wurde, ist davon überzeugt, dass neben Role-Models auch ein bewusst offen gestalteter Außenauftritt dafür sorgen kann, das Image des tendenziell asozialen, rein technikaffinen Computernerds aufzubrechen. "Allein die Überarbeitung der Webseite und Ergänzung mit breiteren Themen und Berufsbildern hat dazu geführt, dass sich viel mehr Mädchen zu unseren Sommerprogrammierkursen melden", gibt Kadgien ein Beispiel.

Die Informatik bastelt an neuen Methoden für mehr Diversität in der Technikgestaltung – zum Teil mit Erfolg.
Foto: Getty Images/iStockphoto

Immerhin: Es gibt bereits eine Reihe von Rezepten, um starre Fachstrukturen zu öffnen und ein ermutigenderes Umfeld für Frauen in der Informatik zu schaffen. Über den Erfolg einer herausragenden Initiative berichtete kürzlich die Florida University: Eine fünfjährige Förderung der National Science Foundation in Höhe von 3,2 Millionen Dollar ermöglichte es, mit Interviews, Fokusgruppen und weiterer Forschung das soziale Mikroklima in den Mint-Abteilungen genau zu analysieren, Vorurteilen auf die Spur zu kommen und in der Folge mit viel Feingefühl Änderungen durchzuführen, um Frauen, insbesondere solche mit hispanischem Background, zu fördern. Das Ergebnis: Der Frauenanteil im Lehrkörper stieg von 17 Prozent im Jahr 2016 auf aktuell 29 Prozent.

Aufgeklärtes Technikverständnis

Mittlerweile ist man sich auch innerhalb der Computerwissenschaften bewusst, "dass Informatik so etwas wie das Betriebssystem für künftige Gesellschaften ist", wie Peter Purgathofer, Professor für Visual Computing and Human-Centered Technology an der TU Wien, sagt. In der von ihm geleiteten Lehrveranstaltung "Denkweisen der Informatik" sollen Geschichtsbewusstsein, Ethik und kritisches Denken verankert werden: ein erster Schritt in Richtung eines aufgeklärten Technikverständnisses – damit die Gestaltung der digitalen Zukunft in den Händen möglichst unterschiedlicher Menschen liegt. (Karin Krichmayr, 27.11.2019)