Ob sich der Roboter Hubo von der Zeitungslektüre in seinen vorgefassten Meinungen beeinflussen lässt? Die Sprach-KI GloVe jedenfalls ist durchaus anfällig für Vorurteile, die sie im Internet aufschnappt, wie nun US-Wissenschafter nachgewiesen haben.

Foto: APA/AFP/FABRICE COFFRINI

Princeton/Wien – Computersysteme werden künftig in immer größerem Ausmaß dafür herangezogen, wichtige Entscheidungen zu treffen. Wer soll wieviel für seine Krankenversicherung zahlen? Welchem Bankkunden sollte man einen Kredit lieber verweigern? Welcher Kriminelle könnte am ehesten wieder straffällig werden? Die Idee dahinter ist unter anderem, dass Computer im Unterschied zu Menschen ihr Urteil nicht auf Basis von vorgefassten Meinungen fällen – zumindest hoffte man das früher.

Überraschenderweise machen sich künstliche Intelligenzen (KI) aber durchaus dieselben Ressentiments zu eigen wie ihre Schöpfer. Ein Forscherteam um Aylin Caliskan von der Princeton University hat nun in einem KI-System nicht nur Voreingenommenheit gegenüber bestimmten Hautfarben oder Geschlechtern festgestellt, sondern auch die möglichen Wurzeln dafür identifiziert.

GloVe kennt 2,2 Millionen Worte

Eine verbreitete Methode, Vorurteile zu messen, ist der Implizite Assoziationstest (IAT). Dabei sollen die Teilnehmer am Computer Worte anderen Begriffen zuordnen. "Blumen" werden dabei etwa in der Regel mit "erfreulich" kombiniert, den "Insekten" wird meist der Begriff "unangenehm" zugewiesen. Unter anderem anhand der Reaktionszeit der Probanden lassen sich Aussagen über das Vorhandensein unterschwelliger Vorurteile treffen.

Caliskan und ihre Kollegen modifizierten diesen Test und setzten ihn einem hochentwickelten KI-System vor. Dieser GloVe-Algorithmus (Global Vectors for Word Representation) kennt nicht nur 2,2 Millionen englische Wörter, sondern auch ihre semantischen Beziehungen untereinander. Seine Erkenntnisse hat GloVe gewonnen, indem er für jedes einzelne Wort in Texten aus dem Internet nachgesehen hat, welche anderen Begriffe im näheren Umkreis vorkommen. Das System "las" dafür im Web rund 840 Milliarden Worte. Das Ergebnis ist ein komplexes System aus semantischen Vektoren.

Video: Aylin Caliskan und ihre Kollegen erklären, wie künstliche Intelligenzen menschliche Vorurteile übernehmen.
Aaron Nathans, Princeton University

Vom Menschen gelernt

Der adaptierte Test mit der Bezeichnung WEAT (Word-Embedding Association Test) konnte nun nachweisen, dass GloVe bei seiner Lektüre menschliche Vorurteile in einem hohen Ausmaß übernommen hat. Als Quelle dieser Maschinen-Ressentiments identifizierten die Forscher im Fachjournal "Science" die gleichsam in die menschliche Sprache eingewobenen historischen Vorurteile und kulturellen Stereotypen.

So assoziierte die KI beispielsweise Begriffe aus der Kunst eher mit Synonymen für das Wort "Frau", während Mathematik großteils männlich konnotiert wurde. Außerdem war GloVe statistisch gesehen geneigt, Namen europäischer Herkunft eher mit positiven Eigenschaften zu verbinden als afroamerikanische Namen. Die Forscher überlegen nun, der KI ihre rassistischen und sexistischen Tendenzen auszutreiben, ohne dass dabei auch wichtige semantische Informationen verloren gehen. Bleibt nur zu hoffen, dass GloVe bei der Beseitigung seiner Vorurteile lernfähiger ist als der Mensch. (tberg, 13.4.2017)