Bild nicht mehr verfügbar.

Amazon wollte ein Tool erschaffen, welches den Rekrutierungsprozess in Unternehmen erleichtert.

Foto: AP/Drew

Amazon soll ein internes Projekt gestrichen haben, nachdem die dazu geschaffene Künstliche Intelligenz (KI) Frauenfeindlichkeit gezeigt hat. Das berichtet die Nachrichtenagentur Reuters. So sollte ein Tool mittels KI dabei helfen, gute Jobkandidaten auszusuchen. Allerdings gab diese Bewerbungen, in denen das Wort "Frau" oder der Name von einer Universität, die vorwiegend von Frauen besucht wird, negative Punkte.

Der Grund dafür liegt daran, dass KI-Systeme Entscheidungen basierend auf Trainingsdaten treffen. Das führt dazu, dass bereits bestehende Normen bestärkt werden. Da bei Amazon, wie auch bei anderen IT-Unternehmen, primär Männer arbeiten, identifizierte die KI Frauen fälschlicherweise als minderwertiger.

Neues Tool in Arbeit

Der eigentliche Plan wäre gewesen, dass die KI mehrere Bewerbungen analysiert und die besten Kandidaten herausfiltert, um Menschen die Arbeit bei der Rekrutierung zu erleichtern. Dieser Bias wurde zwar nach der Erkennung ausgeräumt, jedoch konnten die Mitarbeiter, die an dem Projekt arbeiteten, nicht sicherstellen, ob womöglich andere solche Verzerrungen bestehen, weswegen es gänzlich aufgegeben wurde.

Aktuell soll Amazon jedoch an einem neuen Rekrutierungstool arbeiten, wobei der Fokus hierbei auf Vielfältigkeit liege. (red, 10.10.2018)