Frau arbeitet am Schreibtisch im Homeoffice
Wird ein Jobinterview via Software ausgewertet, kann ein Bücherregal im Hintergrund Pluspunkte bringen - das Frausein hingegen punktet eher weniger.
imago images/Westend61

Andreas Tinhofer erklärt im Gastbeitrag, wie künstliche Intelligenzen Bewerbungskandidatinnen und -kandidaten diskriminieren und was einzelne US-Bundesstaaten jetzt dagegen tun.

Claudia K. will in ihrem Jobinterview für die Stelle als Consultant in einem internationalen Konzern nichts dem Zufall überlassen. Sie bereitet sich penibel auf das Gespräch vor und richtet als Hintergrund ein Bücherregal mit Klassikern der Weltliteratur ein. Nicht nur ihre Antworten und ihre Mimik, sondern auch ihr Büro sollen den digitalen Avatar, der das Interview führt, überzeugen.

Genaue Analyse

Diese fiktive Geschichte beschreibt, wie ein Bewerbungsverfahren heute aussehen kann. Als Folge des Digitalisierungsschubs setzen auch in Europa immer mehr Unternehmen Interviewprogramme ein, die neben den Antworten auf standardisierte Fragen tausende Daten der Jobsuchenden erfassen. Alles wird analysiert: die Stimmlage, die Satzlänge, die Bewegungen der Augenbrauen und das Lächeln.

Die Verarbeitung dieser Daten erfolgt nach einem Algorithmus, der mit den Daten tausender erfolgreicher Bewerber und Bewerberinnen trainiert wurde. Danach erhält das Unternehmen eine Beurteilung der Bewerber in Punkten. Neben der Analyse von Bewerbungsvideos werden KI-Systeme etwa auch für die optimale Platzierung von Stellenanzeigen auf Jobportalen oder das automatisierte Screening von Lebensläufen eingesetzt.

KI verfestigt Ungleichheit

Untersuchungen haben gezeigt, dass die Trainingsdaten häufig historische Diskriminierungen widerspiegeln, die durch solche Systeme reproduziert und verfestigt werden. Wurden etwa in der Vergangenheit für eine Position vorwiegend Männer eingestellt, so wird die KI – ohne Gegenmaßnahmen – einen Bias zulasten von Frauen entwickeln.

KI-Systeme können zwar Korrelationen zwischen den Informationen gut erkennen, nehmen dabei allerdings auf Kausalitäten keine Rücksicht. So wurde in Untersuchungen festgestellt, dass ein Videointerviewprogramm Bewerberinnen mit Brille als weniger gewissenhaft einstuft. Eine Bücherwand im Hintergrund eines Bewerbers brachte hingegen bessere Werte.

Diese Problematik hat in einzelnen US-Bundesstaaten bereits zu neuen Gesetzen geführt. Wenn ein Unternehmen in New York eine KI zur Unterstützung von Entscheidungen über Einstellungen und Beförderungen einsetzen will, muss es dieses nun durch eine unabhängige Stelle auf das Diskriminierungsrisiko prüfen lassen und die Ergebnisse veröffentlichen. Dabei muss auch die Punktezahl einzelner ethnischer Gruppen und Geschlechter publiziert werden. Sonstige rechtlich geschützte Merkmale (etwa Behinderung) werden vom Gesetz nicht erfasst. In Kalifornien und New Jersey gibt es ähnliche Vorhaben.

Verhandlungen in Europa

In Europa gehen die Verhandlungen über den AI Act im Herbst in die finale Phase, sodass noch heuer mit seiner Verabschiedung zu rechnen ist. Dabei ist die Vermeidung "algorithmischer Diskriminierung" ein wichtiges Ziel, das jedoch nur sehr allgemein geregelt wird. Die Verordnung wird voraussichtlich erst 2026 in Kraft treten (siehe oben). Bis dahin wird es an den Gerichten liegen, die geltenden Rechtsvorschriften auf den Einsatz von KI-Systemen anzuwenden und damit das Recht weiterzuentwickeln.

So haben Unternehmen bereits jetzt arbeits- und datenschutzrechtliche Vorschriften zu beachten. Dies betrifft neben der DSGVO insbesondere das europäische Antidiskriminierungsrecht, das in Österreich im Wesentlichen durch das Gleichbehandlungsgesetz und das Behinderteneinstellungsgesetz umgesetzt wurde. Gibt es im Unternehmen einen Betriebsrat, so ist vor der Einführung eines KI-Tools zur Unterstützung bei Personalentscheidungen in der Regel eine Betriebsvereinbarung abzuschließen. (Andreas Tinhofer, 18.9.2023)