Einen Fingerzeig auf den richtigen Jobkandidaten sollen Algorithmen liefern. Neutral sind ihre Entscheidungen meist aber nicht.

Illustration: Getty Images / iStock / RoboLab

Der erste Eindruck zählt: Es ist im Personalmanagement immer wieder zu hören, dass die Entscheidung über eine Einstellung bereits in der ersten Minute falle – sei es beim Lesen der Bewerbungsunterlagen oder im Gespräch mit den Kandidatinnen und Kandidaten. Solche Bauchentscheidungen können aber – mal mehr, mal weniger absichtlich – zu ungerechten, wenn nicht gar diskriminierenden Entscheidungen führen.

Wie diese Prozesse fairer gestaltet werden können, diskutierten kürzlich Wissenschafterinnen und Wissenschafter verschiedener Disziplinen während einer Kooperationsveranstaltung der Arbeiterkammer (AK), der Central European University (CEU) und des Wiener Wissenschafts-, Forschungs- und Technologiefonds (WWTF).

Im Zentrum der Debatte standen Algorithmen, weil diese Analyseprogramme auch immer häufiger bei der Personalauswahl zum Einsatz kommen. Schließlich lassen sich mit solcher Software große Datensätze auswerten. Das kann den Zuständigen in den Personalabteilungen einige Arbeit abnehmen, indem die Algorithmen bereits eine Vorauswahl unter den Bewerberinnen und Bewerbern vornehmen.

Strukturelle Ungleichheiten

Blind für Kategorien wie Herkunft und Geschlecht, die bei diskriminierenden Personalentscheidungen häufig relevant sind, arbeiten Algorithmen aber keineswegs, betont Elisabeth Greif vom Institut für Legal Gender Studies der Johannes-Kepler-Universität Linz: "Mit ihrem Einsatz wird häufig die Hoffnung verbunden, dass die so zustande gekommenen Entscheidungen objektiver und neutraler sind als jene durch menschliche Entscheider. Zahlreiche Studien zeigen jedoch, dass die Ergebnisse auf Algorithmen basierender Entscheidungssysteme für bestimmte Personen und Gruppen nicht nur genauso benachteiligend sind, sondern dass sie bestehende strukturelle Ungleichheiten sogar noch verstärken."

Auch Algorithmen seien nämlich eingebettet in eine bestimmte soziale Umgebung, sodass sie immer auch eine soziale, kulturelle und politische Dimension haben. Denn in jeden Algorithmus fließen bestimmte Werte und Wertscheidungen ein – was auch für die Daten gilt, die verarbeitet werden und mit denen die Programme in ihrem maschinellen Lernprozess trainiert werden. Greif: "Damit verstetigen Algorithmen bestehende gesellschaftliche Muster. Sie fördern keinen Wandel, sondern bestätigen, was sie vorfinden. Somit lernen Algorithmen solche Diskriminierungen und schreiben sie weiter fort."

Gerechtere automatische Entscheidungsprozesse

Um diesen Prozess aufzubrechen, erarbeitet Greif mit ihrem Team derzeit in dem Projekt DatDA theoretische Grundlagen. Mit diesen soll die Softwareentwicklung in der Praxis die Möglichkeit bekommen, die automatischen Entscheidungsprozesse so zu gestalten, dass sie nicht länger zu diskriminierenden Schlüssen kommen.

Der Prototyp eines solchen Programms wird derzeit am Centre for Informatics and Society der TU Wien entwickelt. Das Programm, das wie auch Datda vom AK-Digitalisierungsfonds gefördert wird, trägt den Namen Debias. Ausgehend von Gesprächen mit zahlreichen an Bewerbungsprozessen beteiligten Personen und bestehenden Forschungsergebnissen aus verschiedenen Fachbereichen soll die Auswahl fairer gestaltet und für alle Beteiligten auch nachvollziehbarer gemacht werden.

Transparenzprobleme

Das sei nämlich ebenfalls ein zentrales Problem, verrät Projektleiter Florian Cech: "All diese algorithmischen Systeme haben ein riesiges Transparenz- und Nachvollziehbarkeitsproblem. Die meisten Systeme sind technisch zu komplex, um von einzelnen Menschen verstanden zu werden – inklusive der Personen, die sie erschaffen, weshalb häufig nicht erklärt werden kann, wie Entscheidungen zustande kommen."

Das TU-Programm setzt vor allem auf verschiedene Anonymisierungstechnologien im Auswahlprozess. Dadurch kommen viele kognitive Faktoren, die eine befangene Entscheidung fördern – wie der Name oder das Aussehen –, nicht zum Tragen: Bis es zu einer persönlichen Begegnung kommt, wurde bereits ein strukturiertes, für alle gleiches Interview per Chat geführt. Das ist auch deshalb relevant, weil in mündlichen Bewerbungsgesprächen oft improvisiert wird und es daher selten zu einem einheitlichen Ablauf für alle Teilnehmerinnen und Teilnehmer kommt.

Das Tool bietet dazu eine Reihe von Analyse- und Visualisierungsformen an, um die Bewertung der Person zu erleichtern. Somit treffen hier am Ende doch wieder die Menschen eine Entscheidung – aber im besten Fall mit technischer Hilfe auch eine, die wirklich fair ist. (Johannes Lau, 29.6.2021)