"Faire KI" könnte bald Gesetz für alle Systeme sein – und somit helfen, sexistische Bewerbungsprozesse zu verhindern.

Foto: IMAGO

Am hart umkämpften Arbeitsmarkt wird es für Unternehmen wichtig, akribischer nach Fachkräften zu suchen und ihre Stellen kreativ auszuschreiben. Viele Firmen lassen sich dabei bereits von künstlicher Intelligenz (KI) helfen. Spätestens mit ChatGPT hat sich gezeigt, wie leicht sich ansprechende Jobprofile kreieren lassen.

Auch die Bewerbendensuche läuft in zahlreichen bekannten Unternehmen längst mithilfe einer KI ab, welche Jobsuchende vorauswählt oder gar Vorstellungsgespräche führt und Emotionen der Kandidatinnen und Kandidaten erkennen soll. Pepsi und Ikea nutzen zum Beispiel ihr KI-Tool "Vera" für Recruitingprozesse, die digitale Helferin sortiert passende Bewerbungen aus und führt vorab erste Gespräche, bevor die Bewerberin mit einer echten Person aus dem Unternehmen spricht.

Eigentlich dienen diese Prozesse dazu, die Bewerberauswahl effizienter zu gestalten und Personalabteilungen zu entlasten. Doch was passiert, wenn die KI diskriminiert, sexistisch oder rassistisch ist? Ein digitales Tool kann nur so "fair" sein, wie die Datenlage es ist, mit der es gefüttert wird. Wurde in der Vergangenheit beim Recruiting diskriminiert, wird auch die KI diskriminieren. Beispiele dafür gibt es aus der Vergangenheit zahlreiche prominente. So hatte Amazon hauptsächlich weiße Männer als die idealen Kandidaten von KI zugespielt bekommen, in Österreich berechnete das AMS Arbeitsmarktchancen für Arbeitslose und diskriminierte dabei Frauen.

Der "AI Act", den die EU-Kommission als Antwort auf Probleme wie diese entworfen hat, soll bald in Kraft treten. Damit soll künstliche Intelligenz in Hochrisikobranchen wie dem Recruiting, der Medizin oder Finanzen streng kontrolliert und fair gebaut sein. Wie kann Recruiting also vertrauenswürdig und unvoreingenommen mit künstlicher Intelligenz ablaufen? Wie baut man überhaupt eine gute KI, wenn man alle Datenattribute löschen muss, die Sexismus anlernen?

Mensch ist immer dabei

An Lösungen und Problemfeldern für vertrauenswürdige KI arbeitet das Forschungszentrum für Big-Data-Analyse und datengetriebenes Business namens Know Center in Graz. Das Innovationszentrum forscht zu fairen KI-Modellen in Automation, Logistik, Energie- und Umweltwirtschaft sowie Medizin. Eine ihrer Erkenntnisse ist vor allem der Popularitätsbias, dass eine KI also immer eher allgemein populäre Vorschläge verbreitet als weniger Bekannte. Die Erkenntnis ist auch auf den Geschlechterbias übertragbar, erklärt Dominik Kowald, Forschungsleiter des Bereichs Faire KI im Know Center. Etwa bei Jobempfehlungssystemen könnte es durch historische Daten passieren, dass Männern höher bezahlte Jobs vorgeschlagen werden als Frauen. Kowald definiert drei Möglichkeiten, um ein KI-System genau von solchen Voreinnahmen zu reinigen. Beim "Pre-Processing" können Entwicklerinnen in die Trainingsdaten eingreifen und sie ändern, zum Beispiel wenn zu wenig Daten zu Frauen vorhanden sind.

Beim "In-Processing" ändert der Entwickler nicht die Trainingsdaten, sondern greift in den Algorithmus ein und ändert ihn so ab, dass er fair wird. "Das ist das Komplizierteste, weil man ganz tief in die technische Materie eingreifen muss", erklärt Kowald. Mithilfe von Post-Processing kann einfach in das Ergebnis des Algorithmus eingegriffen werden. Es ist also unabdingbar, dass auch Menschen eingreifen, kontrollieren und immer wieder anpassen, um faire KI zu erhalten. Zwar kann es dann deutlich länger dauern, sie zu produzieren, wenn sich aber die Gesetzeslage ändert, wird es Pflicht sein, vertrauenswürdige KI zu bauen. "Wir arbeiten derzeit auch an Zertifizierungen für KI-Modelle", verrät Kowald.

Synthetisch, aber sicher

Faire Ergebnisse einer KI zu bekommen gehe auch schneller, sagt Alexandra Ebert. Sie ist Chief Trust Officer bei dem KI-Start-up Mostly AI und Vorsitzende der Expertengruppe IEEE Synthetic Data IC. Ihre Firma ist ein Softwareanbieter für Erzeugung von synthetischen Daten für das Training von KI. Klingt kompliziert, ist es aber nicht, sagt Ebert.

Synthetische Daten sind ein Abbild der Originaldaten, nur mit künstlich erstellten Personen, damit sie der Datenschutzgrundverordnung (DSGVO) entsprechen. "Anonymisiert man Daten traditionell, bleiben am Ende nur absolute Durchschnittsmenschen über", schildert Ebert. Jegliche menschliche Vielfalt sei nicht mehr sichtbar. Synthetische Daten von Jobbewerbern würden auch atypische Lebensläufe enthalten, wenn beispielsweise jemand in Teilzeit, dann in Karenz und dann wieder Vollzeit gearbeitet hat. Ob die KI für einen Führungsjob dann auch solche Lebensläufe auswählt, bedarf der Prüfung von Fachkräften. Hier kommt der Mensch wieder ins Spiel.

Diskriminiert sie aufgrund von Geschlecht, Alter oder sonstigen Attributen, kann eine Entwicklerin der KI beibringen, diese Attribute nicht mehr auszuschließen. "Man kann der KI lehren, dass Vielfalt positiv ist." Auf lange Sicht könnte ein KI-Modell entworfen werden, welches Bewerbende so auswählt, dass es keinen Gender-Pay-Gap mehr gibt.

Mit KI seien Menschen genötigt, sagt Ebert, Fairness und Vertrauenswürdigkeit mathematisch zu definieren. Gerade im Recruiting könnte es dazu kommen, dass die KI weniger diskriminierend ist als der Mensch selbst. Denn die KI lasse sich schneller ändern als Generationen von Menschen, die mit Vorurteilen aufgewachsen sind. (Melanie Raidl, 13.3.2023)