Erfahrungen in den USA haben gezeigt, dass Algorithmen Minderheiten systematisch benachteiligen können.

Foto: APA / Herbert Neubauer

Die Entscheidung des Arbeitsmarktservice (AMS), einen Algorithmus für die korrekte Einstufung von Arbeitslosen zu verwenden, sorgt auch international für Aufsehen. Beim Digital Summit in Dublin, einem Treffen führender IT-Manager aus den USA und der EU, war die Sorge, dass der Einsatz künstlicher Intelligenz (KI) bei Entscheidungen zu Diskriminierung bestimmter Gruppen führen kann, eines der meistdiskutierten Themen. Und ein KI-Experte eines US-Technologieriesen nannte das AMS-Modell als typisches Beispiel für ein System, das zu ungerechtfertigten Benachteiligungen führen kann.

Wie berichtet, wird das AMS Arbeitslose aufgrund bestimmter Kriterien per Computer in drei Gruppen aufteilen und das Angebot für sie entsprechend maßschneidern. Wem die Software geringe Chancen auf dem Jobmarkt gibt, erhält auch weniger Leistungen. Das, warnen zahlreiche Kritiker im Inland, könnte Frauen, Ältere, Menschen mit Behinderungen und mit Migrationshintergrund benachteiligen. Internationale Beispiele bestätigen diese Ansicht, sagt der US-Manager, der aus unternehmenspolitischen Gründen nicht genannt werden darf, dem STANDARD. "Ein solcher Algorithmus spiegelt wider, wie wir über Arbeitslose denken.

Vorurteile landen im Code

Unsere Vorurteile scheinen dann im Computercode auf." Er wisse, dass das AMS keine bösen Absichten verfolgt, aber: "Ein solcher Algorithmus verstärkt und zementiert eine bereits bestehende Diskriminierung." Selbst wenn die Letztentscheidungen bei den AMS-Referenten verbleiben, bestehe die Gefahr, dass die sich allein auf das Urteil des Computers stützen, weil sie davon ausgehen, dass dieser verlässlicher entscheide als Menschen. "Automation Bias" wird dieses Phänomen in der Psychologie genannt (siehe Artikel rechts).

Es gebe für diese Probleme unzählige Beispiele in den USA, wo Algorithmen in Banken Entscheidungen über Kreditvergaben oder in der Justiz über eine Kaution fällen und dabei Schwarze und andere Minderheiten oft systematisch benachteiligt werden. Dagegen könne man theoretisch vor Gericht ziehen und würde dort wohl auch recht bekommen, so der Experte: Aber "jene Menschen, die am meisten geschädigt werden, haben auch die geringsten Mittel, um zu klagen". Das AMS müsse die Ergebnisse des Algorithmus ganz genau anschauen und kritisch hinterfragen. (Eric Frey aus Dublin, 23.9.2019)