Im Gastkommentar fordert Maximilian Kasy, außerordentlicher Professor am Department of Economics an der Oxford University, politische Antworten in der Algorithmen-Debatte. Lesen Sie auch den Gastkommentar, in dem Computerwissenschafter eine Digitalisierung fordern, die Menschen Teilhabe und Mitbestimmung ermöglicht.

Das türkis-grüne Regierungsübereinkommen hat einen eigenen Abschnitt zum Thema künstliche Intelligenz. Darin wird die Entwicklung einer Strategie gefordert, die den Wirtschaftsstandort Österreich stärken soll, sich aber auch zum Schutz der Menschenwürde bekennt. Dies mag eine gute Zusammenfassung des Übereinkommens insgesamt sein; in jedem Fall aber wäre eine weitergehende öffentliche Diskussion über die staatliche Regulierung von Algorithmen und KI-Systemen dringend nötig. Welche Ziele sollte solch eine Regulierung verfolgen?

Immer mehr Entscheidungen werden automatisch von Algorithmen anhand individueller Daten getroffen. Wer bekommt einen Kredit oder einen Job? Wer wird (in den USA) in Untersuchungshaft gehalten? Algorithmen treffen diese Entscheidung anhand der prognostizierten Rückzahlungswahrscheinlichkeit, der Job-Performance oder der Wahrscheinlichkeit, ein Verbrechen zu begehen.

Algorithmen mögen mit Gemälden wie dem der Comtesse de Belamy verblüffen. Doch ihr Einsatz geht weit über den Bereich der schönen Künste hinaus.
Foto: REUTERS/Christian Hartmann

Frage von Datenschutz und Fairness

Die Verwendung solcher Algorithmen kann weitreichende Folgen für die Betroffenen haben. Das führt zu Recht zu der Forderung, dass der Staat solche Systeme regulieren sollte. Aber was sollte das Ziel solch einer Regulierung sein? In der wissenschaftlichen Diskussion dazu haben ein paar Themen besondere Beachtung gefunden: Datenschutz und Privatsphäre, Fairness und Diskriminierung sowie Transparenz von Entscheidungen. Die Perspektive dabei ist meist, dass Algorithmen weiter ihre Ziele verfolgen sollen, aber unter Einschränkungen.

Eine erste Anforderung ist der Datenschutz, unter anderem im Zusammenhang mit medizinischen Daten. Die Forschung hat diesbezüglich einige Fortschritte erzielt. Früher wurde oft versucht, Daten zu anonymisieren, etwa durch Löschung von Namen oder Adressen. Das Problem an diesem Zugang: Mit zusätzlichen Daten lässt sich oft recht leicht die Identität von Einträgen in einem Datensatz rekonstruieren.

Der modernere Zugang zu diesem Problem beruht auf der Idee der "differential privacy". Ein Datensatz (oder Algorithmus) ist "differentially private", wenn es praktisch keinen Unterschied macht, ob jemand in dem Datensatz enthalten ist oder nicht, egal welche Zusatzinformation sonst noch verfügbar ist. Das kann durch gezielte Verwendung des Zufalls erreicht werden. In der Durchführung von sensiblen Umfragen, etwa "Nehmen Sie illegale Drogen?", wird die folgende Variante schon länger angewandt. Die Befragte wirft heimlich eine Münze. Wenn die Seite mit der Zahl nach oben zu liegen kommt, soll die Befragte die Wahrheit sagen. Wenn nicht, soll sie noch einmal werfen, und wenn dann eine Zahl kommt, die Wahrheit sagen; ansonsten soll sie lügen. Aus solchen Daten lässt sich genau rekonstruieren, wie viele Leute Drogen nehmen, aber nicht wer Drogen nimmt.

Legitimierte Ungleichheit

Eine zweite Anforderung an algorithmische Entscheidungssysteme ist es, "fair" zu sein und Diskriminierung zu vermeiden. Verschiedene Fairnessdefinitionen wurden vorgeschlagen. Die meisten davon hängen von zwei Zutaten ab: erstens einer Definition von Gruppen, die wir vor Diskriminierung schützen wollen, etwa nach Geschlecht oder nach Herkunft. Zweitens einer Variablen, die Ungleichbehandlung rechtfertigt, etwa ob jemand einen Kredit zurückzahlen würde oder wie erfolgreich jemand im Job sein würde. Eine mögliche Definition von Fairness, im Beispiel der Kreditvergabe, wäre, dass die Wahrscheinlichkeit, einen Kredit zurückzuzahlen, unter Frauen, die einen bekommen haben, dieselbe sein sollte wie unter Männern. Eine andere mögliche Definition wäre, dass die Wahrscheinlichkeit, einen Kredit zu bekommen, unter Frauen, die ihn zurückzahlen würden, dieselbe sein sollte wie unter Männern.

Zahlreiche weitere ähnliche Definitionen wären möglich. Ein Problem dabei ist, dass diese Fairnesskriterien nicht gleichzeitig erfüllt werden können. Wir müssen uns entscheiden, welche Form von Fairness uns wichtig ist. Ein weiteres Problem ist, dass solche Definitionen von Fairness viele Ungleichheiten legitimieren; wir kommen noch darauf zurück.

Die Frage der Transparenz

Eine dritte Anforderung ist die Transparenz von Entscheidungen. Welche Algorithmen transparent sind, liegt wiederum im Auge der Betrachterin. Für jemanden mit statistischer Ausbildung mögen neuronale Netze intransparent sein, während lineare Modelle recht transparent erscheinen; für viele andere werden lineare Modelle ebenso intransparent sein.

Ein Grund, warum Transparenz wichtig erscheint, ist, dass Betroffene die Frage stellen können sollen, warum eine Entscheidung über sie getroffen wurde, zum Beispiel bezüglich eines Jobs oder einer Kreditvergabe. Für diese Frage sind zwei Dinge zu beantworten. Erstens: Aufgrund welcher Daten über eine Person wurde die Entscheidung getroffen? Und zweitens: Was wäre eine minimale Veränderung dieser Daten, sodass eine andere Entscheidung getroffen worden wäre?

Diskussionen über diese Kriterien und darüber, wie sie implementiert werden können, sind gut und wichtig. Und doch scheinen sie auch etwas kurz zu greifen. "Differential privacy" sagt nichts darüber, wem die Datencenter gehören. Fairness sagt nichts über Ungleichheit im Allgemeinen. Transparenz sagt nichts über die Wahl der Kriterien, nach denen Entscheidungen getroffen werden.

Eine Machtfrage

Wir sollten uns die Frage stellen, wer von der Einführung neuer Technologien profitiert und wer verliert. Was ist die Auswirkung auf soziale Ungleichheit? Woher kommt die Ungleichheit an Kreditwürdigkeit oder erwarteter Job-Performance, die von Fairnessdefinitionen fortgeschrieben wird? Was ist mit Ungleichheit innerhalb der vordefinierten Gruppen wie Geschlecht und Herkunft?

Und wir sollten auch die Machtfrage stellen. Wer entscheidet, wofür neue Technologien eingesetzt werden? Warum wird so viel intellektuelle Energie darauf verwendet, die Zahl der Klicks auf Onlinewerbungen zu maximieren? Ist das wirklich die sozial nützlichste Verwendung künstlicher Intelligenz? Wer bestimmt, was Algorithmen maximieren sollen?

Die öffentliche Diskussion über Wertvorstellungen, die in der Regulierung von algorithmischen Entscheidungssystemen zum Tragen kommen sollen, steht erst am Anfang. Diese Diskussion muss dringend geführt werden. Neue Technologien, und insbesondere algorithmische Entscheidungssysteme, verbreiten sich rasant, und politische Antworten müssen gefunden werden, bevor sie größeren Schaden anrichten.

Aber diese Situation ist auch eine große Gelegenheit. Viele derselben Probleme betreffen auch menschliche Entscheidungen. Weil Menschen ihre Entscheidungsprozesse nicht explizit beschreiben müssen, ist es schwieriger, diese zu kritisieren. Weil Algorithmen ihre Entscheidungsprozesse explizit machen müssen, können wir diese Entscheidungsprozesse besser hinterfragen und unsere Wertvorstellungen politisch klären. (Maximilian Kasy, 6.2.2020)