Wie künstliche Intelligenz entscheidet, ist oft nicht nachvollziehbar. Dies zu erklären ist aber notwendig, wenn es um Recht geht.

Künstliche Intelligenz (KI) entscheidet darüber, wer einen Job bekommt, wer kreditwürdig ist oder welche Gefangenen früher entlassen werden. Derart wichtige Entscheidungen sollten aber nur unter strengen Auflagen von Algorithmen getroffen werden, findet Sandra Wachter, Professorin für Datenethik, Technologie und Regulierung an der Universität Oxford. Im Videochat mit dem STANDARD sprach die Juristin über die Risiken und Chancen des Einsatzes von KI in der Justiz.

STANDARD: Künstliche Intelligenzen sind schon lange keine Fiktion mehr. Sie treffen in allen Lebensbereichen Entscheidungen. Wie weit ist ihr Einsatz in der Justiz?

Wachter: In der Strafjustiz wird häufig auf Algorithmen zurückgegriffen. Sie werden etwa eingesetzt, um einzuschätzen, wie gefährlich ein Häftling ist und in welchen Gefängnistrakt er kommt. Sie entscheiden in den USA zum Teil auch über die Strafhöhe und darüber, ob Verurteilte auf Bewährung freikommen.

STANDARD: Unterstützt die KI die Justiz, oder trifft der Algorithmus die Entscheidungen frei?

Wachter: In den meisten Fällen wird sie als Unterstützung eingesetzt. Die Frage ist aber immer, wie viel Autonomie der Mensch dabei noch hat. Menschen neigen dazu, der Technik eher zu vertrauen als ihren eigenen Gefühlen. Wenn es heißt, dass die Entscheidung objektiv von einer KI getroffen wird, dann setzt man sich zumeist nicht darüber hinweg.

STANDARD: Menschen können dadurch ihre Verantwortung abschieben?

Wachter: In der Strafjustiz geht es um lebensverändernde Entscheidungen. Menschen sind geneigt, so etwas von sich wegzuschieben. Da kommt ein Algorithmus, der angeblich objektiv und fair entscheidet, gelegen.

Technologieforscherin Sandra Wachter sagt: "Technologie ist nicht dazu da, um schlechte Urteile schneller zu machen. Sie sollte bessere Entscheidungen treffen."

STANDARD: Dass Algorithmen nicht fair entscheiden, ist der Hauptkritikpunkt. Man spricht davon, dass die KI einen Bias hat – also bestimmte Vorurteile, die in den Daten vorhanden sind, reproduziert. Sind KIs immer diskriminierend?

Wachter: Ich kann mir wenige Fälle vorstellen, in denen das nicht der Fall ist. Ein Algorithmus lebt von den Daten, mit denen er gespeist wird. Es gibt aber kaum einen Lebensbereich, der komplett frei von Diskriminierung ist. Und wenn Entscheidungen in der Lebensrealität nicht fair getroffen werden, dann kann der Algorithmus gar nichts anders, als von unfairen Entscheidungen zu lernen.

STANDARD: Kann man die KI nicht so programmieren, dass sie Diskriminierung selbst erkennt?

Wachter: Dafür setze ich mich im Moment stark ein. Wir sollten die Beweislast umkehren und grundsätzlich davon ausgehen, dass die KI diskriminierend ist – außer sie beweist das Gegenteil. Meine Forschungsgruppe hat einen Test entwickelt, der wie eine Alarmanlage losgeht, wenn ein Algorithmus zum Beispiel nur Männer zur Vorstellungsrunde einlädt oder nur schwarze Menschen ins Gefängnis schickt. Geht diese Alarmanlage los, können Menschen einschreiten und entscheiden, ob die Auswahl gerechtfertigt ist. Unser Test ist Open Source, jeder kann ihn verwenden. Amazon tut das bereits.

STANDARD: Ein häufiges Argument lautet, dass auch Menschen nicht neutral entscheiden. Sie haben eine eigene Geschichte und eigene Erfahrungen, die sich auf ihre Urteile auswirken.

Wachter: Das ist kein Argument für KI, denn eine rassistische KI ist umso gefährlicher. Sie trifft mehr Entscheidungen in kurzer Zeit, und es ist schwieriger zu erkennen, ob sie diskriminierend ist. Ein Beispiel: Bei einem normalen Jobgespräch weiß ich, warum ich abgelehnt werde. Setzt das Unternehmen schon zu Beginn des Auswahlverfahrens auf einen Algorithmus, sehe ich dagegen die Jobannonce gar nicht, wenn ich nicht dem Profil entspreche. Das heißt, ich weiß gar nicht, ob ich diskriminiert wurde. Das Antidiskriminierungsrecht ist aber davon abhängig, dass sich jemand beschwert. Technologie ist nicht dazu da, um schlechte Entscheidungen schneller zu machen. Technologie ist dazu da, um bessere Entscheidungen zu treffen.

STANDARD: Viele Menschen sind wohl zu Recht misstrauisch. Liegt das auch daran, dass sie ein menschliches Gegenüber haben wollen, das sie verantwortlich machen können?

Wachter: Manche argumentieren, dass wichtige Entscheidungen, die von einem Roboter getroffen werden, immer der Menschenwürde widersprechen – egal, ob sie besser oder schlechter sind als menschliche Urteile. Aber im Gegensatz zum Kopf eines Richters kann man in den Algorithmus zumindest hineinschauen. Auch wenn viele das Gefühl haben, dass KIs Blackboxes sind.

STANDARD: Ist das nicht der Fall?

Wachter: Das Misstrauen gegenüber künstlicher Intelligenz hat auch etwas mit der Namensgebung zu tun. Da wird schon vorausgesetzt, dass das Ding "gescheit" ist. Menschen haben oft das Gefühl, nicht auf Augenhöhe zu sein, und fühlen sich ohnmächtig. Künstliche Intelligenz ist aber keineswegs intelligent. Man sollte eher künstliche Dummheit dazu sagen und sich bewusstmachen, wofür sie geeignet ist und wofür nicht.

Menschen sollten die Möglichkeit haben, sich über automatisierte Entscheidungen zu beschweren, fordert Wachter.
Foto: Midjourney

STANDARD: Die EU arbeitet an einem Rechtsrahmen für KI. Die Justiz wird in einem ersten Entwurf als "Hochrisikobereich" eingestuft. Es soll Transparenz und eine strenge Qualitätssicherung geben. Ist das der richtige Weg?

Wachter: Definitiv. Die Strafjustiz bereitet mir großes Kopfzerbrechen. Die Daten, die dort zum Einsatz kommen, sind besonders anfällig für Diskriminierung. Was mir in der Verordnung fehlt, sind Rechte der Betroffenen, so wie das im Datenschutz der Fall ist. Menschen sollten die Möglichkeit haben, sich über automatisierte Entscheidungen beschweren zu können. Im Zweifel sollten sie das Recht haben, dass ein Mensch beigezogen wird.

STANDARD: Die Anwaltschaft wäre laut dem Entwurf an deutlich geringere Anforderungen gebunden. Die Justiz fürchtet, dass das zu einer Waffenungleichheit führt.

Wachter: Das kann definitiv ein Problem sein. Es gibt in der Privatwirtschaft Bereiche, die so nah mit dem öffentlichen Sektor verbunden sind, dass man auch für sie die Regeln verschärfen sollte. Das gilt auch für Mediziner.

STANDARD: Programme werden in Österreich zum Teil eigens für bestimmte Ermittlungsverfahren entwickelt. Justizvertreter fürchten, dass die geplante Verordnung ihre Möglichkeiten einschränkt, weil die Qualitätssicherung Zeit kostet.

Wachter: Freiheitsentzug ist einer der größten Grundrechtseingriffe, die es geben kann. Wenn die Qualitätssicherung zu aufwendig ist, sollte man das Programm vielleicht gar nicht nutzen. Das sind Dinge, die man sowieso machen sollte. (Interview: Jakob Pflügl, 4.2.2023)