Im Hintergrund spielt künstliche Intelligenz in der Justiz schon jetzt eine wichtige Rolle. Künftig wird es dafür strengere Auflagen geben.

Foto: imago images/Sylvio Dittrich

Wenn sich Ermittlerinnen und Ermittler dieser Tage durch raue Mengen an Chatnachrichten wühlen, sind sie dabei nicht allein. Um die sprichwörtliche Nadel im Heuhaufen zu finden, greift die Wirtschafts- und Korruptionsstaatsanwaltschaft (WKStA) mittlerweile auf künstliche Intelligenz (KI) zurück: Spezielle Software hilft der Behörde mit Text- und Bildanalysen dabei, in schier unüberblickbaren Datenmengen relevante Inhalte zu entdecken.

Von Expertinnen und Experten wird ein derartiger Einsatz von Machine-Learning oder Deep Learning meist mit Superlativen beschrieben: Die Technologie biete enormes Potenzial – das ist die eine Seite. Gleichzeitig seien damit aber schwer abschätzbare Risiken verbunden: Künstliche Intelligenz, so die Befürchtung, könnte dazu tendieren, gewohnte Muster und Vorurteile festzuschreiben.

Um den Einsatz von KI in geordnete Bahnen zu lenken, arbeitet die EU-Kommission seit mehr als einem Jahr an einer neuen Verordnung. Im Herbst gehen die Verhandlungen darüber in die heiße Phase – und sie betreffen nicht zuletzt auch die Justiz. Sollen Ermittler und Richterinnen bei ihrer Tätigkeit künftig verstärkt von künstlicher Intelligenz unterstützt werden? Und an welche Vorgaben müssen sie sich dabei halten? Letztlich geht es dabei um Waffengleichheit: Soll die Justiz genauso viel dürfen wie die Anwaltschaft?

KI in der Justiz "hochriskant"

Die EU-Kommission versucht in ihrem Verordnungsentwurf, einen Mittelweg zu finden: Der Einsatz von KI ist der Justiz demnach erlaubt, er wird aber als "hochriskant" eingestuft und ist somit mit hohen Auflagen verbunden. Grund ist laut den Erläuterungen zum Entwurf, dass KI-Systeme "erhebliche Auswirkungen auf die Demokratie, die Rechtsstaatlichkeit (...) sowie das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht" haben können.

Konkret erfordert die Einstufung der KI als "hochriskant", dass stets eine "menschliche Aufsicht" gegeben ist. Die Systeme müssen demnach laufend überwacht und mit einer "Stopptaste" unterbrochen werden können. Justizbehörden sind zudem dazu verpflichtet, umfassende Risikomanagementsysteme einrichten, die die KI über deren gesamten Lebenszyklus hinweg kontrollieren. Nicht zuletzt müssen die Daten, mit denen die KI gefüttert wird, hohen Qualitätskriterien entsprechen.

"Menschliche Justiz"

All diese Vorgaben würden die Art und Weise, wie die Justiz schon jetzt arbeitet, zumindest erschweren. Der Grund: Viele Programme, die die Ermittlerinnen und Ermittler verwenden, werden von Fall zu Fall adaptiert. Müsste jedes dieser Tools einer langwierigen Prüfung unterzogen werden, ginge viel Flexibilität und Tempo verloren. Ganz abgesehen davon könnte es in den Verhandlungen zur Verordnung zu weiteren Einschränkungen für die Justiz kommen.

So vermisst etwa der Österreichische Rechtsanwaltskammertag (Örak) ein "klares Bekenntnis" zu einem "Recht auf einen menschlichen Richter". Jegliche Entscheidungsfindung müsse letztlich "vom Menschen vorgenommen" und "einzig dem Menschen" zugerechnet werden, heißt es in einer Stellungnahme zum EU-Entwurf. In der Praxis bedeute das, dass ein ledigliches "Abzeichnen" von Entscheidungen durch Richterinnen und Richter organisatorisch verhindert werden müsse. "Es geht uns dabei rein um die Gerichtsentscheidungen. Analysetools, die dabei helfen, diese Entscheidungen vorzubereiten, sollen unter den geplanten Auflagen erlaubt bleiben, sagt Britta Kynast, Vertreterin des Örak in Brüssel. "Wir werden uns auch weiterhin dafür einsetzen, dass der Justiz genug Ressourcen zur Verfügung stehen."

Waffengleichheit im System

Anwältinnen und Anwälte setzen zum Teil schon jetzt auf künstliche Intelligenz, was Prozesse beschleunigt. Durch die Verordnung wären sie im Vergleich zur Justiz aber weniger stark eingeschränkt, was zu Waffenungleichheit führen könnte.

Problematisch ist das etwa im Fall von digitalen Beweisen. Bei der Beurteilung, ob Videos echt sind, werden Deepfake-Analysen immer wichtiger. Anwältinnen können mit KI relativ unkompliziert prüfen, ob Daten echt sind. Die Justiz wäre im Gegensatz zur aktuellen Rechtslage dagegen künftig an strengere Vorgaben gebunden.

Deutlich wird die Problematik auch an einem anderen Beispiel: In Ländern, in denen sämtliche Urteile veröffentlicht werden, können KI-Systeme ermitteln, wie Klagen formuliert sein müssen, um vor Gericht die besten Chancen zu haben. Das könnte – sollte die Justiz an strengere Auflagen gebunden sein – ebenfalls zu einem Ungleichgewicht führen.

Auf EU-Ebene laufen derzeit die Verhandlungen. Ob die Verordnung wie anvisiert 2024 in Kraft treten kann, ist offen. Bis dahin dürfen die Ermittlerinnen und Ermittler jedenfalls weiter auf KI-Unterstützung zählen. Die Technologie werde mit "größter Sensibilität" eingesetzt, betont das Justizministerium. (Jakob Pflügl, 9.11.2022)