Würde man auch einen Algorithmus mit "Euer Ehren" ansprechen? Eine Frage, die man sich so wohl nicht nur im titelverliebten und oft scheinhöflichen Österreich stellen müssen wird – und die letzten Endes das kleinste zu lösende Problem ist, das die langsam fortschreitende Digitalisierung in der heimischen Justiz mit sich bringt. Immer wieder liest man im Netz von künstlichen Intelligenzen (KI), die eines Tages Richterinnen und Richter ablösen könnten – wahlweise als utopische oder dystopische Vorstellung.

Vereinzelt wagen digitale Vorreiterländer wie Estland oder experimentierfreudige Staaten wie die USA erste Tests in diese Richtung. Vermeintliche Falschparker können so etwa ihre Strafzettel reklamieren und mitunter auch von der KI "freigesprochen" werden. Von einer KI, die in einem Mordprozess urteilt, sind wir jedoch noch meilenweit entfernt. Und so richtig glaubt auch niemand daran, dass dies überhaupt jemals eintreten wird. Es scheint auch kaum jemand zu wollen – zumindest vorerst.

Anonymisieren

Was sehr wohl geschehen soll: Die Möglichkeiten des Maschinenlernens und immer schlauerer Algorithmen sollen genützt werden, um die Justiz zu unterstützen und zu entlasten. Ein relativ simpler, aber spannender Aspekt ist etwa die Veröffentlichung relevanter Gerichtsentscheidungen. Bisher unterliegen in Österreich nur Entscheidungen des Obersten Gerichtshofs einer Veröffentlichungspflicht, andere waren nur sporadisch einsehbar. Künftig soll eine Anonymisierungssoftware es ermöglichen, "interessante Entscheidungen anderer In¬stanzen allen zugänglich zu machen", sagt Sabine Matejka, Präsidentin der Vereinigung österreichischer Richterinnen und Richter (RIV), zum STANDARD. Eine Forderung, die auch von Anwälten seit Jahren kommt und bislang einfach am Personalmangel und an der fehlenden Infrastruktur scheiterte, so Matejka.

Justitia aus Einsen und Nullen – wollen wir das?
Foto: istock

Weitere Einsatzmöglichkeiten böten sich mittelfristig in der Rechtsrecherche, in der korrekten Zuteilung von Fällen, in der Analyse von Ermittlungs- und Videodaten sowie zur Suizidprävention in Justizanstalten, erklärt die Juristin Elisabeth Paar, die an der Uni Wien ihre Dissertation zum Thema verfassungsrechtlicher Grenzen der KI in Gerichtsverfahren verfasst. Primär gehe es aber immer noch mehr um die Vor- und Nachbereitung richterlicher Entscheidungen als um die Entscheidungen selbst, so Paar.

Bleibt der Mensch?

Interessant ist hierbei, dass Österreichs Verfassung den Terminus "Mensch" für den Richter nicht explizit verwendet, wie Paar betont. Ist künftig also zumindest theoretisch der Weg frei für die KI als Richter? So einfach ist es freilich nicht: Vor dem Hintergrund, wie die Verfassung entstanden sei, könne man davon ausgehen, dass sehr wohl Menschen gemeint gewesen seien. Zudem glaubt Paar, dass Menschen allein schon deshalb in Zukunft die Urteile fällen werden, weil die KI noch lange nicht alle Anforderungen erfüllt, die die Verfassung an Richter – egal ob Mensch oder nicht – stellt.

Prinzipiell komme in Verhandlungen auch regelmäßig Neues und gänzlich Unerwartetes zutage, betont auch die Richter-Präsidentin den Vorteil der menschlichen Entscheidungsgewalt. Richterinnen und Richter könnten auf Zwischentöne eingehen, die Mimik beurteilen und ihre Erfahrung geltend machen.

Überschätzen wir uns?

Aber sind Menschen wirklich besser als eine KI, wenn es darum geht, Urteile zu fällen? Eine KI könnte theoretisch die gesammelte Schwarmintelligenz der Richterschaft sowie sämtliche Urteilsbegründungen und juristischen Texte einfließen lassen –und damit auf weit mehr Erfahrung als jeder Mensch zurückgreifen. Ist sie am Ende gar transparenter?

Auch wir Menschen können schließlich nicht in die Köpfe anderer blicken. "Wir müssen letztlich auch bei menschlichen Richtern vertrauen, dass das, was sie in ihrer Urteilsbegründung angeben, tatsächlich der Grund war, warum sie so entschieden haben", sagt auch Paar. Richter seien diesbezüglich auch "in gewisser Form Blackboxes, wie es von der KI immer wieder behauptet wird".

Etliche ethische Fragen

Das wirft unweigerlich zahlreiche ethische und rechtspolitische Fragen auf, vor die uns der technische Fortschritt noch stellen wird. Was, wenn wir eines Tages Systeme haben, die "die Wahrheit" tatsächlich besser aus Menschen herauskitzeln, als wir das je selbst tun könnten? Wem vertrauen wir in diesen Fällen mehr? Ein Augenzucken beim Lügen hier, ein kleines Erröten bei Nervosität da – das alles könnte eine Zeugenaussage bekräftigen oder einen Angeklagten entlasten.

Oder doch lieber die "Echte"?
Foto: istock

Wollen wir dann überhaupt noch menschliche Urteile? Können wir als Gesellschaft damit leben, dass Mitbürgerinnen und Freunde von einer KI fälschlicherweise schuldig gesprochen werden, auch wenn Entscheidungen insgesamt etwas "fairer" werden würden? Wer weiß, wie skeptisch Menschen schon auf autonom fahrende Autos reagieren, der ahnt wohl, wie heftig solche Debatten in Bezug auf eine KI in der Justiz geführt werden dürften.

Ein zentrales technisches Problem sei laut Paar, "dass die KI nur Korrelationen erkennt und keine Kausalitäten". Das hat konkrete Auswirkungen: So ging etwa eine KI in Experimenten von Menschenrechtsverletzungen aus, wenn der Fall einen Bezug zu Russland hatte, weil der Algorithmus aufgrund bisheriger Entscheidungen des Europäischen Gerichtshofs für Menschenrechte fälschlicherweise annahm, das geklagte Land wäre ausschlaggebend für das Urteil. Da braucht es reichlich menschliche Korrekturen, wie sie in internationalen Tests auch immer wieder vorgenommen werden, damit Algorithmen möglichst vorurteilsfrei zu ihren Entscheidungen kommen.

Einfachere Updates?

Inwieweit einfache Fälle, wo es nicht zwingend eine Beweiswürdigung braucht, künftig von KIs erstin¬stanzlich entschieden werden könnten, ist unter Juristen umstritten. Während Matejka sich künftig lediglich eine systematische Prüfung "einfacher" Fälle, wo es nur um die Korrektheit von Formalitäten geht, vorstellen könnte, ist Paar ob technischer Hürden sehr skeptisch. Richterin Matejka sieht jene Fälle, wo etwa in den USA die KI zur Berechnung von Rückfallquoten oder in Fragen der vorzeitigen Entlassung von Häftlingen eingesetzt wird, als "sehr fragwürdig" – eben weil eine KI auch nur so gut sein kann wie die Summe der Daten, mit der man sie füttert.

Und das bedeute viel zu oft immer noch, dass etwa rassistische Schlussfolgerungen gezogen werden, nur weil eine Person in einem bestimmten Viertel wohnhaft ist oder eine gewisse Hautfarbe habe. Aber ist es vielleicht sogar einfacher, eine KI mit der neuesten "Version des gesellschaftlichen Fortschritts" upzudaten, als einem erfahrenen Richter oder einer langgedienten Richterin einen latenten Rassismus, eine parteipolitische Nähe oder eine Ablehnung bestimmter Gesellschaftsbilder abzugewöhnen? Wer entscheidet, was gesellschaftlicher Konsens ist?

Künftig werden KI und Mensch wohl auch in der heimischen Justiz vermehrt miteinander in Kontakt kommen. Der rechtliche Rahmen dafür wird schon jetzt von Richterinnen, Staatsanwälten und Rechtswissenschaftern untersucht. Ob und wie schnell es den Technikern im Verbund mit Juristen gelingt, eine KI richterlichen Ausmaßes zu erschaffen, ist die eine Frage – ob wir als Bevölkerung je vor einem KI-Richter stehen werden, die andere. Sehr wohl aber könnte KI schon bald zum fleißigen Helfer der Justiz avancieren. Vielleicht bekommt sie in Österreich dann dafür auch einen netten Titel verliehen. (Fabian Sommavilla, 23.3.2021)