Bild nicht mehr verfügbar.

Experten sehen das Vorgehen kritisch.

Foto: reuters/roberts

In den Vereinigten Staaten nutzen Gerichte immer häufiger Künstliche Intelligenz (KI), um zu ermitteln wie hoch die Wahrscheinlichkeit für einen Rückfall ist. Dann wird entschieden, wie hoch die Strafe sein soll. Das berichtet "WinFuture".

Ein Grund dafür sei, dass in den USA vergleichsweise sehr viele Personen inhaftiert sind – 2016 waren es 6,7 Millionen. Daher versuche man, abzuwägen, wie wahrscheinlich ein Rückfall möglich ist. Auf diese Weise wollen Gerichte so viele Straftätige wie möglich ausfindig machen, die resozialisiert werden können.

KI wiederholt Fehler

Das Problem dabei sei laut Kritikern jedoch, dass die KI die Fehler, die bereits in der Vergangenheit bei Urteilen gemacht wurden, wiederholt. Letzten Endes werden die Algorithmen mit Trainingsdaten aus vergangenen Entscheidungen gefüttert. Dadurch setze man auf statistische Korrelationen anstatt auf tatsächliche, kausale Zusammenhänge. Entsprechend erkennt die KI Faktoren, die in der tatsächlichen Realität keinen Einfluss haben könnten, als Grund für eine längere Haftstrafe. Somit ist zu erwarten, dass etwa Minderheiten und Arme schlechtere Werte zugewiesen bekommen.

Black Box

Dazu kommt, dass eine künstliche Intelligenz somit über das weitere Leben eines Menschen maßgeblich entscheidet. Zudem ist eine große Herausforderung für KI das sogenannte "Black Box"-Phänomen. Bei den System ist war der Input und der Output für Anwender nachvollziehbar, nicht aber der genaue Ablauf. Somit kann nicht geprüft werden, wieso ein solches System zu dem jeweiligen Ergebnis kommt. (red, 16.2.2019)