Predictive Policing berechnet die Wahrscheinlichkeit zukünftiger Straftaten.

Illustration: Michael Murschetz

Carla Hustedt: Wenn ein Algorithmus irrt, trägt ein Mensch die Verantwortung.

Foto: privat

Bislang gehörte es ins menschliche Hoheitsgebiet, zu entscheiden. Wird jemand zum Vorstellungsgespräch eingeladen? Eine Entscheidung der Personalabteilung. Kommt jemand aus dem Gefängnis frei? Das Urteil eines Richters. Welche Therapie wird gegen eine Krankheit eingesetzt? Die Diagnose eines Arztes. Fachwissen soll die Qualität der Entscheidungen sicherstellen. Doch Menschen werden von viel mehr geleitet als objektive Rationalität. Der aktuelle Gemütszustand, persönliche Erfahrungen, Vorurteile, ja sogar das Wetter beeinflussen unser Handeln – meistens ohne es zu merken. Menschliche Entscheidungen sind deshalb nicht immer fair. Die Wissenschaft versteht die Grenzen der Kognition immer besser. Eines unserer größten Hemmnisse: Komplexität überfordert uns. Irren ist menschlich. Das zu erkennen aber auch.

Deshalb arbeitet der Mensch seit jeher daran, seine Schwächen mit technischer Hilfe auszugleichen. Der Rechenschieber ist ein Beispiel, die Dampfmaschine ein anderes. Das Datenzeitalter eröffnet nun neue Wege, die Qualität von Analysen, Urteilen und Diagnosen zu verbessern. Algorithmen erkennen verborgene Muster und können uns zu faireren Entscheidungen verhelfen. Es ist Aufgabe des Staates, diese Chancen zu nutzen und die nötigen Voraussetzungen zu schaffen, um Technologie in den Dienst der Gesellschaft zu stellen. Jetzt ist die Zeit, zu entscheiden, wie und wo Algorithmen eingesetzt werden sollen. Denn was wie Science-Fiction klingt, ist bereits Realität.

Predictive Policing

Beispiel Medizin: Algorithmen können Ärzte unterstützen, Krankheiten frühzeitig zu erkennen, besser zu behandeln und den Einzelnen passgenau zu therapieren. Das kann Leben verlängern und Leiden lindern. Doch zugleich drohen die individualisierten algorithmischen Analysen, die Grundprinzipien unseres Solidarsystems auszuhebeln: Schon heute werben Krankenkassen mit guten Tarifen für Sportliche. Was an Beiträgen gespart wird, wird mit Daten bezahlt. Aus einem solchen Bonussystem für Einzelne kann leicht ein Malussystem für alle anderen werden.

Beispiel Sicherheit: In Deutschland wird in sechs Bundesländern Predictive Policing angewendet. Auch in Wien schickt man mittels algorithmischer Datenanalysen die Polizei dorthin, wo Straftaten zu erwarten sind. Ziel ist es, den Verbrechern einen Schritt voraus zu sein. Je nachdem, wie ein System gestaltet und genutzt wird, besteht jedoch die Gefahr, dass der Algorithmus bestehende diskriminierende Muster reproduziert und Streifenwagen häufiger in sozial benachteiligte Stadtteile schickt als in bürgerliche Villenviertel. Dann gilt: Wer sucht, der findet – und kommt deshalb immer wieder.

Algorithmen und Politik

Beispiel Arbeitsmarkt: In Österreich werden Algorithmen bald auch für die Arbeitsvermittlung eingesetzt. Das AMS-Entscheidungssystem unterteilt Arbeitslose in drei Gruppen und soll bei der Verteilung der knappen Mittel zur Unterstützung von Menschen ohne Arbeit helfen. Hinter der Technologie verbirgt sich ein politisches Ziel: Nicht diejenigen, die Unterstützung am dringendsten benötigen, sollen besonders gefördert werden, sondern diejenigen, die am leichtesten vermittelbar sind. Das ist keine algorithmische, sondern eine politische Entscheidung, über die nun zu Recht intensiv diskutiert wird.

Diese Beispiele zeigen: Wie jede Technologie sind auch Algorithmen nicht per se gut oder schlecht. Es kommt darauf an, welche Annahmen und Ziele den Systemen zugrunde liegen und wie sie genutzt werden. Wir müssen künstliche Intelligenz als codierten Spiegel menschlicher Fehler begreifen. Wenn ein Algorithmus irrt, trägt ein Mensch die Verantwortung.

Bei Systemen, die das Leben von Menschen maßgeblich beeinflussen, muss der Staat gewährleisten, dass sie im Sinne des Gemeinwohls genutzt werden. Dazu brauchen wir erstens eine kritische gesellschaftliche Debatte über den Einsatz und die Grenzen algorithmischer Systeme. Politische Entscheider dürfen sich nicht hinter Technologie verstecken und ihre Verantwortung verschleiern.

Keine Monokulturen

Zweitens bedarf es verlässlicher Kontrollen für Algorithmen. Betroffene müssen informiert werden, wenn Maschinen über sie urteilen, und unbürokratisch nachvollziehen können, wie Entscheidungen zustande kommen. Kontrolle heißt auch, dass diskriminierende Entscheidungssysteme verboten werden können. Der politische Ort dafür ist die EU. Die Datenschutz-Grundverordnung hat – bei aller Diskussion im Detail – gezeigt, dass eine kraftvolle Regulierung aus Brüssel möglich ist.

Drittens sind Monokulturen algorithmischer Systeme zu verhindern. Wenn jede Personalabteilung das gleiche System einsetzt, werden im Zweifel immer die gleichen Menschen diskriminiert. Wir brauchen eine Algorithmenvielfalt – und das setzt auch voraus, dass nicht nur junge weiße Männer Technologie gestalten.

Viertens sollte die Kompetenz im Umgang mit Algorithmen auf allen Ebenen gesteigert werden. Betroffene Bürger brauchen ein Gespür dafür, wann und wie Algorithmen für sie relevant sind und wie sie Entscheidungen anfechten können. Die Gestalter der Systeme sollten wiederum ethische Kompetenzen entwickeln und für soziale Konsequenzen ihrer Arbeit sensibilisiert werden. Zu guter Letzt ist mehr Kompetenz im öffentlichen Sektor gefragt. Nur dann kann der Staat seiner Regulierungsverantwortung gerecht werden, selbst aktiv Algorithmen einsetzen und so am Puls der Zeit bleiben.

Neue Freiräume

Algorithmen können helfen, das Leben gerechter, länger und würdiger zu machen. Wenn wir die Technologie richtig einsetzen, ist sie ein Gewinn. Es geht nicht um Mensch gegen Maschine, sondern um Mensch mit Maschine. Algorithmen können unsere Unzulänglichkeiten ausgleichen, neue Freiräume schaffen, um uns auf unsere Stärken zu konzentrieren, und uns so zu mehr Menschlichkeit verhelfen. Eine der größten menschlichen Stärken ist die Fähigkeit, Ziele zu definieren und Visionen zu entwickeln. Das können und dürfen uns Algorithmen auch zukünftig nicht abnehmen. (Carla Hustedt, 3.11.2018)