Bei Künstlicher Intelligenz handelt es sich weniger um menschliche Intelligenz – also etwa die Fähigkeit abstrakt, vernünftig und kreativ zu denken und daraus zweckvolles Handeln abzuleiten – als vielmehr um "Prediction Machines" – also Vorhersagemaschinen – jedenfalls im Kontext von Entscheidungen. Das wahrscheinlichste Szenario wird zur Vorhersage und die Vorhersage zur Entscheidungsgrundlage. Doch wie wird das wahrscheinlichste Szenario errechnet, wer kann sich dieser Entscheidungsgrundlage bedienen und wessen Interessen werden damit abgebildet, welche Ziele verfolgt? Werden wir alle unseren individuellen Algorithmus haben, der mit unseren Präferenzen gefüttert wird, sodass das für uns beste Produkt, der für uns passendste Job, das für unsere Arbeit angemessenste Gehalt gefunden wird? Oder werden große Konzerne unsere Daten für banale Gewinnmaximierung und Staaten, unter dem Deckmantel der Sicherheit oder Verwaltungsoptimierung, zur Kontrolle ihrer Bürger einsetzen? Wer kann sich der Daten bedienen und welche Auswirkungen haben automatisierte Entscheidungen?

Ein Algorithmus ist eine Folge mathematischer Anweisungen und damit immer auch eine mathematische Abbildung persönlicher Weltanschauung, denn welche Daten wie gewichtet werden, um ein Problem zu lösen, sind keine objektiv zu beantwortenden Fragen. Sinn und Zweck eines Algorithmus sind der Umgang und die Strukturierung von Daten zur Lösungsfindung, zum Beispiel "Wenn-Dann"- bzw. "Wahr-Falsch"-Gleichungen. Im Fall von "Machine Learning" entwickelt das System weniger auf Basis vorgegebener Regeln als vielmehr auf Basis vorliegender strukturierter und unstrukturierter Daten selbst einen Ansatz zur Lösungsfindung. Dabei ist es im Nachhinein oft nicht mehr nachvollziehbar, wie das autonome System zu einem Ergebnis gekommen ist. Hinzu kommt, dass die Funktionsweise autonomer Systeme häufig hinter Schutzrechten wie dem Betriebsgeheimnis versteckt wird. Auch die historischen Daten, auf Basis derer das System trainiert wurde, können vorurteilsbehaftet oder fehlerhaft sein. Ein Algorithmus für Jobempfehlungen sollte also nicht auf Basis historischer Daten oder genereller Präferenzen davon absehen, etwa einer Frau eine KFZ-Mechanikerinnenstelle anzubieten – nur, weil es zu wenig Evidenz für die Wahrscheinlichkeit dieser Handlungsvariante gibt.

Digitalisierung und Machtkonzentration

Entscheidungsfindung wird zentralisiert – von der Bankbeamtin zur Kreditsoftware, von lokal zu global – und damit auch zunehmend monopolisiert. Immer mehr Macht in immer weniger Händen. Damit stellen sich Machtfragen: Wer kann Lebens-, Wirtschafts- und Arbeitsbedingungen gestalten, was lernen Maschinen und wem nützen welche Algorithmen?

Wer entscheidet in Zukunft – Maschine oder doch noch der Mensch?
Foto: APA/AFP/CHARLY TRIBALLEAU

Darin begründet liegt auch eine weitere Herausforderung. Je größer die Datenmenge, desto größer die Wahrscheinlichkeit, dass das System umfassend lernen kann und eben auch KFZ-Mechanikerinnen kennt. Je größer die Anwendergruppe, desto umfangreicher das Feedback für das System und damit das Verbesserungspotential. Auch in dem Zusammenschluss staatlicher und privater Anwendungen liegt ein demokratiegefährdendes Potential. Dieser Zusammenschluss passiert häufig im Bereich des Militärs und im Namen der Sicherheit. Insbesondere unter dem Aspekt der "Sicherheit" gibt es zunehmende Bestrebungen, auch auf staatlicher Ebene Daten zu sammeln und Methoden der Vorhersage anzuwenden. Nicht selten kommt es dabei auch zu einem Teilen von Informationen zwischen privaten und staatlichen Einrichtungen, auf Basis dessen Entscheidungen getroffen werden, ohne transparente, demokratische und für die Allgemeinheit nachvollziehbarer Prozesse – weswegen auch von einer sich entwickelnden "Black Box Society" die Rede ist. Mit Hinblick auf die nötige Regulierung der Datenauswertungspraktiken ist es jedoch höchst problematisch, wenn jene die reguliert werden sollen und jene die regulieren sollen zu eng, miteinander verflochten sind.

Ein Wettrennen um die KI-Vorherrschaft hat längst begonnen und wird insbesondere zwischen China und den USA aber auch Russland und der EU ausgetragen. Dabei resultiert die Gefahr weniger aus einem Verlieren des Rennens, als vielmehr aus der schnellen Verbreitung halbgarer oder gar potentiell gefährlicher Lösungen. Auch in der Datenerhebung fallen zunehmend alle Grenzen. Die Logik dahinter: Jene KI-Systeme, die auf Basis einer größeren Datenmenge lernen können, haben die Nase weiterhin vorne. Halbgare Lösungen auf Basis fraglicher Datenerhebungen werden schnell skaliert. Dadurch birgt eine sehr vielversprechende Technologie eine Gefahr zum Nachteil für sehr viele Menschen und eine gerechte gesellschaftliche Entwicklung schlechthin zu werden. Je weniger demokratisch die Prozesse, desto schwächer die Rechte Einzelner sowie jene marginalisierter Gruppen und umso gefährlicher die vorstellbaren Szenarien.

Wozu werden KI-Entscheidungen herangezogen?

Der datengestützten Entscheidungsfindung liegt also eine gewisse Zentralisierungstendenz zugrunde. Von Personen im Kundenkontakt zu "Prediction Machines" des Managements. Dies funktioniert analog zu dem Kreditrahmen, der etwa nicht mehr von den Bankbetreuern festgelegt wird, sondern von einer Software. Die Beispiele sind vielfältig: HR-Software von Firmen wie "Recorded Future", teilweise finanziert von Google und der CIA oder Workday, an der Amazons CEO Jeff Bezos beteiligt ist, erheben umfangreiche Daten ihrer Mitarbeiter. Daten rund um den Sprachgebrauch beim Formulieren von E-Mails, den Umgang mit KollegInnen, die Termindichte und Vielfalt genauso wie die persönlichen Netzwerke führen dort direkt zu Vorschlägen von Bonuszahlungen, Beförderungen oder Kündigungen.

Weniger problematische, die Lebensqualität positiv beeinflussende KI-Beispiele werden immer wieder im Gesundheitsbereich angeführt, darunter auch eine besonders vielversprechende Anwendungsmethode – jene der Arbeitsteilung zwischen Mensch und Maschine. So sind die quantifizierbaren Stärken von Mensch und Maschine zum Beispiel in der Krebsdiagnose komplementär. Die menschliche Pathologin ist fehlerfreier, wenn sie Krebs feststellt (weniger "false negatives"), das KI-System, wenn es keinen Krebs feststellt (weniger "false positives"). Was im Fall der Brustkrebsdiagnosen eine Reduktion der menschlichen Fehler um 85 Prozent von 3,4 auf 0,5 Prozent bedeuten kann. Auch die Auslagerung sich wiederholender Entscheidungen an autonome Systeme wirkt vielversprechend, der Mensch greift nur noch im Falle ungewöhnlicher Ausnahmen ein.

Diskriminierung und Ungleichheiten werden automatisiert

Ein Erfolg oder Misserfolg mathematischer Systeme liegt also nicht zuletzt auch an der Definition der Mensch-Maschine-Schnittstellen. Gibt es diese nicht oder kaum, kann sich das System schnell verselbständigen. Mathematikerin Cathy O’Neil schreibt im Falle opaker (undurchsichtiger), unfairer und breit eingesetzter Systeme sogar von "mathematischen Vernichtungswaffen" ("Weapons of Math Destruction"). Wenn Menschen mit einer bestimmten Wohnadresse vom System für strafrückfälliger eingeschätzt werden als andere, oder die Missbrauchswahrscheinlichkeit neugeborener Babys eingeschätzt wird, oder Lehrer aufgrund intransparenter Kriterien zur Kündigung vorgeschlagen werden, oder die falschen sozialen Kontakte einen Kredit verhindern – Chancen werden überall dort mathematisch verhindert. Insbesondere Mitglieder ärmerer Gesellschaftsschichten sind von derlei automatisierten Ungerechtigkeiten betroffen.

Politikwissenschafterin Virginia Eubanks schreibt in ihrem Buch "Automating Inequality" eindrucksvoll wie automatisierte Entscheidungsfindungen systematisch zu Benachteiligung armer Bevölkerungsgruppen führen können. Die Verweigerung öffentlicher Dienstleistungen auf Basis falscher oder mit diskriminierenden Annahmen behafteter Einstufungen des Systems, können dabei weitreichende Konsequenzen haben. Eine intransparente Wahrscheinlichkeitsrechnung mit schlechten Datensätzen, mit dem Ziel der effizienteren Ressourcenzuteilung, kann auf diese Weise Menschen völlig abschneiden, ohne Rücksicht auf erklärende Besonderheiten und häufig ohne Möglichkeit zur Richtigstellung. Mathematische Unzulänglichkeiten, diskriminierende oder schlicht fehlerhafte Datensätze und mangelnde Verantwortung können ohne jede menschliche Interaktion so zu einem Verlust von Chancen oder gar zu lebensbedrohlichen Situationen führen. So können autonome Entscheidungssysteme Ungleichheit nicht nur fort- und festschreiben, sondern sie im wahrsten Sinne des Wortes automatisieren.

Licht ins Dunkel

Transparenz zu der grundlegenden Funktionsweise des technischen Systems, die das eigene Leben betreffen, sollte gewährleistet sein. Welche Daten werden verwendet, woher kommen diese, welches Ziel verfolgt die Anwendung und wie kann gegen falsche Entscheidungen vorgegangen werden? Der Versuchung, diese Anwendungen als "mathematischen Hokuspokus" zu mystifizieren, sollte widerstanden werden – dies könnte auch verpflichtend eingefordert werden. Es geht neben dem Hinweis, wann welche Daten von mir erfasst werden, in Zukunft auch stärker um die Entscheidungshoheit jener Anwendungen, die mit diesen Daten ausgeführt werden.

Darüber hinaus gilt, dass Technologie kein Ersatz für Gerechtigkeit ist. Der gerechte Zugang zu grundlegenden Ressourcen und damit auch die Frage der Verteilungsgerechtigkeit kann nicht technologisch werden, sondern bedarf grundlegender gesellschaftspolitischer Diskurse sowie Entscheidungs- und Aushandlungsprozesse. So gilt es zum Beispiel Armut durch verbesserten Zugang zu Ressourcen und Chancen zu bekämpfen und nicht mittels autonomer Systeme effizienter zu organisieren. Technik kann diese Vorhaben in der Umsetzung unterstützen, kann diese jedoch nicht ersetzen oder ein Fehlen dieser kompensieren. (Fridolin Herkommer, 9.9.2019)