Im Gastkommentar kritisiert die ehemalige EU-Parlamentarierin Julia Reda, dass sich die EU-Kommission diese Frage zu künstlicher Intelligenz und Digitalisierung erst gar nicht stellt.

Charmeoffensive in Brüssel: Facebook-Chef Mark Zuckerberg tritt für lockere Regeln ein.
Foto: EPA / Olivier Hoslet

Anlässlich der Vorstellung der neuen EU-Digitalstrategie haben sich in den letzten Wochen die Chefs von Technologiekonzernen in Brüssel die Klinke in die Hand gegeben. In der Öffentlichkeit hat die EU-Kommission Marc Zuckerberg und Konsorten die kalte Schulter gezeigt, doch mit dem Inhalt der nun veröffentlichten Strategiepapiere kann die Tech-Industrie durchaus zufrieden sein. Verschwunden ist die Idee eines Verbots von automatischer Gesichtserkennung. Und auch die Vorschläge zur Regulierung der Onlinewerbung, dem Geschäftsmodell von Google und Facebook, bleiben vage. Die geplante E-Privacy-Verordnung, die zumindest dem Tracking des Nutzungsverhaltens zu Werbezwecken einen Riegel vorschieben sollte, liegt derweil auf Eis, weil sie von Mitgliedstaaten, wie unter anderem Österreich, im Rat seit Jahren blockiert wird.

Kern der neuen EU-Digitalstrategie ist ein Weißbuch der künstlichen Intelligenz (KI), die Facebook-Gründer Zuckerberg seit Jahren als Lösung aller Probleme von Terrorpropaganda bis Desinformation anpreist. Kein Wunder: Eine Grundvoraussetzung für das maschinelle Lernen ist der Zugriff auf riesige Datenmengen. Bei der Entwicklung von KI-Anwendungen hat eine Firma mit Zugriff auf Milliarden Nutzerprofile einen klaren Wettbewerbsvorteil.

Verzerrte Ergebnisse

Tatsächlich ist die sogenannte künstliche Intelligenz aber alles andere als intelligent – sie basiert auf dem Vergleich von Mustern in den Daten, kann also Ähnlichkeiten identifizieren, versteht aber nicht, was diese Muster bedeuten. Deshalb ist KI auch nicht in der Lage, Kontexte zu verstehen wie etwa Humor oder die Nuancen verschiedener Sprachen. In der Debatte um Uploadfilter in der EU-Urheberrechtsreform wurde mehr als deutlich, wie oft Algorithmen fälschlicherweise völlig legale Inhalte sperren. Noch vor wenigen Monaten hat die automatische Sperrung von Videos über Menschenrechtsverletzungen in Syrien durch Youtubes Terrorfilter für Schlagzeilen gesorgt.

Der Tenor des Weißbuchs ist dennoch weitgehend positiv und betont vor allem die Chancen der künstlichen Intelligenz. Ziel sei es, dass mehr europäische Unternehmen KI einsetzen und europäische Forschung in dem Bereich nicht den Anschluss verliert. All das soll unter Wahrung europäischer Werte passieren. Die größte Sorge scheint dabei zu sein, dass Algorithmen auf Basis schlechter Datensätze trainiert werden und deshalb zu verzerrten Ergebnissen kommen. Zwar sind diese Bedenken durchaus berechtigt, wie regelmäßige Skandale um sexistische oder rassistische Algorithmen zeigen, die in der Gesellschaft vorherrschende Diskriminierung reproduzieren und sogar noch verstärken. Die Frage, ob es überhaupt wünschenswert ist, immer mehr Entscheidungen Maschinen zu überlassen, kommt in dem Weißbuch aber völlig zu kurz.

Gefahren für Grundrechte

Selbst die automatische Gesichtserkennung im öffentlichen Raum, für die in einem früheren Entwurf des Weißbuchs ein fünfjähriges Verbot erwogen wurde, um zunächst die (ziemlich offensichtlichen) Gefahren für die Grundrechte zu analysieren, soll jetzt nicht verboten, sondern ergebnisoffen diskutiert werden. Ohne explizite Einwilligung ist Gesichtserkennung auch heute schon laut Datenschutzgrundverordnung nur unter engen Voraussetzungen möglich, immer mehr Mitgliedstaaten setzen sie aber zum Beispiel an Bahnhöfen ein, sodass Menschen sich ihr kaum entziehen können.

Ob Gesichtserkennungssoftware nach den Plänen der EU-Kommission zumindest Auflagen bezüglich Transparenz erfüllen muss, hängt davon ab, in welchem Kontext sie eingesetzt wird, denn nur risikoreiche Anwendungen sollen zusätzlich zum geltenden Recht reguliert werden. Als Beispiel für eine Anwendung mit niedrigem Risiko nennt Kommissionsvizepräsidentin Margrethe Vestager ausgerechnet das automatische Entsperren des Handydisplays. Auch dieser Einsatz von Gesichtserkennung ist aber durchaus heikel. Anders als bei Eingabe von Passwort oder PIN kann das Handy zwar womöglich erkennen, welche Person sich vor dem Bildschirm befindet, aber nicht, ob diese das Handy auch tatsächlich entsperren will. Eine Sicherheitsbehörde könnte sich das zunutze machen, indem sie das Handy dem Besitzer gegen den eigenen Willen vor das Gesicht hält. Bei manchen Handyanbietern funktioniert das Entsperren sogar bei geschlossenen Augen, also auch wenn man schläft oder bewusstlos ist.

AMS-Hochrisikoanwendung

Nicht einmal den relativ laxen geplanten Vorschriften der EU-Kommission würde dagegen der AMS-Algorithmus zur Bestimmung des Förderungsbedarfs von Arbeitssuchenden in Österreich standhalten, an dem die türkis-grüne Regierung trotz scharfer Kritik weiterhin festhalten will. Das AMS gibt nämlich ganz grundlegende Informationen über die Funktionsweise des Algorithmus nur scheibchenweise heraus, wie Wissenschafterinnen und Wissenschafter jüngst beklagten. Dass es sich beim Einsatz von automatisierter Entscheidungsfindung im Sozialwesen, zumal mit unmittelbaren Folgen für die Rechte der betroffenen Personen, um eine Hochrisikoanwendung handelt, steht selbst nach der EU-Strategie außer Frage. Nach den Plänen der Kommission müsste das AMS also zumindest wesentlich höhere Anforderungen an Transparenz, wissenschaftliche Nachprüfbarkeit und menschliche Aufsicht über den Algorithmus erfüllen, um diesen legal betreiben zu können. Angesichts des massiven Grundrechtseingriffs durch den Einsatz solcher Systeme wäre es aber wünschenswert, wenn die EU einen Schritt weitergeht und solche KI-Anwendungen grundsätzlich verbietet. Dafür ist noch Zeit: Bis März läuft eine Konsultation, bei der sich die Öffentlichkeit zur europäischen KI-Strategie äußern und Nachbesserungen fordern kann. (Julia Reda, 21.2.2020)