Überwachungskamera.
Gesichtserkennung auf Basis von Überwachungskameras: ein heißdiskutiertes Thema im Kontext der KI-Regulierung.
APA/AFP/ATTA KENARE

Welche Regeln sollen in der Europäischen Union für künstliche Intelligenz (KI) gelten, damit Missbrauch verhindert und somit auch Ängste genommen werden? Dieser Frage widmet sich der AI Act, zu dem am Mittwoch das EU-Parlament seine Position verabschiedet hat und dessen finale Version bis Ende 2023 feststehen soll. Und während die aktuelle Version von Beobachtern viel Zustimmung erfährt, gibt es auch viel Kritik. So wird bemängelt, dass zu strenge Regeln dem Wirtschaftsstandort schaden und vor allem ein Aus für KI-Software mit Open-Source-Lizenzen bedeuten könnten. Noch lauter war und ist die Kritik aber, wenn es um Grundrechte und Datenschutz geht: Eifrig debattiert wurde die Frage, ob die Echtzeitauswertung von biometrischen Daten – also Livegesichtserkennung – im öffentlichen Raum verboten werden soll.

Livegesichterkennung via KI

So hatte die Europäische Volkspartei (EVP) im Parlament in letzter Minute versucht, ein Verbot biometrischer Massenüberwachung mit Änderungsanträgen zu verhindern. Kritisiert wird dies unter anderem von der Neos-Europaabgeordneten Claudia Gamon: "Die automatisierte Gesichtserkennung im öffentlichen Raum kennen wir aus China. Solche Praktiken bedrohen die Bürgerrechte und haben in Europa nichts zu suchen", wird sie in einer Aussendung zitiert: "Dennoch war die EVP bis zum Schluss bereit, den gesamten AI Act für ihre Überwachungsfantasien zu verkaufen."

In der Abstimmung wurde das Ansinnen der Konservativen schließlich abgelehnt, beziehungsweise den Berichterstattern des EU-Parlaments zufolge "ein Kompromiss gefunden": Generell soll biometrische Liveüberwachung im öffentlichen Raum verboten werden, wohl aber dürfen aufgezeichnete Daten nach richterlicher Anordnung später mit KI-Tools ausgewertet werden. Außerdem führt Jeannette Gorzala, Vizepräsidentin des Europäischen AI-Forums, im Gespräch mit dem STANDARD an, dass die Einsatzzwecke von Asyl und Grenzschutz im hinteren Teil des aktuellen Entwurfs als Erlaubnistatbestände für die Liveauswertung biometrischer Daten geführt werden. Hier gelten also andere Regeln. 

KI-Tools im Grenzschutz

Generell kommt dem Bereich Asyl und Migration bei der Regulierung von KI eine Sonderrolle zu. So ist es etwa an der Grenze ebenso wie in anderen Bereichen verboten, KI-Tools zum Erkennen von Emotionen einzusetzen, der Einsatz künstlicher Intelligenz soll im Grenzschutz generell aber nicht verboten werden, sondern gilt als "High Risk": Er ist erlaubt, wenn auch unter Auflagen.

Kritisiert wird dies von European Digital Rights (EDRi), einem Zusammenschluss zahlreicher europäischer NGOs: Der Einsatz derartiger Tools könne illegale Pushbacks vereinfachen, heißt es. "Die EU erschafft somit eine zweigleisige KI-Regulierung, bei der Migranten weniger Schutz erfahren als der Rest der Gesellschaft", heißt es dazu von Sarah Chander, Senior Policy Adviser bei EDRi. Unter anderem bestehe auch die Gefahr, dass im Bereich von Asyl und Migration eine diskriminierende Form von Profiling auf Basis von KI-Auswertung entsteht.

EU als Exporteur von Überwachungs-Tech

Derartige Bedenken hatte auch die NGO Amnesty International im Vorfeld geäußert. Gefordert wurde von Amnesty International nicht nur ein Verbot von Echtzeit-, sondern auch von nachträglicher Auswertung über KI-Tools. Denn derartige Technologien würden rassistische und diskriminierende Praktiken der Exekutive teils verstärken, heißt es vonseiten der NGO.

Erwähnt wird in diesem Kontext auch, dass derartige Technologie in Europa vorhanden ist und ins Ausland exportiert wird. So werden etwa Überwachungskameras des niederländischen Unternehmens TKH Security in Jerusalem verwendet, um der israelischen Regierung die Überwachung der palästinensischen Bevölkerung zu erleichtern. Zudem haben Unternehmen aus Frankreich, Schweden und den Niederlanden digitale Überwachungssysteme und Gesichtserkennungstechnologie nach China exportiert, wo diese in Massenüberwachungsprogrammen und zum Schaden von diskriminierten Bevölkerungsgruppen, wie etwa den Uiguren, eingesetzt werden könnten, heißt es in einem Bericht von Amnesty International.

Die EU hat der NGO zufolge nicht nur die Verpflichtung, die Menschenrechte auch im Kontext der KI-Regulierung auf jeder Ebene aufrechtzuhalten: Es müsse auch sichergestellt werden, dass in Europa verbotene Technologie nicht in andere Staaten verkauft werde, um dort für Menschenrechtsverletzungen eingesetzt zu werden. (stm, 16.6.2023)