Innenminister Karl Nehammer sieht sowohl bei der Gesichtserkennungssoftware als auch bei der dazugehörigen Datenbank alle Gesetze eingehalten.

Foto: Reuters, Leonhard Foeger

Der Einsatz von Gesichtserkennungssoftware wurde in Österreich schon mehrfach infrage gestellt – vor allem deshalb, weil der Rechtsrahmen für den Einsatz oft fragwürdig ist. Zuletzt gab es eine parlamentarische Anfrage der SPÖ, bei der das Innenministerium offenlegen musste, in welchen Fällen die Software eingesetzt wird. Nun folgt die Antwort auf eine Anfrage von Nikolaus Scherak (Neos) auf Basis von Kritik der Menschenrechtsorganisation Amnesty International, die speziell Frauen und "marginalisierte Gruppen" von der Software bedroht sieht.

Fremdenregister

"Zum Stichtag 30.06.2021 waren 638.693 Personen in der Zentralen Erkennungsdienstlichen Evidenz gespeichert", klärt Innenminister Karl Nehammer (ÖVP) in der Beantwortung der Anfrage auf. Von jedem Gesicht sei ein Frontalbild, ein Halbprofilbild und ein Profilbild gespeichert. Jedem Personeneintrag liege zudem ein Informationsblatt bei, in dem "sämtliche Informationen zur Verarbeitung enthalten sind". Gegen das Gesetz verstoße diese Speicherung nicht, denn nach Paragraf 75 Sicherheitspolizeigesetz sei man ermächtigt, "die ermittelten Daten zu verarbeiten".

Diesen Paragrafen greift Amnesty International an, sei er doch in einer Zeit verfasst worden, in der "keine derartige Software" verfügbar war und in der man dementsprechend vor allem nicht "deren Risiken vor Augen" haben konnte. Dem widerspricht der Innenminister: Es sei bei der Novellierung des Paragrafen 75 ausdrücklich die Formulierung angeführt, dass "davon auch der auf Grund neuester technischer Entwicklungen mögliche automationsunterstützte Vergleich von Lichtbildern umfasst ist".

Der Abgleich mit anderen Datenbanken ist laut Nehammer nur eingeschränkt möglich. So ist die Anbindung an das zentrale Fremdenregister gegeben, ein Abgleich mit dem Pass- oder Führerscheinregister ist mangels gesetzlicher Regelungen nicht möglich. Will man die Löschung seiner Daten beantragen, gibt es dazu rechtliche Möglichkeiten.

Marginalisierte Gruppen

Eine weitere Gefahr sieht Amnesty International in bekannten Problemen von künstlicher Intelligenz in Zusammenhang mit "marginalisierten Gruppen". So musste sich etwa Facebook erst vor wenigen Tagen entschuldigen, weil die künstliche Intelligenz hinter der Gesichtserkennungssoftware schwarze Menschen mit Affen verwechselte. Vor mehreren Jahren musste sich Google für einen ähnlichen Fall entschuldigen.

Viele Technologien würden insbesondere mit Bildern von weißen Männern gespeist, dadurch seien Frauen und Menschen mit anderer Hautfarbe "einem unverhältnismäßigen Risiko ausgesetzt, nicht exakt erkannt zu werden", kritisiert Amnesty International. So kommt es laut dem Antrag der Menschenrechtsorganisation vermehrt zu falschen Ergebnissen bei der Identifizierung.

Den Vorwurf kann der Innenminister in seiner Beantwortung nicht hundertprozentig entkräften. Zu den eingespeisten Bildern "liegen keine Informationen vor", erklärt Nehammer, der Ankauf des Programms erfolgte aber nach einem EU-weiten Ausschreibungsverfahren mit genau definierten Anforderungen. Bis Mitte Juni kam es in 1.574 Fällen zur Abfrage von 2.208 Personen. Pro Abfrage zeige das Programm im Schnitt 30 Übereinstimmungen an. Falsche Ergebnisse schließt Nehammer aus, da die Prüfung der Übereinstimmungen und die "letztliche Identifizierung immer durch einen Menschen erfolgt".

Gesichtserkennung auf der Straße

Während in den USA Gesichtserkennungssoftware im öffentlichen Raum, etwa in Geschäften, bereits vielfach zum Einsatz kommt, ist in der EU der Einsatz solcher Software strenger reguliert. Eine anstehende KI-Regulierung sieht nur einen Einsatz in engen Grenzen und nach behördlicher Genehmigung vor, etwa bei der Suche nach einem vermissten Kind oder bei einem drohenden Terroranschlag. Die Gesichtserkennung der Polizei wird die Regulierung nicht betreffen. (aam, 6.9.2021)