Kameraüberwachung ist im Vereinigten Königreich stark verbreitet. Kaum ein öffentlicher Ort wird nicht von digitalen Augen ins Visier genommen. Und auch in Geschäften sind Videosysteme gang und gäbe. Zunehmend wird dabei auch auf Gesichtserkennung gesetzt, mit der sich die Händler besser vor Diebstahl schützen möchten. Doch ein Fehler im System kann für Einzelne sehr unangenehme Folgen haben, wie die BBC dokumentiert.

Sie berichtet über den Fall von Sara (Name geändert). Die Frau hatte Lust auf Schokolade und entschloss sich, eine Filiale der Diskontsupermarktkette Home Bargains aufzusuchen. Dort nahm das Drama schnell seinen Lauf.

"Sie sind eine Diebin"

Innerhalb von nicht einmal einer Minute sei sie von einem Mitarbeiter konfrontiert worden, so berichtet die Betroffene. "Sie sind eine Diebin. Sie müssen das Geschäft verlassen", erklärte ihr dieser und führte sie Richtung Ausgang. Nach einer ergebnislosen Durchsuchung ihrer Tasche wurde sie hinausgeleitet und ihr mitgeteilt, dass sie Hausverbot habe. Und zwar bei Home Bargain und auch allen anderen Läden, die das Gesichtserkennungssystem Facewatch einsetzen.

Videoüberwachung (hier nicht in London, sondern an einer U-Bahn-Station in Essen) wird immer öfter mit Gesichtserkennung kombiniert.
IMAGO/Markus Matzel

Dieses System war es nämlich, das Alarm geschlagen hatte, als sie den Supermarkt betrat. Es hatte sie mit einer Ladendiebin verwechselt. Für Sara war die Situation viel mehr als nur ein Missverständnis. "Ich habe am ganzen Heimweg geweint. Ich dachte: 'Wird mein Leben jemals wieder dasselbe sein? Ich werde angeschaut werden wie ein Ladendieb, obwohl ich noch nie etwas gestohlen habe.'"

Londoner Polizei schwärmt von Gesichtserkennung

Auch bei der Londoner Polizei ist Gesichtserkennung beliebt. Man schwärmt davon, wie schnell und effizient die Technologie arbeitet. Ein Foto wird binnen Sekunden mit verschiedenen Watchlists abgeglichen. Die BBC begleitete Beamte bei einem Einsatz, in dem sie von einem Transportwagen per Dachkamera im Stadtteil Bethnal Green Passanten auf Verdächtige scannten. Gibt es keine Übereinstimmung, wird das Foto laut der Behörde automatisch gelöscht.

Insgesamt kam es an diesem Tag zu sechs Festnahmen infolge des Einsatzes von Gesichtserkennung, darunter ein wegen Körperverletzung gesuchter Mann und zwei Personen, die mit ihrem Aufenthalt in der Gegend gegen polizeiliche Auflagen als Folge eines Sexualdelikts verstoßen hatten. Die BBC sprach mit mehreren Menschen, die von der Polizei konfrontiert worden waren. Alle bestätigten, dass es sich bei ihnen um die von der Gesichtserkennung genannten Personen handelte. Die Londoner Polizei gibt an, heuer schon rund 200 Personen nach Gesichtserkennung festgenommen zu haben.

Besorgte Bürgerrechtler

Es sind allerdings nicht die vielen Fälle, in denen die Erkennung funktioniert, die Bürgerrechtlern sorgen machen. Sondern jene, in denen Unbescholtene wegen Fehlerkennungen in Schwierigkeiten geraten. So etwa Shaun Thompson, ein Jugendbetreuer, der nach Anhaltung auf der Straße erst nach Abgabe von Fingerabdrücken und Passkopie wieder freigelassen wurde, weil das System der Polizei ihn mit einer flüchtigen Person verwechselt hatte.

Bei der NGO Big Brother Watch bemängelt man, dass mit Echtzeit-Gesichtserkennung die Beweislast umgekehrt werde. Wer angehalten werde, müsse nachweisen, dass das System sich geirrt habe, oder wird möglicherweise festgenommen. Der Einsatz von Live-Erkennung durch die städtische Polizei nimmt dabei stark zu. Setzte man die Technologie zwischen 2020 und 2022 nur neun Mal ein, waren es 2023 bereits 23 Einsätze. Im laufenden Jahr hat sich die Zahl bereits fast verdreifacht, 67 Mal ließ die Exekutivbehörde den Echtzeitabgleich bereits laufen.

Eine von 40 Erkennungen ist falsch

Man verweist darauf, dass Fehlerkennungen sehr selten seien. Nur eine von 33.000 erfassten Personen würde falsch identifiziert, was 0,003 Prozent entspricht. Betrachtet man aber ausschließlich die Fälle, in denen das System einen Verdacht ausspuckt, sieht das drastisch anders aus. Eine von 40 Erkennungen – oder 2,5 Prozent – stellt sich als "False Positive" heraus. Michael Birtwhistle, Forschungschef des Ada-Lovelace-Institute sieht auch legistische Probleme. Die Technologie sei noch so jung, dass es an angemessener Gesetzgebung fehlt, bemängelt er. "Derzeit herrscht absoluter Wilder Westen", so Birtwhistle. "Das sorgt für juristische Unsicherheit darüber, ob aktuelle Einsätze ungesetzlich sind oder nicht."

Für Sara hatte die Angelegenheit ein versöhnliches Ende, auch wenn das Erlebnis selbst nicht rückgängig zu machen ist. Facewatch hatte die Frau schriftlich kontaktiert und einen Fehler eingestanden. Gegenüber der BBC wollte das Unternehmen den konkreten Fall allerdings nicht kommentieren. Man verwies lediglich darauf, dass man mit der Gesichtserkennung Kriminalität verhindern und Mitarbeiter schützen würde. Home Bargains wollte zur Causa keine Stellungnahme abgeben. (red, 28.5.2024)