Foto: DAMIEN MEYER / AFP

Es dürfte eines der umstrittensten Gesetzesvorhaben des Jahres werden: Ende März will die EU-Kommission nach aktuellen Informationen ihre Pläne für eine "Chatkontrolle" präsentieren. Messenger-Anbieter sollen dadurch verpflichtet werden, direkt in ihren Apps nach Bildern, die den sexuellen Missbrauch von Kindern zeigen, zu suchen und dann den Behörden zu melden.

Kritik

Ein Vorhaben, in dem Kritiker einen Schritt in die Massenüberwachung der privaten Kommunikation sehen, wie etwa erst vor wenigen Tagen ein Bündnis aus 39 Bürgerrechtsorganisationen warnte. Wie sich nun herausstellt, steht man mit dieser Befürchtung nicht alleine da – ist nun doch eine interne Untersuchung der EU-Kommission durchgesickert, in der ähnliche Bedenken laut werden.

Der den aktuellen Gesetzesentwurf prüfende Ausschuss für Regulierungskontrolle wirft laut dem der französischen Nachrichtenseite "Contexte" zugespielten Dokument eine nicht ganz unwichtige Frage auf: nämlich ob die aktuellen Pläne überhaupt legal sind. Der aktuelle Entwurf mache nicht klar, wie die Pläne für die "Chatkontrolle" mit geltenden EU-Gesetzen gegen massenhafte Überwachung kompatibel sein sollen, heißt es in dem Bericht. Entsprechend sei zu befürchten, dass so ein Gesetz einer Überprüfung durch den Europäischen Gerichtshof nicht standhalten würde.

Auch neue Bilder?

Zudem fordert der Ausschuss noch an anderer Stelle Präzisierungen, etwa bei der Frage, wie die Suche nach neuen Materialien mit entsprechendem Inhalt mit Privatsphärengesetzen vereint werden soll. Eine Formulierung, die wiederum die Initiative European Digital Rights (EDRi) hellhörig werden lässt – legt sie doch nahe, dass der bisher noch geheime Entwurf der Kommission nicht nur eine Suche nach bekannten Darstellungen von sexuellem Missbrauch an Kindern vorschreibt, sondern auch das Aufspüren neuer Bilder vorschreibt – also etwa solcher, die der Nutzer selbst gemacht hat und die noch nicht öffentlich aufgetaucht sind.

Das würde aber weit über das hinausgehen, was bisher angenommen wurde. Während ein Scan nach bekannten Aufnahmen mithilfe des Abgleichs von digitalen Fingerabdrücken erfolgen kann, würde eine aktive Suche nach neuen Bildern mit einer Analyse des Inhalts aller Bilder einhergehen – wohl unter Einsatz einer künstlichen Intelligenz. Technisch ist das zwar machbar, aber auch extrem fehleranfällig und natürlich noch einmal deutlich problematischer als der Abgleich von digitalen Fingerabdrücken.

Gibt es schon eine konkrete Lösung?

Noch ein weiterer Kritikpunkt aus dem Bericht: Gesetze sollten sich nicht an konkreten Lösungen orientieren, sondern umgekehrt – also die Umsetzung des Gesetzes nach ausführlicher Analyse unterschiedlicher Varianten gewählt werden. Das ist deswegen interessant, weil sich daraus schließen lässt, dass die EU-Kommission bereits eine technische Umsetzung im Auge hat.

Welche das ist, verrät der Bericht nicht, naheliegend wäre aber, dass sich die Kommission an Apple ein Vorbild nimmt. Das Unternehmen hat im Vorjahr ein System mit ebendieser Zielsetzung vorgestellt, das nach scharfer öffentlicher – und auch interner – Kritik wieder auf Eis gelegt wurde.

Überraschende Wende

Angesichts der doch recht substanziellen Kritikpunkte kommt ein anderer Umstand überraschend: Der Ausschuss hat den Gesetzesentwurf nämlich trotzdem durchgewinkt. Grund dafür ist, dass man davon überzeugt sei, dass die Generaldirektion Migration und Inneres die aufgeworfenen Defizite noch ausräumen werde.

Gezielte Irreführung?

Die EDRi nutzt das Auftauchen dieses Berichts, um weitere Kritik an Innenkommissarin Ylva Johansson zu üben. Diese habe am 9. März in einem Schreiben an das Europäische Parlament versichert, dass mit dem Entwurf Verschlüsselung weder verboten noch allgemein geschwächt werde. Auch aus dem neuen Bericht gehe aber klar hervor, dass mit dem neuen Gesetz Verschlüsselung sehr wohl unterwandert werde, kritisiert die EDRi. Immerhin ist die Chatkontrolle ja vor allem für verschlüsselte Messenger wie Whatsapp oder Signal gedacht, wo man sonst keine Möglichkeiten der Inhaltsanalyse hat.

Geschickt formuliert

Bei näherer Betrachtung zeigt sich aber auch schnell, wie es zu diesen unterschiedlichen Interpretationen kommt: Die Stellungnahme von Johansson ist einfach geschickt formuliert. Denn tatsächlich geht es bei dem Vorhaben nicht darum, irgendwelche Verschlüsselungstechnologien zu "brechen". Vielmehr sollen die Apps selbst dazu gezwungen werden, die Bildanalyse vorzunehmen, und zwar direkt am lokalen Gerät. An dieser Stelle greift die Ende-zu-Ende-Verschlüsselung, die vor einem Mitlesen am Transportweg sowie durch den Serverbetreiber schützt, aber noch gar nicht. Sie wird also nicht "gebrochen", sondern "umlaufen" – aus Nutzersicht ist das Ergebnis natürlich sehr ähnlich.

Bedenken

Neben der generellen Kritik an einer solchen massenhaften Überwachung warnen Kritiker vor allem davor, dass mit der Etablierung eines entsprechenden Systems die sprichwörtliche "Büchse der Pandora" geöffnet würde. Immerhin wäre es aus einer technischen Sicht recht einfach, dann auch gezielt nach ganz anderen Bildern suchen zu lassen – etwa um Regierungskritiker aufzuspüren. Insofern sollten sich die Behörden besser auf die gezielte Fahndung unter richterlicher Kontrolle konzentrieren, als auf Massenüberwachung der Kommunikation zu setzen. (Andreas Proschofsky, 24.3.2022)