Betroffen wäre unter anderem Whatsapp.

Foto: AP / Patrick Sison

Im Namen des Kinderschutzes will die Europäische Union ein Gesetz zur Messenger-Überwachung verabschieden. Schon im Mai präsentierte die EU-Kommission ihren Entwurf hierfür, laut dem Unternehmen wie Whatsapp, Telegram und Co verpflichtet werden sollen, auf Smartphones nach Darstellungen des Kindesmissbrauchs zu suchen. Datenschützer warnen vor einer Unterwanderung der Verschlüsselung digitaler Kommunikation, da Messenger wahrscheinlich eine Hintertüre in ihre Dienste einbauen müssten. Ein interner Bericht kritisierte außerdem die geringe Zuverlässigkeit aktuell verfügbarer Scan-Software.

Auch im Rat der Europäischen Union gibt es Skepsis, wie ein Protokoll der Arbeitsgruppe Strafverfolgung nahelegt, das Netzpolitik.org veröffentlicht hat. Laut den Berichterstattern habe demnach insbesondere Österreich Bedenken, dass die Chatkontrolle das Recht auf Privatsphäre verletzen könnte. Deutschland beziehe hingegen keine klare Position. Stattdessen werde nur ausgeführt, dass man den Vorstoß unterstütze, solange die Verschlüsselung nicht angegriffen werde.

Auslesen am Endgerät

Die meisten Anbieter sichern den Nachrichtenverkehr mithilfe von Ende-zu-Ende-Verschlüsselung. Das bedeutet, Inhalte sind während des Transportwegs von einem zum anderen Smartphone nicht auslesbar. Erst bei Ankunft werden diese entschlüsselt und somit wieder lesbar. Am einfachsten wäre es für die EU deshalb, den Scan nach Missbrauchsmaterial am Endgerät durchzuführen, was wiederum bedeuten würde, dass Whatsapp und Co eine Hintertüre in ihre Apps einbauen müssten.

Nach CSAM, also Child Sexual Abuse Material, soll mithilfe einer Datenbank an Hashes gesucht werden. Dabei handelt es sich um digitale Fingerabdrücke, mit denen einschlägig bekanntes Missbrauchsmaterial erkannt werden kann. Außerdem will die EU mithilfe von künstlicher Intelligenz (KI) auch Grooming, also die Kontaktanbahnung, erkennen können. Allerdings sollen Grooming-Erkennungstechnologien noch sehr ungenau sein, wie ein Ende Juni geleakter Bericht der EU-Kommission aufwirft.

Demnach liege die Genauigkeit bei 90 Prozent, heißt: Bei nur neun von zehn erkannten Inhalten handelt es sich tatsächlich um Grooming. Wie Netzpolitik.org hervorhebt, würde es bei einer Million abgefangener Nachrichten demnach 100.000 falsch-positive Fälle geben – die von Mitarbeitenden des neu einzurichtenden EU Centre for Child Sexual Abuse (EUCSA) ausgewertet werden müssten.

Hintertüren

Im nun veröffentlichten Dokument des EU-Rats wird hingegen ausgeführt, dass die "Einrichtung von ‚backdoors by design‘" nicht vorgesehen sei. Stattdessen sollen Anbieter dazu verpflichtet werden, "child safety by design" sicherzustellen, also die eigenen Dienste so zu gestalten, dass Kinder sie sicher nutzen können. Die Algorithmen zur Erkennung von Grooming werden unterdessen mit "Technologien zum Erkennen von SPAM/Virus-Inhalten" verglichen.

Ob das Gesetz in aktueller Form tatsächlich verabschiedet wird, steht noch offen. Ende Juli äußerten auch der Europäische Datenschutzbeauftragte (EDPS) und der Europäische Datenschutzausschuss (EDPB) scharfe Kritik am Vorhaben. "Der EDPB und der EDPS sind der Ansicht, dass der Vorschlag in seiner jetzigen Form möglicherweise mehr Risiken für Einzelpersonen und damit für die Gesellschaft im Allgemeinen birgt als für die Straftäter", sagten diese damals. Die Chatkontrolle könne demnach Grundlage für ein "allgemeines und unterschiedsloses Scannen des Inhalts praktisch aller Arten von elektronischer Kommunikation werden". (mick, 12.9.2022)