Apples “Think different“-Ansatz in Sachen Privatsphäre stößt auf starken Gegenwind.

Foto: Apple

Apple möchte künftig alle Fotos von iPhone-Nutzern auf Darstellungen von Kindesmissbrauchs scannen und mit einer Datenbank abgleichen, sobald sie sich mit der iCloud verbinden. Auch die iMessage-App soll mit einer Sicherheitsfunktion ausgestattet werden, die Kinder und ihre Eltern vor pornografischen Inhalten warnt. Für Sicherheitsexperten und Aktivisten öffne das Vorhaben das Tor für Massenüberwachung und Zensur.

Zusammenarbeit mit Strafverfolgung

Am Donnerstag veröffentlichte der iPhone-Hersteller Details zu seinen Plänen. Erkennung von Kindesmissbrauchsdarstellungen, also sogenanntem Child Sexual Abuse Material (CSAM), soll künftig mittels lokalem Scan des Geräts umgesetzt werden. Vor dem Upload in die iCloud werden Fotos dann mit einer Datenbank bekannter Hashes – also der Content-ID von Bilddateien – abgeglichen.

Dieser Prozess soll nach Angaben von Apple anonymisiert und lokal geschehen. Übereinstimmungen werden an das National Center for Missing and Exploited Children (NCMEC) gemeldet, sobald sie einen gewissen Schwellenwert übersteigen. Die NCMEC arbeitet eng mit den US-Strafverfolgungsbehörden zusammen. Betroffen sind vorerst nur Geräte in den USA, allerdings dürfte eine Ausweitung auf weitere Länder nur eine Frage der Zeit sein.

"Missverständnis"

In einer internen E-Mail, die "9to5Mac" zugespielt wurde, stempelt Sebastien Marineau-Mes, Vizechef der Software-Abteilung Apples, den aktuellen Aufschrei rund um die Scanfunktion als "Missverständnis" ab.

In einem weiteren Memo bedankt sich Marita Rodriguez, Geschäftsführerin für strategische Partnerschaften des National Center for Missing and Exploited Children (NCMEC) bei den Mitarbeiterinnen und Mitarbeitern Apples. Die Bedenken um die Privatsphäre und Sicherheit der Nutzer werden dabei "kreischende Stimmen der Minderheit" genannt. "Unsere Stimmen werden lauter sein", schreibt Rodriguez.

Whatsapp-Chef "besorgt"

Auch Will Cathcart, Facebooks Whatsapp-Chef, zeigt sich über Apples Pläne alarmiert. Auf Twitter nannte Cathcart die Maßnahmen ein "von Apple entwickeltes und betriebenes Überwachungssystem" und warnte davor, dass die Scan-Funktionen von Regierungen verwendet werden könnte, um private Inhalte zu durchsuchen. Er warf auch die Frage auf, wie ein solches System in China oder anderen Ländern ausgenutzt oder von Spyware-Unternehmen missbraucht werden könnte.

Ein Sprecher von Apple gab Cathcarts Sorge kontra und wies darauf hin, dass Nutzer jederzeit die iCloud für Fotos deaktivieren können. Auch soll das System nur auf einer Datenbank mit "bekannten" Bildern trainiert werden, die vom National Center for Missing and Exploited Children (NCMEC) und anderen Organisationen zur Verfügung gestellt werden. Da die Funktion im Betriebssystem iOS integriert ist, sei es nicht möglich, auf regionaler Ebene nach anderen Inhalten zu suchen.

Kritikwelle

Für zahlreiche Sicherheitsexperten wage Apple mit der Implementierung des Scans dennoch einen Schritt in Richtung Massenüberwachung. Die US-Bürgerrechtsorganisation Electronic Frontier Foundation veröffentlichte ein Statement, in dem sie Apples Vorhaben scharf kritisierte und als "gründlich dokumentierte, sorgfältig durchdachte und eng begrenzte Hintertür" bezeichnete.

Der US-amerikanische Kryptografie-Professor Matthew Green sieht darin die Gefahr einer Untergrabung der Ende-zu-Ende-Verschlüsselung von Messenger-Diensten. Immerhin wird von Regierungen auf der ganzen Welt die Möglichkeit der Überwachung ebendieser angestrebt.

Auch der Whistleblower Edward Snowden zeigt sich alarmiert, auf Twitter teilt er zahlreiche Beiträge zum Thema und schreibt: "Auch wenn es noch so gut gemeint ist, @Apple führt damit Massenüberwachung auf der ganzen Welt ein. (...) Wenn sie heute nach Kinderpornos scannen können, können sie morgen nach allem suchen." (red, 7.8.2021)