Apple präsentiert sich seit einiger Zeit als Vorreiter in Sachen Privatsphäre. Die neueste Initiative widerspricht dieser Selbstdarstellung allerdings.

Foto: AFP/Brooks Kraft

Auf der Suche nach Missbrauchsdarstellungen von Kindern wird Apple in Zukunft die Geräte aller iPhone-User scannen – sofern sie iCloud aktiviert haben. Diese umstrittene neue Schutzfunktion ist Teil eines Pakets, das der Konzern am Donnerstag ankündigte. Zusätzlich erhält die iMessage-App eine ausgebaute Sicherheitsfunktion, mit der Kinder vor pornografischen Inhalten gewarnt werden. Außerdem sollen User vom Sprachassistenten Siri bessere Hilfestellung in Notsituationen erhalten. Betroffen sind vorerst nur Geräte in den USA, allerdings dürfte eine Ausweitung auf weitere Länder nur eine Frage der Zeit sein. Aktivisten und Sicherheitsforscher zeigen sich alarmiert.

Die Erkennung von Kindesmissbrauchsdarstellungen, also sogenanntem Child Sexual Abuse Material (CSAM), soll künftig mittels lokalem Scan des Geräts umgesetzt werden. Vor dem Upload in die iCloud werden Fotos dann mit einer Datenbank bekannter Hashes – also der Content-ID von Bilddateien – abgeglichen. Übereinstimmungen werden an das National Center for Missing and Exploited Children (NCMEC) gemeldet, dieses arbeitet eng mit den US-Strafverfolgungsbehörden zusammen.

Sicherheitsvouchers und Schwellenwerte

Technisch läuft das Ganze folgendermaßen ab: Während des Abgleichs mit der oben genannten Datenbank wird das Ergebnis verschlüsselt und mit einem kryptografischen Sicherheitsbeleg versehen, der gemeinsam mit dem Foto in der iCloud gespeichert wird. Apple verspricht, die Inhalte des Vouchers erst dann auszulesen, wenn ein Konto einen bestimmten Schwellenwert für CSAM-Inhalte überschreitet. Dieser sei so festgelegt, dass er ein hohes Maß an Genauigkeit biete. Die Wahrscheinlichkeit einer fehlerhaften Kennzeichnung liege deshalb jährlich bei eins zu einer Billion.

Kommt es zur Kennzeichnung eines Accounts, überprüft Apple die Berichte nochmals von Hand, um eine etwaige Übereinstimmung von Missbrauchsinhalten zu bestätigen. Erst danach wird ein Bericht an das NCMEC gesendet und das Konto des betroffenen Nutzers gesperrt. Trotz der lokalen Verarbeitung sind ausschließlich jene Fotos betroffen, die für den Upload in die iCloud ausgewählt wurden. Ausschließlich am Endgerät gespeicherte Inhalte werden hingegen nicht analysiert, berichtet "9to5Mac".

Angst vor Überwachungsmaßnahmen

Dass trotz allem auf eine lokale Verarbeitung fokussiert wird, sorgt für Kritik. Immerhin führt Apple bereits jetzt entsprechende Analysen von iCloud-Fotos durch, allerdings auf seinen Servern. Eine Methode, auf die auch Facebook, Google, Twitter und Microsoft setzen. Im aktuellen Vorstoß sieht der US-amerikanische Kryptografie-Professor Matthew Green die Gefahr einer Untergrabung der Ende-zu-Ende-Verschlüsselung von Messenger-Diensten. Immerhin wird von Regierungen auf der ganzen Welt die Möglichkeit der Überwachung ebendieser angestrebt.

Auch der Whistleblower Edward Snowden zeigt sich alarmiert, auf Twitter teilt er zahlreiche Beiträge zum Thema und schreibt: "Auch wenn es noch so gut gemeint ist, @Apple führt damit Massenüberwachung auf der ganzen Welt ein. (...) Wenn sie heute nach Kinderpornos scannen können, können sie morgen nach allem suchen."

Dieser Warnung fügt die NGO Electronic Frontier Foundation hinzu, dass es unmöglich sei, ein Scanning-System auf Geräteseite umzusetzen, das ausschließlich für die Erkennung von Kindesmissbrauchsdarstellungen genutzt werden kann. "Folglich wird selbst ein gut gemeinter Versuch, ein solches System zu entwickeln, wichtige Versprechen der Messenger-Verschlüsselung brechen und die Tür für breiteren Missbrauch öffnen", schreibt die Stiftung.

Die Initiative betrifft allerdings nicht ausschließlich in die iCloud hochgeladene Fotos, sondern auch Nachrichten, die über Apples hauseigenen Messenger-Service iMessage verschickt werden. Diese sollen auf für Kinder unangemessene Inhalte überprüft werden. Wenn ein minderjähriger User zum Beispiel ein Nacktfoto erhält, wird dieses unscharf dargestellt und mit dem Warnhinweis versehen, dass seine Eltern informiert werden, falls er es sich ansehen sollte. Beim Versuch des Verschickens entsprechender Bilder soll es einen ähnlichen Hinweis geben.

Hilfestellungen bei Onlinesuche

Zu guter Letzt erhält der Sprachassistent Siri ein Upgrade, mit dem Kindern und Eltern eine sichere Internetnutzung garantiert werden soll. Zum Beispiel wird man bei Nachfrage, wo man Missbrauchsinhalte melden kann, an entsprechende Ressourcen verwiesen. Außerdem soll unter iOS 15 (das voraussichtlich im Herbst erscheinen wird) eingegriffen werden, wenn Nutzer nach missbräuchlichen Inhalten suchen wollen.

Seit einiger Zeit versucht sich Apple mit Maßnahmen wie der App Tracking Transparency und weiteren Tracking-Schutzmaßnahmen für iOS 15 als Vorreiter im Bereich der Privatsphäre-Maßnahmen darzustellen. Umso fragwürdiger erscheint der jetzige Vorstoß, erlaubt er doch weitreichenden Eingriff in die iOS-Geräte von Kunden. (Mickey Manakas, 6.8.2021)