Eigentlich ist es ein Thema, bei dem sich praktisch alle einig sind: Der Kampf gegen sexualisierte Gewalt gegen Kinder ist wichtig, die Verbreitung entsprechender Darstellungen zu stoppen, und deren Betreiber sind zur Rechenschaft zu ziehen. Und doch hat Apple mit seinen Ankündigungen für neue Maßnahmen im Kampf gegen diese im Englischen als CSAM (Child Sexual Abuse Material) bezeichneten Inhalte in den vergangenen Wochen für einiges Aufsehen gesorgt. Werden dabei doch sämtliche Bilder lokal auf dem iPhone mit einer Datenbank an einschlägigen Materialien verglichen. Das wiederum ist für viele nicht nur ein unzulässiger Eingriff in die Privatsphäre, solch ein System berge vor allem die Gefahr, dass es künftig auch für andere Inhalte genutzt werden könnte. Apple habe damit "Pandoras Büchse" geöffnet, wurden etwa Datenschützer in der Vorwoche deutlich.

Auf Kollisionskurs

Eine immer wieder geäußerte Befürchtung ist zudem jene der Fehlerkennungen, und diese bekommt nun neue Nahrung. Ist es Forschern doch offenbar gelungen, mit relativ geringem zeitlichem Aufwand eine sogenannte Hash-Kollision zu erzeugen. Das heißt, es wurden gezielt Bilder kreiert, die den gleichen Hash-Wert wie ein anderes Foto liefern. Mit diesem Wissen könnte jemand also anderen harmlos aussehende Bilder schicken, die aber von Apples Neural Hash als bekannte Darstellungen von Kindesmissbrauch gewertet und gemeldet würden.

Diese Entdeckung steht in direktem Widerspruch zu früheren Aussagen Apples, wo man davon überzeugt war, dass mit Neural Hash ausgewertete Bilder immer eindeutige Hashes ergeben und es so nicht zu Kollisionen kommen könne. Vereinfacht gesprochen analysiert Neural Hash den Inhalt eines Bildes und liefert dann einen solchen Hash. Dieser kann dann auf dem Gerät abgeglichen werden, ohne dass jemand direkt die Bilder betrachten muss. Eine Besonderheit gegenüber klassischen Hashing-Verfahren ist, dass Neural Hash auch bei leichten Änderungen des Bilds – also etwa Manipulationen an Farbe oder auch Ausschnitt – denselben Hash liefern soll. Das erhöht die Trefferwahrscheinlichkeit, aber wohl auch die Fehleranfälligkeit.

Reaktion

Auf Nachfrage von "Motherboard" betont Apple nun, dass sich Neural Hash noch im Entwicklungsstadium befinde. Das beeindruckt Kryptografie-Experten allerdings wenig. So ist Matthew Green von der Johns-Hopkins-Universität davon überzeugt, dass so ein grundlegendes Problem nicht einfach so ausgeräumt werden könne. Dafür müsste man das Hashing-Verfahren schon gröber umbauen. Ryan Duff von der Sicherheitsfirma Sixgen sieht Apples Lösung gar als besonders anfällig für solche Kollisionsangriffe.

Ungeachtet dessen, dass diese Erkenntnisse Apples ursprünglichen Aussagen widersprechen, verweist das Unternehmen auf andere Schutzmaßnahmen, die verhindern sollen, dass jemand zu Unrecht wegen einer Fehlerkennung Schwierigkeiten mit einer Behörde bekommt. Da wäre zunächst, dass eine Meldung überhaupt nur dann erfolgt, wenn ein Minimum an 30 solcher Bilder entdeckt wird. Vor allem aber geht auch diese dann nicht direkt an Behörden, sondern zunächst zu Apple, wo die betreffenden Bilder dann mithilfe eines zweiten Algorithmus noch einmal überprüft werden. Und selbst wenn hier ein Treffer erzielt wird, muss noch ein Mensch die Bilder in Augenschein nehmen, bevor dann wirklich die Behörden eingeschaltet werden.

Hintergrund

Die Hashes zu einschlägigen Materialien werden in dem von Apple gewählten System von einer Non-Profit-Organisation geliefert, und zwar dem National Center for Missing and Exploited Children (NCMEC). Die Hash-Liste soll in einer versteckten Datenbank direkt auf dem iPhone gespeichert und dann mit lokalen Bildern abgeglichen werden. Das allerdings nur, wenn die iCloud-Backup-Funktion aktiviert ist. Der Hauptteil der Kritik entzündet sich denn auch an anderen Punkten. Nämlich daran, dass Apples Verfahren Begehrlichkeiten von Staaten wecken könnte, die dann Hashes für ganz andere Inhalte unterbringen wollen. Apples Antwort auf diese Kritik ist recht simpel, dass man sich dagegen wehren werde. Zudem solle genau deswegen dieses System zunächst auch einmal nur in den USA getestet werden. Aktiviert werden soll das Ganze zudem erst mit einem Wartungsupdate für iOS 15, also irgendwann innerhalb der kommenden Monate. (apo, 20.8.2021)