
Hintergrund
Apple NeuralHash gegen Privatsphäre: Die Büchse der Pandora wird geöffnet
von Dominik Bärlocher
Fast so, als ob es sie nie gegeben hätte: Apple hat vordergründig alle Erwähnungen des Kinderporno-Erkennungs-Tools auf ihrer Website gelöscht.
Im jüngsten Update des Apple-Betriebssystems war ein höchst kontroverses Feature nicht enthalten. Das iPhone scannt nun doch nicht alle deine Bilder vor dem Upload in die iCloud, um automatisch zu melden, wenn da Kinderpornografie ist.
Jetzt habe Apple alle Erwähnung des Kinderporno-Erkennungs-Tools gelöscht, das Apple «CSAM Detection» nennt, von seiner Website gelöscht, schreibt das Branchenportal heise.de. Das stimmt nicht ganz. Apple führt nach wie vor eine dedizierte Seite, auf der sie Massnahmen zum Kinderschutz erklärt. Dort stand einst die Erklärung von CSAM Detection. Diese ist nun verschwunden. Doch ganz vom Tisch scheint das Thema nicht zu sein. Wenn du eine Suchmaschine mit dem Suchbegriff «NeuralHash» auf apple.com anwendest, dann tauchen viele Dokumente auf.
NeuralHash heisst in der damals vorgesehenen Implementation CSAM Detection. Die Funktion ist nach ihrer Bekanntmachung in die Kritik geraten. Sie umgehe die Verschlüsselung, mit der Apple eigentlich mehr Privatsphäre verspricht. Denn es sei zu einfach, besagte Verschlüsselung mit NeuralHash zu umgehen oder falsche Positivmeldungen zu generieren. Apple hat sich zuerst gegen alle Vorwürfe gewehrt und Kommunikationsfehler zugegeben. Wenig geholfen hat dann ein internes Memo der Partnerorganisation NCMEC, das vergangenen August alle Kritiker als «kreischende Minderheit» bezeichnet hat.
Daraufhin hat Apple im September 2021 das Rollout der Backdoor verschoben. Seit dem stand auf der Website, dass über die «kommenden Monate» hinweg Kritik gesammelt und analysiert werde. Auch dieser Hinweis ist verschwunden.
Journalist. Autor. Hacker. Ich bin Geschichtenerzähler und suche Grenzen, Geheimnisse und Tabus. Ich dokumentiere die Welt, schwarz auf weiss. Nicht, weil ich kann, sondern weil ich nicht anders kann.