Gestern gab es Berichte über das erste erfolgreiche "Reverse Engineering" von Apples NeuralHash-Algorithmus, mit dem man ab dem Herbst kinderpornografischen Inhalten auf den Geräten seiner Nutzer auf die Spur kommen will. Dieses basierte auf einer Version des Algorithmus, der in den Tiefen von iOS 14.3 gefunden wurde und es wurde bereits gestern darüber spekuliert, dass dies möglicherweise nicht die finale Version sein könnte, die Apple dann auch letztlich zum Einsatz bringt. Nun hat sich auch Apple gegenüber den Kollegen von Motherboard geäußert und erklärt, dass die Version von NeuralHash, die für das Reverse-Engineering genutzt wurde, nicht diejenige ist, die für die finale Implementierung des sogenannten CSAM-Systems genutzt werden wird. Zudem habe man den Algorithmus zwar frei zugänglich für die Sicherheitsüberprüfung zur Verfügung gestellt, allerdings gebe es noch einen weiteren, serverseitigen Algorithmus, der Übereinstimmungen (zusätzlich zur manuellen Überprüfung) noch einmal checkt, ob es sich dabei wirklich um die gesuchten Inhalte handelt.
Wirklich zur Beruhigung tragen aber auch diese Aussagen nicht bei. So meldete sich auch bereits Matthew Green gegenüber Motherboard zu Wort. Der Sicherheitsforscher von der Johns Hopkins University hatte Apples Pläne als erster publik gemacht und gehört zu den größten Kritikern des Systems. Seiner Meinung nach darf erwartet werden, dass die in der NeuralHash-Version aus iOS iOS 14.3 entdeckten Probleme sehr wahrscheinlich auch in der finalen Version auftauchen werden. Mit Nicholas Weaver gibt ein weiterer Sicherheitsforscher zu bedenken, dass man aufgrund des großen öffentlichen Interesses sicherlich eine Menge Experten Apples Prüf-Team mit manipulierten Inhalten überschwemmen wird, bis dort ein Filter implementiert wird, der die False-Positives herausfiltert. Hier könnten dann weitere Probleme entstehen.