Aug 18: Erstes erfolgreiches Reverse-Engeneering von Apples Algorithmus zur Erkennung von Kinderpornos
Neben allen moralischen und datenschutztechnischen Fragen rund um Apples geplante Erkennung von kinderpornografischen Inhalten auf iPhones und Macs stellt sich natürlich auch noch die bislang weniger diskutierte Frage nach der technischen Sicherheit der verwendeten Technologie. Hierzu hat nun ein Entwickler namens Asuhariet Ygvar einen bemerkenswerten Beitrag geliefert. Nach eigener Aussage ist es ihm nämlich gelungen, Apples sogenannte "CSAM Detection" rückzuberechnen. Ygvar entdeckte eine Version von Apples NeuralHash Algorithmus für den Fotoabgleich in den Tiefen von iOS 14.3 und führte hiermit offenbar erfolgreich ein sogenanntes "Reverse-Engineering" in Python durch. Den zugehörigen Code veröffentlichte er inzwischen auf GitHub und trat damit natürlich eine Diskussion los, ob dies nicht vielleicht schon der technische Sargnagel für Apples Pläne sein könnte.
Auf Reddit entbrannte inzwischen ein reges Frage und Antwort Spiel, ob es sich tatsächlich im Apples Algorithmus handeln würde und inwieweit dieser damit angreifbar sei. Ygvar erklärt beispielsweise, dass es sich um den korrekten Algorithmus handeln müsse, da die Trainingsbilder denselben Prefix verwenden wie in Apples offizieller Dokumentation angegeben und zudem verschiedene Abschnitte des Codes exakt so arbeiten würden, wie in Apples Beschreibung von NeuralHash. Verschiedene weitere Entwickler haben mit dem Code inzwischen experimentiert und unter anderem herausgefunden, dass wenn man einen Hash-Code in der CSAM-Datenbank kennt, man hierauf basierend auch Fake-Bilder erstellen kann, auf die Apples Scanner dann anspringen würden.
Berücksichtigt werden muss bei all dem natürlich, dass es sich bei dem in iOS 14.3 entdeckten Algorithmus nicht notwendigerweise um die finale Version handeln muss, die Apple dann auch mit iOS 15 produktiv zum Einsatz bringt. Auch würde das bloße Zusenden von Fake-Bildern an beliebige Nutzer nicht dazu führen, dass diese auch automatisch zu einer Sperrung von deren iCloud-Accounts führen würde. Hierfür müssten die Fotos dann nämlich auch noch in die Fotos-App übertragen werden. Bei Apps wie WhatsApp kann man dies aber beispielsweise auch automatisch so einstellen. Eine gewisse Gefahr wäre damit also zwar gegeben, allerdings würde spätestens bei Apples manuellem Review der Inhalte auffallen, dass diese nicht unter die als kritisch zu betrachtenden Bilder fallen.
Nichts desto trotz ist nun auch die technische Dimension von Apples geplanter Technologie auf der Agenda und verschiedene Sicherheitsexperten werden sich sicherlich in den kommenden Stunden und Tagen auf den veröffentlichten Code stürzen und ihn und Apples System in seine Einzelteile zerlegen. Man darf gespannt sein, was dabei herauskommt.
Kommentare: (7) Trackbacks: (0)
- Update des Studio Display bringt nur geringfügige Kamera-Verbesserungen
- Apple aktualisiert iTunes für Windows auf Version 12.12.4
- "Daten-Auktion": Apple veröffentlicht neuen Datenschutz-Werbespot
- Apple veröffentlicht erste Betas von iOS/iPadOS 15.6, macOS 12.5, watchOS 8.7 und tvOS 15.6
- Gemunkeltes kantigeres Design für die aktuelle Apple Watch wird nun für dieses Jahr erwartet
- Apple kündigt verschiedene neue und erweiterte Bedienungshilfen an
- Bericht beleuchtet die verschiedenen Herausforderungen bei Apples Mixed-Reality Headset
- Viele Neuerungen für den Mac: Apple veröffentlicht Swift Playgrounds 4.1
- "Eva die Eule": Apple kündigt neue Kinderserie für Apple TV+ an
- "Apple Music Live": Apple streamt Live-Konzerte verschiedener Künstler
#1 - Mick 18.08.2021 18:49 - (Antwort)
Ich frage mich: wie funktioniert das 😊 Review 😊? So ist doch letztlich alles verschlüsselt.
#2 - Flo sagt:
18.08.2021 19:28 - (Antwort)
Sobald die Bilder nach iCloud hochgeladen wurden (und nur dann greift das System ja), kann Apple sie entschlüsseln. Dazu ist man gesetzlich verpflichtet, damit man beispielsweise bei richterlich genehmigten Regierungsanfragen bestimmte Daten herausgeben kann.
#3 - SOE 18.08.2021 20:55 - (Antwort)
Gehen wir mal davon aus, es ist der Code.
Erstens:
Sollte dieser Algorithmus wirklich die BETA sein, dann bedeutet das im Umkehrschluss, dass Apple ein Überwachungssystem auf den Markt wirft, welches sie wie die Integration von Emojis behandeln - völlig verantwortungslos.
Das ist doch keine 3D-Animation mit einem Feuerwerk. Muss ich wirklich daran erinnern, dass Google nach mehrjähriger Entwicklung eine Bilderkennung auf den Markt brachte, die schw*rze Menschen als Affen klassifizierte? Und dies auch nach zweijähriger Revision und Korrektur nicht abstellen konnte?
Das ist das Niveau von KI. Der Computer lässt sich seine Schlussfolgerungen nicht einfach ausreden. Dafür müsste der Entwickler nämlich wissen, wie diese zustande gekommen sind.
Zweitens.
Das System soll auch für iMessage zum Einsatz kommen. Ich stelle mir gerade vor, ich wäre ein Jugendlicher und möchte den Klassenprimus fertig machen. Schicke ihm ein solches Fake-Bild und die Eltern Marke Helikopter vertrauen hundertprozentig auf die Warnung. Dazu noch ein zweideutiger Text.
Nur so als erste Idee.
#4 - SOE 18.08.2021 20:59 - (Antwort)
Das ist nicht richtig.
Bisher gibt es kein Verbot von E2E-verschlüsselter Cloud oder die Verpflichtung einen Nachschlüssel vorzuhalten. Diese Forderung wird immer lauter, aber es besteht keine gesetzliche Verpflichtung. Weder in den USA noch in einem Land der EU.
Es ist eine freiwillige Entscheidung von Apple, Teile der iCloud nicht E2E zu verschlüsseln. (Einige, wie der Passwort-Manager sind es dagegen)
#5 - Wildberry sagt:
18.08.2021 21:25 - (Antwort)
Bei allen richtigen und wichtigen Kommentaren in Richtung Schwachsinn, der da gerade von Apple veranstaltet wird.
Welcher böse P*do ist denn so unfassbar dumm seine Daten in die Apple Cloud hochzuladen? Und das gilt ja für praktisch alle solche Hausdurchsuchungs-Generalsverdachts-Maßnahmen: ich fange höchstens die dümmsten 2% der bösen Verbrech*innen, der Rest verschlüsselt selber und nutzt andere Kanäle. Also was zur Hölle soll der Unsinn?
#6 - B\344r 18.08.2021 21:40 - (Antwort)
Ich glaube es geht eigentlich mehr um us teenager die wegen nacktbilder verschicken auf ewig als pädos abgestempelt sind 😊 amis bestrafen das ganz anders als wir hier 😊
#7 - Thom sagt:
19.08.2021 17:13 - (Antwort)
Das ist doch der gleiche Unsinn wie die Registrierung von SIM-Karten wegen Terrorismus.
Als wenn der Taliban in den Telekom-Shop geht dafür 😊 😊 😊 😊 Wir werden immer mehr in verschiedensten Richtungen unter Generalverdacht gestellt. Und wenn ich nun hier von Apple höre 😊 ja nicht der fertige Code 😊, ist das eine schwache Ausrede. Fakt ist, es ist geknackt worden. Es scheint mir nicht sicher und es hat auf meinem Gerät nix verloren. Ich bin bereits am überlegen, was ich wie ändern könnte ohne die Bequemlichkeit und Einfachheit des 😊 Kosmos zu verlieren 😊 😊 😊 😊 😊 😊 😊
Das ist nämlich leider gar nicht so einfach 😊 😊