Kinderporno-Scans: Apples Datenschutz-Manager steht Rede und Antwort
Ein neuer Tag, ein neuer Bericht zum Thema Kinderschutz in iOS 15, macOS Monterey und Co. Nach der Veröffentlichung einer ausführlichen FAQ zu dem Thema und einer Gesprächsrunde mit Journalisten hat sich nun auch noch einmal Apples oberster Datenschutz-Manager Erik Neuenschwander zu Wort gemeldet. Im Interview mit den Kollegen von TechCrunch versucht er abermals zu Beschwichtigen und zu versichern, dass der komplette Prozess unter höchstmöglichen Datenschutz-Standards ablaufen wird. Laut Neuenschwander verfügt Apple inzwischen über die Technologien, dass man die CSAM-Scans durchführen könne, ohne dabei den Datenschutz seiner Nutzer zu gefährden.
Angesprochen auf die Frage, ob es rückblickend vielleicht keine gute Idee war, die "Communication Safety" Funktion für die Nachrichten-App und die CSAM-Scans in einem Schritt anzukündigen erklärte Neuenschwander, dass die beiden Funktionen, wie auch die ergänzenden Möglichkeiten mit Siri und Spotlight sich durchaus ergänzen. Thematisch hängen sie ohnehin zusammen, weswegen man sich entschieden hat, sie auch gemeinsam anzukündigen.
Die Kollegen stellten dem Datenschutz-Manager auch die unbequeme Frage, ob Apple verschiedenen Regierungen und Behörden auf der Welt demonstrieren wollte, dass man Inhalte nach kriminellen Inhalten durchsuchen kann, ohne dabei den Datenschutz zu gefährden, entgegnete Neuenschwander, dass dies immer ein Ansatz bei Apple sei: Funktion samt Datenschutz. Auf diese Weise könne man illegale Handlungen aufdecken, ohne die Nutzer zu behelligen, die sich nichts zu Schulden haben kommen lassen.
Zudem erklärte der Apple-Manager, dass sich ohnehin nur wenig ändern werde. So blieben die über iMessage verschickten Nachrichten beispielsweise auch weiterhin Ende-zu-Ende verschlüsselt und sämtliche Scanvorgänge fänden ausschließlich auf den Geräten der Nutzer statt. Man habe auch keine Hintertür erstellt, die früher oder später für andere Dinge als das Suchen nach kinderpornografischen Inhalten genutzt werden könnte. Hier habe Apple nach wie vor den Finger drauf und werde andere Nutzungsarten nicht zulassen.
Auf die Frage ob Apple nicht auch dazu gezwungen werden könnte, weitere Dinge außer Kinderpornos über seiner Technologien zu identifizieren, beispielsweise durch Gesetze in Ländern außerhalb der USA, verwies Neuenschwander auf verschiedene Sicherheitsstufen, die Apple auf den Geräten implementiert hat. Unter anderem sei die Liste mit den Hashwerten, gegen die die Bilder abgeglichen werden direkt in das Betriebssystem integriert. Hier mache man keine Unterschiede in unterschiedlichen Ländern und die Liste ist in allen Ländern dieselbe. Zudem gibt es einen Schwellwert an Übereinstimmungen aus der Gesamtheit der Fotos eines Nutzers, der erreicht sein muss, ehe das System überhaupt anschlägt. Einzelne Fotos würden somit niemals auffällig werden. Drittens würde vor einer Meldung an die Behörden auch immer noch ein manuelles Review durchgeführt. Auch hier hat Apple die Hoheit und würde keine anderen erkannten Bilder als solche mit kinderpornografischen Inhalten melden. Last but not least bliebe dem Nutzer auch immer noch die Wahl, iCloud Fotos zu deaktivieren. In diesem Fall würden Apples Maßnahmen nicht anlaufen.Interessant ist in diesem Zusammenhang natürlich auch noch einmal zu erwähnen, dass Apple bereits seit dem vergangenen Jahr Fotos auf seinen iCloud-Servern nach kinderpornografischen Inhalten durchsucht und dies seinerzeit auch bereits angekündigt hat. Werden dort welche entdeckt, werden diese ebenfalls an die zuständigen Behörden in den USA gemeldet. Das National Center for Missing and Exploited Children (NCMEC) veröffentlicht hierzu jährlich eine Statistik aus der hervorgeht, welches Unternehmen wie viele solcher Bilder gemeldet hat. Und so geht aus der aktuellen Statistik hervor, dass Apple im vergangenen Jahr gerade einmal 265 Verdachtsfällen gemeldet hat. Schaut man sich die Statistik einmal genauer an, taucht beispielsweise Facebook dort mit über 20 Millionen gemeldeten Fotos auf.
Während diese Tatsache einerseits beruhigt, da offenbar nur selten entsprechende Verdachtsfälle bei Apple auftauchen, wirft die Statistik umso mehr die Frage auf, was Apple denn wohl dazu veranlasst hat, bei gerade einmal 265 verdächtigen Bildern auf seinen Servern künftig alle Nutzergeräte gegen die CSAM-Hashs zu scannen. Im Endeffekt muss hier wohl gesagt werden, dass jeder einzelne Fall natürlich hochgradig tragisch ist und vermieden werden wollte. Ob der Kompromiss, den man dazu hinsichtlich der Hintertür-Diskussion eingehen muss dies wert ist, muss jeder für sich selbst entscheiden...
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
Anonym am :
DanSen am :
Nordrocker am :
Apple wird mir in letzter Zeit immer unsympathischer.
LeonR am :
Gruml am :
Pegasus, Jailbreaks, und Jahrzehnte z.T. sicherheitsrelevanter ungefixter Bugs beweisen ja, dass Apple die Sicherheit nicht wirklich im Griff hat.
Apple bekommt es ja noch nicht mal hin (schon seit iOS 10), wenn ich die Mail-App explizit auf manuellen Abruf konfiguriere, die Mails tatsächlich nur dann abzurufen, wenn ich das manuell tue. Nein die ruft die Mails immer noch vollautomatisch im Hintergrund ab. Das ist ein lange bestehendes Sicherheitsproblem, speziell wenn man in fremden WLANs (z.b. im Hotel) eingeloggt ist. Das ist simples Problem, und Apple ist damit schon überfordert. Wie soll es denn dann erst bei den CSAM-abgleichen werden, wo der Missbrauch für den Nutzer extrem gefährlich werden kann. Der Satz, „wer nichts zu verbergen hat, brauch nichts zu fürchten“ gilt dann nicht mehr.
Anonym am :
SOE am :
Newsflash: Das entscheidet die Gegenseite. In diesem Fall (auch) ein Computer.
Ein Datenschutz-Manager, der sagt "Wir haben Sicherheitsmaßnahmen, um uns gegen Gesetze und Anordnungen zu wehren."
So wie gegen die geforderte Steuernachzahlung der EU, für die Milliarden auf einem Treuhandkonto liegen, bis der Prozess abgeschlossen ist?
Oder lieber die NationalSecurity-Letters? Apple darf nicht mal genau sagen darf, wie viele geheime Durchsuchungen es bei iCloud gibt. Und tut es auch nicht.
Ihr müsst es euch selber überlegen:
Entweder Apple glaubt wirklich, sie würden inzwischen über dem Gesetz stehen. Oder sie lügen euch ins Gesicht.
Joe am :
Ist es inzwischen legal, das Privatunternehmen solche Aufgaben einf\374hren und \374bernehmen.
Finde ich erschreckend.
Detlef am :
Gibt es da ein sichere Aussage?
Nicht, dass der Scheixx dann bei 14 auch noch nachgereicht wird
SOE am :
Denn das ist ein massiver Eingriff in das Betriebsystem und Apple ist zu klein, um sich genug Entwickler leisten zu können, Funktionen nachzureichen.
Ernsthaft. Das haben die noch nie gemacht.
Und aus Apple's Wahn heraus ist diese Funktion ein tolles Feature und Grund zu upgraden.