Skip to content

Kinderporno-Scans: Apples Datenschutz-Manager steht Rede und Antwort

Ein neuer Tag, ein neuer Bericht zum Thema Kinderschutz in iOS 15, macOS Monterey und Co. Nach der Veröffentlichung einer ausführlichen FAQ zu dem Thema und einer Gesprächsrunde mit Journalisten hat sich nun auch noch einmal Apples oberster Datenschutz-Manager Erik Neuenschwander zu Wort gemeldet. Im Interview mit den Kollegen von TechCrunch versucht er abermals zu Beschwichtigen und zu versichern, dass der komplette Prozess unter höchstmöglichen Datenschutz-Standards ablaufen wird. Laut Neuenschwander verfügt Apple inzwischen über die Technologien, dass man die CSAM-Scans durchführen könne, ohne dabei den Datenschutz seiner Nutzer zu gefährden.

Angesprochen auf die Frage, ob es rückblickend vielleicht keine gute Idee war, die "Communication Safety" Funktion für die Nachrichten-App und die CSAM-Scans in einem Schritt anzukündigen erklärte Neuenschwander, dass die beiden Funktionen, wie auch die ergänzenden Möglichkeiten mit Siri und Spotlight sich durchaus ergänzen. Thematisch hängen sie ohnehin zusammen, weswegen man sich entschieden hat, sie auch gemeinsam anzukündigen.

Die Kollegen stellten dem Datenschutz-Manager auch die unbequeme Frage, ob Apple verschiedenen Regierungen und Behörden auf der Welt demonstrieren wollte, dass man Inhalte nach kriminellen Inhalten durchsuchen kann, ohne dabei den Datenschutz zu gefährden, entgegnete Neuenschwander, dass dies immer ein Ansatz bei Apple sei: Funktion samt Datenschutz. Auf diese Weise könne man illegale Handlungen aufdecken, ohne die Nutzer zu behelligen, die sich nichts zu Schulden haben kommen lassen.

Zudem erklärte der Apple-Manager, dass sich ohnehin nur wenig ändern werde. So blieben die über iMessage verschickten Nachrichten beispielsweise auch weiterhin Ende-zu-Ende verschlüsselt und sämtliche Scanvorgänge fänden ausschließlich auf den Geräten der Nutzer statt. Man habe auch keine Hintertür erstellt, die früher oder später für andere Dinge als das Suchen nach kinderpornografischen Inhalten genutzt werden könnte. Hier habe Apple nach wie vor den Finger drauf und werde andere Nutzungsarten nicht zulassen.

Auf die Frage ob Apple nicht auch dazu gezwungen werden könnte, weitere Dinge außer Kinderpornos über seiner Technologien zu identifizieren, beispielsweise durch Gesetze in Ländern außerhalb der USA, verwies Neuenschwander auf verschiedene Sicherheitsstufen, die Apple auf den Geräten implementiert hat. Unter anderem sei die Liste mit den Hashwerten, gegen die die Bilder abgeglichen werden direkt in das Betriebssystem integriert. Hier mache man keine Unterschiede in unterschiedlichen Ländern und die Liste ist in allen Ländern dieselbe. Zudem gibt es einen Schwellwert an Übereinstimmungen aus der Gesamtheit der Fotos eines Nutzers, der erreicht sein muss, ehe das System überhaupt anschlägt. Einzelne Fotos würden somit niemals auffällig werden. Drittens würde vor einer Meldung an die Behörden auch immer noch ein manuelles Review durchgeführt. Auch hier hat Apple die Hoheit und würde keine anderen erkannten Bilder als solche mit kinderpornografischen Inhalten melden. Last but not least bliebe dem Nutzer auch immer noch die Wahl, iCloud Fotos zu deaktivieren. In diesem Fall würden Apples Maßnahmen nicht anlaufen.

Interessant ist in diesem Zusammenhang natürlich auch noch einmal zu erwähnen, dass Apple bereits seit dem vergangenen Jahr Fotos auf seinen iCloud-Servern nach kinderpornografischen Inhalten durchsucht und dies seinerzeit auch bereits angekündigt hat. Werden dort welche entdeckt, werden diese ebenfalls an die zuständigen Behörden in den USA gemeldet. Das National Center for Missing and Exploited Children (NCMEC) veröffentlicht hierzu jährlich eine Statistik aus der hervorgeht, welches Unternehmen wie viele solcher Bilder gemeldet hat. Und so geht aus der aktuellen Statistik hervor, dass Apple im vergangenen Jahr gerade einmal 265 Verdachtsfällen gemeldet hat. Schaut man sich die Statistik einmal genauer an, taucht beispielsweise Facebook dort mit über 20 Millionen gemeldeten Fotos auf.

Während diese Tatsache einerseits beruhigt, da offenbar nur selten entsprechende Verdachtsfälle bei Apple auftauchen, wirft die Statistik umso mehr die Frage auf, was Apple denn wohl dazu veranlasst hat, bei gerade einmal 265 verdächtigen Bildern auf seinen Servern künftig alle Nutzergeräte gegen die CSAM-Hashs zu scannen. Im Endeffekt muss hier wohl gesagt werden, dass jeder einzelne Fall natürlich hochgradig tragisch ist und vermieden werden wollte. Ob der Kompromiss, den man dazu hinsichtlich der Hintertür-Diskussion eingehen muss dies wert ist, muss jeder für sich selbst entscheiden...

Trackbacks

Keine Trackbacks

Kommentare

Ansicht der Kommentare: Linear | Verschachtelt

Anonym am :

Alle unter Generalverdacht stellen geht gar nicht, damit schneidet sich Apple ins eigene Fleisch, obwohl es wahrscheinlich 99 Prozent der Nutzer nicht interessieren wird

DanSen am :

Es ist ein ganz schwieriges Thema. Ich denke wir alle haben ein Interesse daran bei der Aufdeckung von Straftaten zu unterst\374tzen und bspw. Kindesmisshandlungen zu verhindern. Jedoch darf die Bev\366lkerung nicht unter Generalverdacht gestellt werden. Mein iPhone, meine Fotos, meine Daten! Und nur weil ich diese Informationen in einem privaten Bereich eines Cloudspeichers ablege, d\374rfen diese Daten nicht einfach auf kriminelle Inhalte gescannt werden. Wenn ich diese Inhalte zu Hause im Schrank h\344tte kann ja auch nicht einfach die Polizei klingeln und mal meine Alben durchbl\344ttern - ganz ohne Verdacht. Wir kommen immer mehr dazu alle unsere Dokumente zu digitalisieren und auch wenn diese digital sind, sollten sie nur mir zug\344nglich sein!

Nordrocker am :

Ganz deiner Meinung.
Apple wird mir in letzter Zeit immer unsympathischer.

LeonR am :

Finde die Entwicklung auch bedenklich. Bei allen guten gedanken die dahinter stecken m\366gen. Man stelle sich nun mal Teenager vor, 16 Jahre, frisch verliebt, Vl Fernbeziehung. Sie kriegen Sehnsucht nacheinander und schicken sich Fotos. Sollen diese nun erkannt und manuell gepr\374ft werden? Hallo? Das geht doch keinen Mitarbeiter etwas an\u2026 Und gerade in Anbetracht der geringen Zahlen\u2026 der Wirbel den das verursacht wird zumindest in der organisierten Kriminalit\344t l\344ngst daf\374r gesorgt haben, dass man hier garantiert auf Apple verzichten und somit diese Scans umgehen wird. Die sind doch nicht bescheuert\u2026 Ein paar werden es versehentlich nicht tun und die werden dann hoffentlich geschnappt - dennoch will ich nicht dass daf\374r meine pers\366nlichen privaten Bilder gescannt und vl sogar manuell von Mitarbeitern gepr\374ft werden. Generalverdacht geht garnicht!

Gruml am :

Es ist nur eine Frage der Zeit, bis Kriminelle und Geheimdienste das neue System nutzen, um Leute zu erpressen oder mundtot zu machen. Ich traue Apple es leider nicht zu, das ganze tatsächlich so abzusichern, dass das nicht gelingen würde.

Pegasus, Jailbreaks, und Jahrzehnte z.T. sicherheitsrelevanter ungefixter Bugs beweisen ja, dass Apple die Sicherheit nicht wirklich im Griff hat.

Apple bekommt es ja noch nicht mal hin (schon seit iOS 10), wenn ich die Mail-App explizit auf manuellen Abruf konfiguriere, die Mails tatsächlich nur dann abzurufen, wenn ich das manuell tue. Nein die ruft die Mails immer noch vollautomatisch im Hintergrund ab. Das ist ein lange bestehendes Sicherheitsproblem, speziell wenn man in fremden WLANs (z.b. im Hotel) eingeloggt ist. Das ist simples Problem, und Apple ist damit schon überfordert. Wie soll es denn dann erst bei den CSAM-abgleichen werden, wo der Missbrauch für den Nutzer extrem gefährlich werden kann. Der Satz, „wer nichts zu verbergen hat, brauch nichts zu fürchten“ gilt dann nicht mehr.

Anonym am :

Die Konsequenz: werde nicht updaten und meine eh schon \344lteren Ger\344te noch eine Weile Nutzen und nichts mehr von Apple kaufen. Bin eh bereit vom Smartphone weg zu gehen und komme mit nem normalen Telefon ala Nokia aus . So einfach kann das Leben sein\ud83e\udd37\u200d\u2642\ufe0f

SOE am :

Ein Datenschutz(!)-Manager der sagt "Wer nichts zu verbirgt, hat nichts zu befürchten".
Newsflash: Das entscheidet die Gegenseite. In diesem Fall (auch) ein Computer.

Ein Datenschutz-Manager, der sagt "Wir haben Sicherheitsmaßnahmen, um uns gegen Gesetze und Anordnungen zu wehren."

So wie gegen die geforderte Steuernachzahlung der EU, für die Milliarden auf einem Treuhandkonto liegen, bis der Prozess abgeschlossen ist?

Oder lieber die NationalSecurity-Letters? Apple darf nicht mal genau sagen darf, wie viele geheime Durchsuchungen es bei iCloud gibt. Und tut es auch nicht.

Ihr müsst es euch selber überlegen:
Entweder Apple glaubt wirklich, sie würden inzwischen über dem Gesetz stehen. Oder sie lügen euch ins Gesicht.

Joe am :

Mitarbeiter von Apple f\374hren eine Bewertung von m\366glicherweise illegalen Bildern durch und informieren anschlie\337end die Ermittlungsbeh\366rden.
Ist es inzwischen legal, das Privatunternehmen solche Aufgaben einf\374hren und \374bernehmen.
Finde ich erschreckend.

Detlef am :

Gilt das auch schon bei iOS 14 oder erst fix ab iOS 15?

Gibt es da ein sichere Aussage?

Nicht, dass der Scheixx dann bei 14 auch noch nachgereicht wird

SOE am :

Ich glaube nicht.
Denn das ist ein massiver Eingriff in das Betriebsystem und Apple ist zu klein, um sich genug Entwickler leisten zu können, Funktionen nachzureichen.

Ernsthaft. Das haben die noch nie gemacht.

Und aus Apple's Wahn heraus ist diese Funktion ein tolles Feature und Grund zu upgraden.

Kommentar schreiben

Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.
Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
Formular-Optionen