Apples Software-Chef Craig Federighi äußert sich zu den geplanten Kinderschutz-Funktionen
Es vergeht derzeit kaum noch ein Tag, ohne den Apples neue Kinderschutzfunktionen thematisiert werden, die im Herbst mit iOS/iPadOS 15, macOS Monterey und Co. kommen werden. Nun hat sich auch Apples Software-Chef Craig Federighi in einem Interview mit dem Wall Street Journal zu Wort gemeldet und die geplanten Funktionen versucht zu erklären. Grundsätzlich ist man sich bei Apple offenbar der Tatsache bewusst, dass es keine gute Idee war, die drei Features gemeinsam anzukündigen, da hierdurch auch Maßnahmen und ihre Umsetzung vermischt wurden, was nicht der Realität entspräche. Die Kommunikation hätte laut Federighi deutlich besser laufen müssen.
So wahnsinnig viel Neues konnte Federighi in dem Interview allerdings auch nicht erzählen. Er betonte beispielsweise erneut, dass das Scannen der Benutzerfotos auf kinderpornografische Inhalte nur dann vorgenommen werde, wenn diese auf iCloud hochgeladen werden. Ist iCloud Fotos deaktiviert, ist auch der Scan deaktiviert. Dies hätte man deutlicher kommunizieren müssen. Man sei bei Apple weiterhin fest davon überzeugt, dass der geplante Weg der richtige sei, dass er jedoch in der Öffentlichkeit nicht korrekt verstanden werde. Noch einmal betonte Federighi, dass die Alarmglocken nicht bei wenigen übereinstimmenden Hashwerten anspringen würde, sondern erst nach Erreichen eines bestimmten Schwellwertes. Anschließend würde eine manuelle Überprüfung der Bilder durch Apple erfolgen und erst danach würden in einem bestätigten Fall der iCloud-Account des Nutzers deaktiviert und die zuständigen Behörden informiert werden.
Vor allem der Schwellwert war bisher ein Mysterium in dieser Beziehung. Federighi ließ nun verlauten, dass dieser irgendwo um die 30 übereinstimmenden Hashwerte liegen würde. Dies wurde auch in einem neuen Dokument bestätigt, welches Apple zur weiteren Aufklärung veröffentlicht hat. Beim manuellen Review würden die handverlesenen Apple-Mitarbeiter auch nur die als auffällig markierten Bilder zu Gesicht bekommen, nicht jedoch alle anderen Bilder des Nutzers.
In dem oben verlinkten Dokument erklärt Apple zudem, dass die Datenbank mit Hashwerten, gegen die die Bilder abgeglichen werden, mit Inhalten gefüllt ist, die von mindestens zwei Organisationen zur Kindersicherheit eingereicht wurden. Darüber hinaus wird Apple auch noch ein Support-Dokument veröffentlichen, in dem man auch den Root-Hash der verschlüsselten CSAM-Datenbank enthalten sein wird, die ab Herbst mit iOS 15 und Co. auf die Geräte der Nutzer ausgerollt wird. Hiermit kann sichergestellt werden, dass die Datenbank auf dem Gerät auch tatsächlich die ist, die Apple für den Kinderschutz vorgesehen hat. Der Bloomberg-Kollege Mark Gurman ergänzt, dass Apple auch noch ein externes Audit zur geplanten Technologie durchführen lassen wird, welches die Sicherheit der Nutzerdaten bestätigen soll.
Doch zurück zu Federighi. Angesprochen auf eine mögliche Hintertür, die Apple mit der Funktion in seine Systeme auch für andere Anwednungsfälle einbauen würde, widersprach der Software-Chef vehement und wiederholte, dass vor allem durch die mehrstufige automatische und manuelle Überprüfung der Fälle ein Missbrauch der Funktionen ausgeschlossen sei. Man werde auch künftig Behörden keinen weiterreichenden Zugriff auf die Daten seiner Nutzer gewähren.
Eine gänzlich andere Funktion sei hingegegn die Überprüfung von über die Nachricten-App auf dem iPhone empfangenen und versendeten Medien. Diese werden zwar ebenfalls auf potenziell anzügliche Inhalte untersucht, dies habe allerdings nichts mit der oben erläuterten Funktion zu tun. Vielmehr trägt man damit der Sorge vieler Eltern Rechnung, ihre Kinder könnten auf diese Weise belästigt werden. Diese Funktion ist ausschließlich für Kinder unter 13 Jahren aktiviert und auch nur dann, wenn diese einen Account im Rahmen der Familienfreigabe besitzen. Dank der nach wie vor bestehenden Ende-zu-Ende Verschlüsselung von iMessage, seien hier keine Gefahren zu erwarten. Apple sei es laut Federighi viel mehr gelungen, die Sicherheit der Kinder und den Datenschutz dank der genutzten Technologien unter einen Hut zu bekommen.
Kommentare
Ansicht der Kommentare: Linear | Verschachtelt
SOE am :
Die können sich nicht vorstellen, dass auch eine gut bewachte Hintertür, eine Hintertür ist.
Dass von einem Konzern, der jedes Jahr nicht mal die genaue Zahl der NationalSecurity-Letters veröffentlichen darf. Und es auch nicht tut.
Außerdem gibt Craig in dem Video zu, dass die künstliche Intelligenz, welche die iMessages prüfen soll, "nicht perfekt" funktioniert. Wir wissen von Facebook und Youtube, dass KI auch Sofa mit Pistolen und Miauen mit Musik verwechselt. Aber vielleicht benutzt der Konzern streng geheimen Gummibärensaft.
Auch dass Apple, an dessen Spitze ein schw*ler Mann steht, nicht begreifen will, was es für Kinder bedeuten wird, deren Eltern sich eine bestimmte se*uelle Orientierung wünschen, macht mich sprachlos.
Vielleicht sollte man Cookie bei der nächsten Anhörung nicht fragen, was ein Liter Milch kostet, sondern ob er schon mal "Schw*chtel" genannt wurde. Einmal testen, in welchen Sphären die sich bewegen.
Meine Güte. Jedes Interview, jedes Dokument von Apple macht es nur schlimmer.
Dabei wurde mir vor einer Woche noch vorgeworfen, ich wäre zu pessimistisch, was diesen Wahnsinn angeht.
Hans am :
Und ganz ehrlich, iCloud ausschalten ist schon eine deutliche Kastrierung alleine schon wenn man mehrere Ger\344te hat.
David am :
Flo am :
SOE am :
Denn Apple verspricht, dass auch geänderte Bilder erkannt werden. Das geht aber nur, wenn nicht nach dem eindeutigen Hash gesucht wird. Der ändert sich nämlich schon, sobald das Bild in einem anderen Format hochgeladen wird oder beschnitten wird.
Da wir den Algorithmus nicht kennen und dieser zur Sicherheit auch nie kontrolliert wird, ist aus meiner Sicht die Befürchtung berechtigt, dass Hunderttausende Falsch-Positiv von Mitarbeitern kontrolliert werden müssen.
Nordrocker am :
Ich kenne aus dem Bekanntenkreis einen Fall, der bereits ca. 20 Jahre zur\374ck liegt.
Dieser Bekannte hat f\374r seinen PC Online eine Software gekauft.
Ca. 5 Jahre sp\344ter stand die Kripo bei ihm vor der T\374r.
Er und seine Frau waren arbeiten und nur die 15 j\344hrige Tochter war zu Hause.
Weil bei der Firma wo er die Software gekauft hatte, nachweislich pornografisches Material gefunden wurde, wurde ALLE Kunden erstmal pauschal unter Verdacht gestellt und als T\344ter gef\374hrt.
Die Kripo hat die Rechner konfisziert und die Tochter einer Befragung unterzogen bevor die Eltern wieder zu Hause waren. Es gab sogar einen Anruf beim Arbeitgeber weil man die Durchwahl des Mannes nicht hatte und man hat sich als Herr Xxxx von der Kripo ausgegeben.
Am Ende konnte man meinem Bekannten nichts nachweisen, weil er einfach nichts strafbares getan hat.
ABER, bis heute hat er Angst sich mit Kindern fotografieren zu lassen oder zu engen Kontakt zu seinen Enkelkindern zu haben weil ihm immer noch die Angst im Nacken sitzt.
Deshalb habe ich Null Verst\344ndnis daf\374r das Apple so eine. Software einsetzt ohne garantieren zu k\366nnen das diese zumindest zu 99,99% fehlerfrei funktioniert und ohne das genauesten erkl\344rt wird wie das alles genau abl\344uft und welche Art Fotos definitiv als bedenklich vorsortiert werden.
Da Apple gerade das in meinem Augen wichtigste Argument f\374r Apple torpediert, n\344mlich den Datenschutz und die Privatsph\344re, sehe ich in Zukunft keinen Mehrwert mehr darin in \374berteuerte Hardware aus dem Hause Apple zu investieren.
S\344mtliche Familienfotos sind bereits aus der Foto Mediathek gel\366scht. Ebenso alle anderen Dokumente aus der iCloud. Die iCloud wird dann in Zukunft nur noch f\374r Fotos von Tieren, Landschaft, Archtektur usw. genutzt und alles andere kommt nicht mehr in die Cloud.
Wenn Apple das gerne so m\366chte, bin ich ab der n\344chsten Vertragsverl\344ngerung wieder bei der Konkurrenz und spare eine Menge Geld.
Am meisten \344rgert mich dabei das ich erst in diesem Jahr in ein neues iPhone 12 Pro Max und eine MBP M1 investiert habe und die Ger\344te nur mit H\366hen Verlust wieder verkaufen k\366nnte. W\374rde ich nur ansatzweise den Kaufpreis wieder bekommen w\344re ich als Apple Kunde sofort weg.
Anonym am :
Anonym am :
Nordrocker am :
Microsoft hat mit diesem Mist ja auch schon lange angefangen und immer mehr User klagen \374ber gesperrte Accounts ohne sich erkl\344ren zu k\366nnen warum sie gesperrt wurden. Microsoft gibt solchen Usern auch keine Auskunft dar\374ber warum genau diese Account gesperrt wurden. Deswegen hat Microsoft mich schon als Kunden verloren.
So wie Apple das bisher kommuniziert k\366nnte den Usern dort genau das gleiche drohen. Also ziehe ich auch hier die Reissleine bevor mein Account durch irgendeinen fehlerhaften Algorithmus gesperrt wird und ich dann mit einem Anwalt dagegen vorgehen muss.
David am :
Matte am :
Floyd Pepper am :
Ist ja quasi wie eine Hausdurchsuchung und die ist in D nur nach Anordnung eines Richters rechtens!
Floyd Pepper am :
So gut gemeint das auch ist, aus meiner Sicht ist das Ganze ein schwerer Schlag gegen den Datenschutz! Hintert\374r bleibt Hintert\374r! Und wird Dritte zu weiteren Pr\374fungen verf\374hren! KPorn dient leider auch auf EU Ebene zu Begehrlichkeiten, vor allem seitens der Konservativen!
Anonym am :
MYHTOSmovado am :
Er sagte weiterhin, das Gerät gehört dem Kunden. Und dort wird nicht einfach so gescannt.
So hab ich das verstanden.
Pixelkind am :
ckingpin am :
SOE am :
Was das Erkennen von illegalen Bildern durch eine Hintertür mit "Gender-Konformität" zu tun hat, müsstest du ebenfalls erklären.
Ja, die Unternehmen tun es und es ist sogar gewünscht. Siehe allein die Gesetze in Deutschland: NetzDG, Uploadfilter, Terrorerkennung, etc. Wird alles ausgelagert.
Webcruise am :
Nur danach wird gesucht. Eure Fotos haben da nicht diese Signatur. Klar k\366nnen da bei den Milliarden Fotos \344hnliche Signaturen auftreten die dann von einem Menschen gepr\374ft werden.
Die Frage die sich doch stellt ist doch: wollen wir diese Schweine fassen oder nicht. Man muss sich ja nur in die Lage der Menschen versetzen (Kinder und Eltern) die dadurch in Mitleidenschaft gezogen wurden, sowas pr\344gt f\374r das ganze Leben.
Zumindest traue ich Apple eher zu da entsprechende Sicherungsma\337nahmen getroffen zu haben als der eigenen Regierung oder Google.
Viele Gr\374\337e, Alexander
SOE am :
Deine zweite Aussage ist komplett falsch:
Apple gibt an, dass nach ähnlichen Bildern gesucht wird. Um eben auch die zu erkennen, welche nachbearbeitet wurden. Zugeschnitten, überbelichtet, etc.
Und nein, die Frage ist nicht, ob man Menschen fassen will, die solche Bilder besitzen oder teilen.
Die Frage ist: Ist es den Schaden für die anderen Milliarden wert?
Weil "Die K*nder!" bisher im Nachhinein nur eine Ausrede war, nach dem Motto: "Wenn wir es haben, setzen wir es auch gegen alles andere ein."
Und noch mal:
Es geht nicht darum, welche angeblichen Schutzmechanismen Apple eingebaut hat. Es geht darum, dass diese Mechanismen missbraucht werden. Ganz legal durch neue Gesetze, die Apple zwingen werden, das System auch für alles andere zu benutzen.
Sad fact:
Diese Str*ftaten finden in 99 von 100 Fällen im direkten, persönlichen Umfeld statt. Aber die T*ter und T*terinnen können in der Regel unbehelligt schalten, weil alle immer an professi*nelle Untergr*ndnetzwerke denken, wenn sie von solchen Bildern hören. Es passiert nebenan, vielleicht sogar bei deinen K*ndern.
Man könnte mehr K*nder schützen, indem man einfach die Augen aufmacht.
Georg am :
Das macht man dich auf Untergrundseiten
Wozu also die iCloud von Millionen zahlenden Kunden scannen und manuell \374berpr\374fen.
Kein Applemitarbeiter sollte sich auch nur ein privates icloud-Bild ansehen d\374rfen ohne Staatsanwalt.
Nordrocker am :
Wer garantiert dir das Fotos deiner eigenen Kinder, die nichts kinderpornografisches zeigen nicht doch als verboten eingestuft werden?
Anonym am :
SOE am :
Laut deren Sicherheitsversprechen wird der Algorithmus eben nicht geprüft. Um Manipulationen zu vermeiden. Das ist Aussage von Apple.
Wenn wir das aufs Auto übersetzen:
Beim Audit ist man einmal um das Fahrzeug rumgegangen und hat getestet, ob es 200 km/h fahren kann. Es wurde weder die Motorhaube geöffnet, noch geprüft wie der Wagen bei Glätte reagiert.
MYTHOSmovado am :
Nordrocker am :
Manchmal muss man mal mehr Augenmerk auf das legen was nicht gesagt wird. \ud83d\ude09
Nur weil Apple mir etwas versichert muss ich das nicht alles auch einfach glauben. Schon gar nicht wenn ich das nicht kontrollieren oder plausibel nachvollziehen kann.
Google mal nach gesperrten Account von Microsoft Usern um zu erkennen welche Gefahren diese Algorithmen bergen.
MYHTOSmovado am :
Du hast den Artikel gelesen. Eine Meinung also zu diesem Thema. Ist ja auch nicht wirklich verwerflich. Viele lesen viele Artikel. Diese sind geschrieben von Artikel-Schreibern, die die Marterie (auch) nicht verstanden haben und daher mehr verwirren, als korrekt aufzuklären?! (nix gegen Dich, Flo)
Es wird für den Leser, vor allem dem, der immer nur Headlines liest, alles andere als klar(er).
Den einzigen Fehler, den Apple bis zum jetzigen Zeitpunkt gemacht hat ist (in meinen Augen), nicht die Doofheit der Leser, die sich in ihren Kommentaren leider wie potentielle Kinderfixxer gebärden, zu bedenken. Klar kann man Kritik üben, aber in diesem Fall klingt sie halt ziemlich mehrdeutig.
Bis jetzt wars doch so:
Apple schreibt sich den Datenschutz auf die Fahnen, kann sich also tatsächlich gar nicht erlauben, hier etwas (für Dritte) zu öffnen, was dem entgegensteht.
Alle Vermutungen hierzu sind genau das, Vermutungen.
Glaubt ihr wirklich, Apple setzt das alles aufs Spiel? Ernsthaft?
Ich empfehle, das im obigen Artikel beigefügte Video (gern mehrmals) zu studieren. Falls ihr des Englischen nicht sooo mächtig seid, könnt ihr es ja auch spontan übersetzen lassen (muss man leider erwähnen, das wissen wohl viele nicht?!)
Sepp am :
Deine berechtigte Frage ist warum. Warum sollte Apple diese Hintert\374r schaffen und damit das bisherige Konzept konterkarieren ?
Nordrocker am :
Wie verb\374ndet muss man sein um alles was von Apple kommt immer sch\366n zu reden.
Fakt ist es gibt bisher keine detaillierte Erkl\344rung was dort im Hintergrund passiert. Es wird nicht mal erkl\344rt was f\374r Menschen dort angeblich eine weitere \334berpr\374fung g durchf\374hren wenn der Algorithmus dich als T\344ter einstuft. Sind das einfache Apple Mitarbeiter? Sind die von entsprechenden Stellen die Kinderpronografie bek\344mpfen ausgiebig geschult worden? Usw., usw.
Fragen \374ber Fragen die leider nach wie vor unbeantwortet bleiben.
Wenn ich in dem mehr als einem halben Jahrhundert m, das ich bisher gelebt habe, eines gelernt habe, dann das man nicht einfach blind vertrauen sollte.
Hinter blumigen Worten versteckt man in der Regel nur die unbequeme Wahrheit.