• Homepage
  • Das iOS
  • App Store Perlen
  • Privates
  • Kontakt

Aug 5: Mit iOS 15, macOS Monterey und Co.: Apple kündigt neue Funktionen zum Schutz von Kindern an

Die früher am heutigen Tag durchgesickerten Informationen zum Thema Kindersicherheit sind nun offiziell. Auf einer neuen Webseite hat Apple dabei auch Informationen zu dem vorhin thematisierten Abgleich von Fotos auf dem iPhone, iPad und Mac mit Hashwerten zur Erkennung von Kindesmissbrauch bekanntgegeben. Dieser wird allerdings nur ein Teil einer größer angelegten Offensive zum Thema Kindersicherheit sein, die zunächst ausschließlich in den USA, später aber auch in anderen Regionen, mit iOS 15, iPadOS 15 und macOS Monterey umgesetzt wird.

Mit einbezogen wird dabei auch iMessage, welches mit einer "Communication Safety" Funktion ausgestattet wird, die Kinder und ihre Eltern warnt, sobald sexuell anzügliche Fotos empfangen werden. Die Erkennung funktioniert auch in diesem Fall auf Basis von Maschinenlernen und findet komplett lokal auf dem Gerät statt. Sollte die Funktion anspringen, wird das empfangene Bild automatisch verschwommen dargestellt und eine entsprechende Meldung angezeigt. Sind die entsprechenden Schalter in der Familienfreigabe aktiviert, können sich auch Eltern über den Empfang eines solchen Bildes informieren lassen.

Ebenfalls mit iOS 15 und iPadOS 15 wird Apple die heute Nachmittag thematisierte automatische Erkennung von Bildern mit sogenanntem "Child Sexual Abuse Material" (CSAM), als Darstellungen von sexuellem Missbrauch von Kindern umsetzen. Wurden mehrere solcher Bilder in einem Account entdeckt, meldet Apple dies an das National Center for Missing and Exploited Children (NCMEC), eine Non-Profit -Organisation, die mit den Strafverfolgungsbehörden in den USA zusammenarbeitet. Dabei betont Apple, dass man auch bei der CSAM-Erkennung den Datenschutz in den Mittelpunkt stelle. Wie bereits berichtet, wird die Erkennung der Bilder auf Basis von Hashwerten aus der Datenbank der NCMEC und anderen Organisationen für den Schutz des Kindeswohls durchgeführt. Die dabei zum Einsatz kommende Technologie hört auf den Namen "NeuralHash" und vergleicht Hashwerte von Bildern auf denen Kindesmissbrauch zu sehen ist mit denen auf den Geräten. Hierzu schreibt das Unternehmen in einem neuen Whitepaper:

"The main purpose of the hash is to ensure that identical and visually similar images result in the same hash, while images that are different from one another result in different hashes,. For example, an image that has been slightly cropped, resized or converted from color to black and white is treated identical to its original, and has the same hash."

Die Bilderkennung wird wie gesagt auf dem Gerät selbst durchgeführt, bevor die Fotos auf iCloud Fotos hochgeladen werden. Wurde dabei eine Übereinstimmung festgestellt, wird das Bild entsprechend gekennzeichnet und anschließend hochgeladen. Wurde eine nicht näher benannte Anzahl von Übereinstimmungen bei einem Account festgestellt, werden diese manuell überprüft, der betroffene iCloud-Account deaktiviert und eine Meldung an das NCMEC getätigt. Zwar macht Apple zu dem Vorgang keine konkreten Angaben, versichert aber, dass man für einen "extremely high level of accuracy" sorgen und sogenannte "False-Positives" so weit es geht minimieren werde. Sämtliche Informationen hierzu lassen sich einer veröffentlichten technischen Dokumentation und der neuen Child Safety Webseite entnehmen.

Als dritte Maßnahme wird Apple Anpassungen bei Siri und der Spotlight-Suche auf all seinen Geräten vornehmen, um weiter sicherzustellen, dass sich Eltern und ihre Kinder sicher im Internet bewegen können und schnelle Hilfe in unsicheren Situationen erhalten. Beispielsweise werden entsprechende Ressourcen angeboten, wenn Nutzer Siri fragen, wie und wo sie Kindesmissbrauch melden können.

Wie bereits weiter oben erwähnt, werden sämtliche Neuerungen in diesem Herbst mit iOS 15, iPadOS 15, watchOS 8 und macOS Monterey eingeführt. Dies gilt  zunächst ausschließlich für die USA, soll jedoch schrittweise auch auf andere Regionen ausgeweitet werden.

Geschrieben von Florian Schimanke am Donnerstag, 5. August 2021 um 21:34 in Apple
Kommentare: (5) Trackbacks: (0)
Tags für diesen Artikel: apple, ios, ipados, kindersicherung, macos, watchos
Artikel mit ähnlichen Themen:
  • Apple sichert sich TV-Rechte an Gregory David Roberts Roman "Shantaram"
  • Neue AirPods Pro Generation könnte über Bewegungssensoren zum Fitnesstracking verfügen
  • Apple-Mitarbeiter müssen ab September wieder drei Tage die Woche am Apple Park arbeiten
  • Neue Amazon Prime Video App startet auf den deutschen Apple TVs
  • Forscher bestätigen: Apple Watch kann zuverlässig Herzinfarkte erkennen
  • Apple veröffentlicht neue Betas von iOS/iPadOS 16, macOS Ventura, watchOS 9 und tvOS 16
  • Apple TV+ Serien "Ted Lasso" und "Severance" räumen bei HCA TV Awards ab
  • Neues Einstiegs-iPad gemeinsam mit neuen iPad Pro auf Oktober-Event erwartet
  • Apple möchte offenbar seine Einnahmen über Werbung beinahe verdreifachen
  • macOS Ventura: Apple entfernt die "Netzwerkumgebungen" aus den Einstellungen

Trackbacks
Trackback-URL für diesen Eintrag

Keine Trackbacks

Kommentare
Ansicht der Kommentare: (Linear | Verschachtelt)

#1 - Tom 06.08.2021 06:08 - (Antwort)

Microsoft wurde ja mit seinen false positives berühmt.
Hatten damit Familien zerstört.
Unschuldig

#2 - Tom 06.08.2021 06:24 - (Antwort)

Macht Apple das nicht schon heimlich seit 2019?
https://www.ifun.de/apple-prueft-icloud-fotos-auf-kindesmissbrauch-138935/

Was wird danach gescannt?
Das ist nur der erste Schritt - es geht um andere Dateien, die dann auch in weiterer Form geprüft werden.
9/11 zieht für Datenzugang nicht mehr.


Somit ist Zugriff zu allen Fotos auf dieCloud für die Behörden gegeben.
Im Zuge einer Rasterfahnung kann man dann noch immer sagen - sorry false positive.

#3 - WHC 06.08.2021 07:15 - (Antwort)

Das wird sehr schwierig mit den Millionen von  😊 😊 Baby- Kinder-Bildern. Das wird schneller eingestampft, wenn die Basis ihre gemachten/geteilten Bilder entfernt bekommt. Rechtlich auch sehr schwierig, nach Landesrecht .

#4 - RR703 sagt:
06.08.2021 08:42 - (Antwort)

Sind aber auch alle selbst schuld, wenn sie Daten wie Bilder oder Dokumente unverschlüsselt in Clouds hochladen oder generell hochladen.

#4.1 - Tom 06.08.2021 18:34 - (Antwort)

Das hat nichts mit der Cloud zu tun - alle Daten werden am Handy gescannt - vorerst mal die Bilder - später dann auch Dokumente u.a.


Kommentar schreiben

Hinweis:
Bei der Abgabe eines Kommentars auf meinem Blog werden die in das Formular eingetragenen Daten und unter Umständen auch personenbezogene Daten, wie z.B. die IP-Adresse an meinen Webhosting-Provider (1&1), sowie an den Spamblock-Dienstleister Akismet übertragen und dort gespeichert. Als Pflichtfelder werden ausschließlich der Name (auch Pseudonyme möglich) und der Kommentar benötigt. Die optional angegebene E-Mail-Adresse wird nicht öffentlich dargestellt, sondern dient nur für eventuelle Benachrichtigungen bei Folgekommentaren. Alle Daten werden HTTPS-verschlüsselt übertragen. Mit der Nutzung dieses Formulars wird der Datenübertragung zugestimmt. Weitere Einzelheiten und Informationen dazu gibt es in meiner Datenschutzerklärung.

Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
 
 

Werbung:


Werbung:

Unterstützung

Alle Links in den iTunes Store sind Partnerlinks. Wer hierüber einkauft, unterstützt Flo's Weblog mit einen kleinen Prozentsatz des unveränderten Kaufpreises. Selbes gilt auch für Einkäufe bei Amazon und weiteren ähnlichen Anbietern. Über die Spenden-Funktion innerhalb der App besteht ebenfalls die Möglichkeit, Flo's Weblog finanziell zu unterstützen. Ich bedanke mich schon jetzt für die Unterstützung!

Kalender

Zurück August '22 Vorwärts
Mo Di Mi Do Fr Sa So
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        
Steve Jobs 1955-2011
 

Impressum | Datenschutz
© by Florian Schimanke | Template based on Andreas08