Skip to content

Apples "Communication Safety" Funktion für Kurznachrichten kommt nach Deutschland

Mit einer Offensive in Sachen Kindersicherheit hatte Apple im vergangenen Sommer eine Menge Unmut auf sich gezogen. Vor allem der geplante Scan von Nutzer-Mediatheken auf mutmaßlich kinderpornografische Inhalte sorgte dabei nicht nur bei den Nutzern, sondern auch bei Datenschützern für große Entrüstung. Während Apple die Pläne zu diesen sogenannten CSAM-Scans inzwischen von seinen Webseiten entfernt hat und unklar ist, ob sie überhaupt noch verfolgt werden, wurde mit "Communication Safety" eine weitere, durchaus willkommene, Funktion mit iOS 15.2 bereits eingeführt.

In einem Support-Dokument erklärt Apple die standardmäßig ausgeschaltete Funktion ausführlich. Aktiviert werden kann sie für minderjährige Familienmitglieder in den Bildschirmzeit-Einstellungen. Ist dies geschehen, werden über Apples Nachrichten-App ein- und ausgehende Fotos überwacht und bei einem Verdacht auf Nacktheit oder sonstige explizite Inhalte ausgegraut dargestellt. Anschließend stehen verschiedene Aktionen zur Verfügung, unter anderem eine Kontaktaufnahme mit den Eltern oder einer anderen Hilfestelle.

Bisher war die Verfügbarkeit der Funktion ausschließlich auf die USA und weitere englischsprachige Regionen, darunter in Großbritannien, Kanada, Neuseeland und Australien beschränkt, eine internationale Ausweitung war aber ohnehin nur eine Frage der Zeit. Seit der gestern Abend veröffentlichten vierten Betaversion von iOS 16 ist die Funktion nun auch für deutsche Nutzer implementiert, berichtet der Spiegel. Mit der allgemeinen Verfügbarkeit des nächsten großen iOS-Updates wird dann "Communication Safety" also auch hierzulande an den Start gehen.

Standardmäßig aktiviert ist die Funktion allerdings wie gesagt nicht, sie muss erst von einem Elternteil innerhalb der Familienfreigabe aktiviert werden. Stimmt der Sprössling bei Erhalt einer verdächtigen Nachricht der Anzeige zu, werden die Eltern allerdinds (anders als ursprünglich von Apple vorgesehen) nicht hierüber informiert. Weiterhin werden den Kindern in diesem Fall allerdings Kontaktstellen angeboten, an die sie sich vertrauensvoll wenden können.

Hintertür in Messenger-Diensten: EU will einführen, wovon sich Apple schon wieder verabschiedet hat

Mit einer Offensive in Sachen Kindersicherheit hatte Apple im vergangenen Sommer eine Menge Unmut auf sich gezogen. Vor allem der geplante Scan von Nutzer-Mediatheken auf mutmaßlich kinderpornografische Inhalte sorgte dabei nicht nur bei den Nutzern, sondern auch bei Datenschützern für große Entrüstung. Während Apple die Pläne zu diesen sogenannten "CSAM-Scans" inzwischen von seinen Webseiten entfernt hat und unklar ist, ob sie überhaupt noch verfolgt werden, wurde mit "Communication Safety" eine weitere, durchaus willkommene, Funktion mit iOS 15.2 bereits eingeführt. Nun allerdings sieht es so aus, als wäre Apple beinahe gezwungen, das CSAM-Scan wiederzubeleben. Grund ist die neue "Festlegung von Vorschriften zur Verhütung und Bekämpfung des sexuellen Missbrauchs von Kindern" der EU, die nun, begleitet durch eine Pressemitteilung, in einer ersten Fassung veröffentlicht wurde.

Zusammengefasst möchte die EU die Anbieter von sozialen Netzwerken und Messenger-Diensten wie WhatsApp oder eben auch iMessage dazu verpflichten, die Chats auf kinderpornografische Inhalte und sexualisierte Gewalt an Kindern zu überprüfen. Der Ansatz der EU greift allerdings noch deutlich weiter und will bereits die Kontaktaufnahme mit Kindern durch Erwachsene erkennen lassen, die eine (mutmaßliche) Missbrauchsabsicht verfolgen. Auf diese Weise würden nicht nur über die Medien verschickte Fotos und Videos gescannt werden müssen, sondern auch der komplette Test in den Chats.

Während die hinter der geplanten Vorschrift stehende Absicht ohne Zweifel begrüßenswert ist, bleibt die Kritik an einem solchen Vorgehen, der sich auch schon Apple bei der Ankündigung seiner CSAM-Scans ausgesetzt sah. So dürften die Scans von verschickten Medien und Chats eine Hintertür in den inzwischen flächendeckend Ende-zu-Ende verschlüsselten Nachrichten darstellen, die Tür und Tor für einen Missbrauch selbiger öffnen würde.

Schon länger wünschen sich vor allem Strafverfolgungsbehörden den Zugriff auf die verschlüsselten Chats. Ob man den EU-Vorstoß nun hiermit in Verbindung bringen möchte, muss jeder selbst entscheiden.

Apples "Communication Safety" Funktion für Kurznachrichten kommt nach Großbritannien

Mit einer Offensive in Sachen Kindersicherheit hatte Apple im vergangenen Sommer eine Menge Unmut auf sich gezogen. Vor allem der geplante Scan von Nutzer-Mediatheken auf mutmaßlich kinderpornografische Inhalte sorgte dabei nicht nur bei den Nutzern, sondern auch bei Datenschützern für große Entrüstung. Während Apple die Pläne zu diesen sogenannten CSAM-Scans inzwischen von seinen Webseiten entfernt hat und unklar ist, ob sie überhaupt noch verfolgt werden, wurde mit "Communication Safety" eine weitere, durchaus willkommene, Funktion mit iOS 15.2 bereits eingeführt.

In einem Support-Dokument erklärt Apple die standardmäßig ausgeschaltete Funktion ausführlich. Aktiviert werden kann sie für minderjährige Familienmitglieder in den Bildschirmzeit-Einstellungen. Ist dies geschehen, werden über Apples Nachrichten-App ein- und ausgehende Fotos überwacht und bei einem Verdacht auf Nacktheit oder sonstige explizite Inhalte ausgegraut dargestellt. Anschließend stehen verschiedene Aktionen zur Verfügung, unter anderem eine Kontaktaufnahme mit den Eltern oder einer anderen Hilfestelle.

Aktuell ist die Verfügbarkeit der Funktion ausschließlich auf die USA beschränkt, eine internationale Ausweitung war aber ohnehin nur eine Frage der Zeit. Nun berichtet der Guardian, dass "Communication Safety" in Kürze auch ijn Großbritannien an den Start gehen wird. Ob Apple dann zeitgleich auch weitere euopäische Länder mit ins Boot holt, ist aktuell aber unklar.

Apple: Keine Änderung an SCAM-Scan Plänen, weitere Informationen zu "Communication Safety"

Gestern hatte ich berichtet, dass Apple passend zur Veröffentlichung von iOS 15.2 am vergangenen Montag seine Webseite zum Thema Kinderschutz überarbeitet und dabei sämliche Pläne zur Einführung einer Durchsuchung der Nutzer-Mediatheken auf kinderpornografische Inhalte ersatzlos entfernt hat. So finden sich auf der Webseite inzwischen ausschließlich Informationen zu den mit iOS 15.2 eingeführten Maßnahmen, nämlich der "Communication Safety" in Kurznachrichten und den verbesserten Warnhinweisen über Siri, Spotlight und die Safari-Suche. Entsprechend lag der Schluss nahe, dass sich Apple nach der heftigen Kritik am sogenannten CSAM-Scan von diesen Plänen Abstand zu nehmen und sie nicht weiter zu verfolgen. Dies ist jedoch mitnichten der Fall. So hat man in einem Statement gegenüber den Kollegen von The Verge erklärt, dass sich die Pläne seit dem letzten Statement im September nicht geändert hätten. Damals hatte man erklärt:

"Based on feedback from customers, advocacy groups, researchers, and others, we have decided to take additional time over the coming months to collect input and make improvements before releasing these critically important child safety features."

Unterdessen hat Apple ein neues Support-Dokument zur "Communication Safety" veröffentlicht, in dem die mit iOS 15.2 eingeführte Funktion nun noch einmal ausführlich erläutert wird. Aktiviert werden kann die standardmäßig ausgeschaltete Funktion für minderjährige Familienmitglieder in den Bildschirmzeit-Einstellungen. Ist dies geschehen, werden über Apples Nachrichten-App ein- und ausgehende Fotos überwacht und bei einem Verdacht auf Nacktheit oder sonstige explizite Inhalte ausgegraut dargestellt. Anschließend stehen verschiedene Aktionen zur Verfügung, unter anderem eine Kontaktaufnahme mit den Eltern oder einer anderen Hilfestelle.

Ende der Pläne? Apple entfernt Ankündigung von Kinderporno-Scans von seiner Webseite

Hat Apple seine Pläne zum Scannen der Foto-Mediatheken seiner Nutzer auf kinderpornografische Inhalte zu den Akten gelegt? Zu diesem Schluss könnte man kommen, wenn man sich aktuell die Webseiten zum Thema Kinderschutz bei Apple anschaut. Hier schreibt man inzwischen nur noch von der mit iOS 15.2 eingeführten "Communication Safety" und den verbesserten Warnhinweisen über Siri, Spotlight und die Safari-Suche. Vom Scannen der Foto-Mediatheken ist hingegen nicht mehr die Rede. Dies las sich hingegen am vergangenen Freitag, den 10. Dezember noch ganz anders, wie aus einer archivierten Version der Webseite hervorgeht. Vor fünf Tagen war dort nämlich noch von den geplanten CSAM-Scans (Child Sexual Abuse Material) die Rede.

Seit der Ankündigung der geplanten Kinderschutz-Funktionen hagelte es Kritik für Apples Pläne. Verschiedene Sicherheitsexperten, Netzaktivisten und Nutzer liefen Sturm gegen die Scans der Mediatheken, da sie fürchteten, hierdurch würde Apple einem Missbrauch Tür und Tor öffnen, der auch dazu führen könnte, dass Behörden und Regierungen von totalitären Staaten Druck ausüben könnte, auch nach anderen Inhalten auf den Fotos zu suchen. Apple ruderte schließlich zurück und verschob den Kinderporno-Scan. "Communication Safety" und die verbesserten Warnhinweise wurden jedoch mit iOS 15.2 wie geplant eingeführt.

Das Entfernen der Pläne für den Scan der Nutzer-Mediatheken von den Webseiten kann nun dahingehend interpretiert werden, dass Apple diesen Weg aufgrund der aufgekommenen Kritik nicht weiter verfolgen wird. Möglicherweise möchte man aber auch nur etwas Gras über die Sache wachsen lassen, ehe man das Thema dann doch wieder aufgreift. Ein offizielles Statement seitens Apple steht noch aus.

Wer die gesamte Story und ihre Auswirkungen noch einmal nachverfolgen möchte, findet anschließend die entsprechenden Links zu meinen Artikeln zu dem Thema in chronologischer Reihenfolge:

Sicherheitsforscher warnen erneut vor den Gefahren der geplanten Kinderporno-Scans von Apple und der EU

In letzter Zeit ist es wieder ruhiger geworden um Apples geplante, inzwischen jedoch auf Eis gelegte Kinderschutz-Funktionen, in deren Rahmen unter anderem auch die Foto-Mediatheken von iPhone-Nutzern auf kinderpornografische Inhalte gescannt werden sollten. Nun haben sich zu dem Thema aber wieder mehr als ein Duzend namhafte Cybersecurity Experten in einer 46 Seiten umfassenden Studie zu Wort gemeldet und die zugrundeliegende Technologie als in hohem Maße gefährlich bezeichnet (via The New York Times). Vor allem sei der Ansatz ineffektiv und berge die Gefahr einer staatlichen Überwachung, die deutlich über das Scannen nach kinderpornografischen Inhalten hinausgehe. Neben Apples Plänen wurden in der Studie auch ähnlich lautende Bestrebungen der EU kritisiert. Diese hatte bereits kundgetan, die Mediatheken nicht nur nach kinderpornografischen Inhalten durchsuchen zu wollen, sondern auch nach solchen, die Hinweise auf organisierte Kriminalität und Terrorismus enthalten.

Die Sicherheitsforscher hatten ihre Studie bereits vor Apples Ankündigung im August begonnen und verfolgten dabei vor allem das Ziel, der EU vor Augen zu führen, wie gefährlich die angestrebte Überwachung ist. Sie reihen sich damit in eine ganze Reihe von Kritikern der Pläne ein, verleihen dieser Kritik aber noch einmal mehr Gewicht durch die wissenschaftliche Untersuchung.

Kommentar: Vorgänge in Russland zeigen das Risiko bei Apples geplanten Kinderporno-Scans

Falls es noch eines eindeutigen Belegs dafür bedurfte, warum Apples geplante Scans der Nutzer-Mediatheken auf kinderpornigrafische Inhalte eine unfassbar schlechte Idee war, liefert das Unternehmen diesen nun selbst. In Russland deaktivierte Apple in der zurückliegenden Woche auf Druck der dortigen Regierung nicht nur die neue Private Relay Funktion von iCloud, man entfernte auch eine App der Opposition aus dem russischen AppStore, nachdem die Regierung örtlichen Apple-Mitarbeitern mit Strafen gedroht habe, sollte dies nicht geschehen. Auch Google knickte diesbezüglich vor dem Kreml ein.

Kritiker sehen in den grplanten Scans der Fotomediatheken eine bedenkliche Hintertür in Apples Systeme, die eben durch eine einfache Änderung des Algorithmus nicht nur zur Suche nach kinderpornografischen Inhalte genutzt werden kann, sondern auch nach bestimmten Symbolen von Regimekritikern und ähnlichen Inhalten. Apple argumentierte stets, dass man dies nicht zulassen werde, da man ja schließlich durch die manuelle Kontrolle als letzten Schritt immer noch das finale Wort habe. Die Vorgänge in Russland sind nun das perfekte Beispiel dafür, dass diese Argumentation nicht funktioniert.

Schon in der Vergangenheit musste sich Apple immer wieder lokalen Gesetzgebungen und Bestimmungen in verschiedenen Regionen der Welt beugen, Apps mit bestimmten Funktionen und Inhalten aus dem AppStore entfernen oder Features seiner Geräte deaktivieren. Dies ist völlig normal und für einen weltweit agierenden Konzern auch nicht ungewöhnlich. Es zeigt allerdings auch die Gefahren, die Apple bezüglich der geplanten Kinderporno-Scans noch immer nicht einsehen oder einräumen will.

Inzwischen meldete sich mit Matthew Green auch der Sicherheitsforscher zu Wort, der Apples Kinderpornoscan-Pläne als erster publik gemacht hatte und schlägt in dieselbe Kerbe

Apple spent the entire summer telling the public that they were confident they could resist government pressure, when defending their CSAM scanning system. Today they’re pulling voting guides from the Russian App Store. What changed in a month?

Apple’s defense of removing voting guides is that they have to obey the law of the nations they operate in. And yet if legislators demand they expand their image scanning corpus, they say they will refuse. They intend to break the law in that case, but not this one?

Mit den Vorgängen in Russland kann Apple eigentlich nicht mehr allen Ernstes argumentieren, dass man Forderungen von repressiven Regimen widerstehen würde, die Kinderporno-Scans auch auf andere Inhalte auszuweiten. Nach der massiven Kritik von Experten und Nutzern zur Einführung der Kinderschutz-Funktionen mit iOS 15 in den USA hat Apple die Pläne aktuell auf Eis gelegt. Im offiziellen Sprachgebrauch heißt es, man wolle sich mehr Zeit nehmen, um die verschiedenen Bedenken und Positionen in die Technologie einfließen zu lassen. Aufgeschoben heißt hier aber nicht aufgehoben. Allerdings gehen Apple zunehmend die Argumente gegen die Kritik aus.

Wer die gesamte Story und ihre Auswirkungen noch einmal nachverfolgen möchte, findet anschließend die entsprechenden Links:

Britische Regierung unterstützt Apples Pläne für Kinderporno-Scans von Nutzer-Mediatheken

Seit der Ankündigung, im Rahmen von neuen Kinderschutz-Funktionen auch die Foto-Mediatheken von iPhone-Nutzern auf kinderpornografische Inhalte zu scannen, hagelte es für Apple jede Menge Kritik und negatives Feedback, welches man in Cupertino so wohl niemals erwartet hätte. Nun gibt es aber von hoher Stelle auch mal Zuspruch für die geplanten Funktionen. So hat die britische Regierung erklärt, dass dass man Apples Pläne zu sogenannten CSAM-Scans befürworten und unterstützen würde. Bezogen auf das Thema Datenschutz beruft man sich auf Apples Aussage, dass die Gefahr eines "False-Positives" bei seiner Technologie nur bei eins zu einer Billion liegen würde.

Doch die britische Regierung geht sogar noch einen Schritt weiter und lobt eine Belohnung in Höhe von 85.000 britischen Pfund für fünf Unternehmen auf der ganzen Welt aus, die Technologien entwickeln, durch die Kinder besser geschützt werden. Dies gab die britische Innenministerin Priti Patel persönlich mit den folgenden Worten bekannt:

Recently Apple have taken the first step, announcing that they are seeking new ways to prevent horrific abuse on their service. Apple state their child sexual abuse filtering technology has a false positive rate of 1 in a trillion, meaning the privacy of legitimate users is protected whilst those building huge collections of extreme child sexual abuse material are caught out. They need to see though that project.

But that is just one solution, by one company, and won’t solve everything. Big Tech firms collectively need to take responsibility for public safety and greater investment is essential. Today I am launching a new Safety Tech Challenge Fund. We will award five organisations from around the world up to £85,000 each to develop innovative technology to keep children safe in environments such as online messaging platforms with end-to-end encryption.

Während ein besserer Kinderschutz sicherlich absolut zu befürworten ist, bleibt dennoch ein flaues Gefühl bezüglich durch die Technologien geschaffener Hintertüren auf die eigentlich durch Ende-zu-Ende Verschlüsselung geschützten Systeme oder auch Messenger wie iMessage, FaceTime, WhatsApp, Telegram oder Signal. Peinlich wird es für die britische Innenministerin allerdings bei der Aussage:

The introduction of end-to-end encryption must not open the door to even greater levels of child sexual abuse – but that is the reality if plans such as those put forward by Facebook go ahead unchanged.

Tatsächlich ist nämlich der Facebook Messenger der einzige unter den großen Messengern, der Ende-zu-Ende Verschlüsselung nicht standardmäßig verwendet. Diese kann höchstens durch den Nutzer aktiviert werden, wenn man "Geheime Konversation" einschaltet.

Apple hatte nach dem Sturm der Ablehnung der neuen Funktionen erst kürzlich angekündigt, dass man diese nun doch nicht wie geplant im Herbst mit der Veröffentlichung von iOS 15 und macOS Monterey in den USA einführen wird. Stattdessen möchte man sich nun mehr Zeit nehmen, um das erhaltene Feedback in die Umsetzung einfließen zu lassen.