Kampf gegen Kindesmissbrauch: Apple scannt iCloud Mail seit 2019

Welche Software läuft über welche Daten – etwa hier im Apple-Rechenzentrum in Iowa? (Bild: Apple)
Im Rahmen des Rechtsstreits zwischen Apple und Epic geraten immer mehr interne Dokumente des kalifornischen iPhone-Herstellers an die Öffentlichkeit. Darunter befindet sich auch ein iMessage-Thread aus dem Februar 2020. In diesem hatte Eric Friedman, Apples Anti-Betrugs-Chef, die iCloud-Plattform als „die größte Plattform für die Verbreitung von Kinderpornografie“ bezeichnet. Im Zusammenhang mit dem nun heiß diskutierten Vorhaben Apples, künftig alle Foto-Mediatheken auf den Kundengeräten nach Bildern zu scannen, die Kindesmissbrauch zeigen könnten, bekommt diese Aussage eine gewisse Brisanz.
Denn woher weiß Friedman das, wenn es doch bislang keine entsprechenden Bilder-Scans gibt? 9to5Macs Ben Lovejoy kontaktierte daraufhin das Unternehmen und stellte diese naheliegende Frage. Apple bestätigte ihm, dass es seit 2019 ausgehende und eingehende iCloud Mail auf sogenannte CSAM-Anhänge (Child Sexual Abuse Material; Material, das Kindesmissbrauch zeigt) scannt. Da E-Mails nicht verschlüsselt sind, sei das Scannen von Anhängen, während die E-Mails die Apple-Server passieren, eine triviale Aufgabe.
Ebenso bestätigte Apple den Scan „anderer Daten“, aber nur „in begrenztem Umfang“. Welche Daten damit gemeint sind und was „in begrenztem Umfang“ bedeutet, wollte der Unternehmenssprecher nicht sagen. Es handele sich jedoch nur um „einen kleinen Bereich“. iCloud Fotos sei jedenfalls davon nicht betroffen – ebenso wenig wie etwaige Backups, die Kunden in der iCloud speichern.
Wer genau hinsieht, kann schon in vergangenen Veröffentlichungen Apples Hinweise darauf finden, dass sich das Unternehmen mit CSAM-Material beschäftigt. So bestätigt etwa eine inzwischen archivierte Seite zu Kindersicherheit, dass Apple „robuste Schutzmaßnahmen auf allen Ebenen unserer Softwareplattform“ entwickelt habe. Dabei setze „Apple eine Technologie zum Bildabgleich ein, um Kindesmissbrauch zu erkennen und zu melden“. Ähnlich wie Spam-Filter in E-Mails würden Apples Systeme „elektronische Signaturen“ nutzen, um „mutmaßliche Fälle von Kinderausbeutung zu finden“. Im Falle eines Fundes würde eine individuelle Überprüfung stattfinden. Erhärte sich der Verdacht, würden „alle Konten, die wir mit diesem Material finden“, deaktiviert.
Auch eine Aussage von Apples Datenschutzbeauftragter Jane Horvath im Januar 2020 weist in die gleiche Richtung. Sie sagte auf einer Tech-Konferenz, dass das Unternehmen eine Screening-Technologie einsetzt, um nach illegalen Bildern zu suchen.
Derweil geht die Kontroverse um Apples CSAM-Pläne auf den iPhones ihrer Kunden weiter. Jüngst hatten sich zwei Wissenschaftler aus Princeton zu Wort gemeldet. Sie gaben an, einen Prototyp eines Scansystems auf der technischen Basis, die auch Apple vorschwebt, umgesetzt zu haben. Als ihnen aber klar geworden sei, wie hoch das Risiko des Missbrauchs eines solchen Ansatzes durch Regierungen wäre, hätten sie die Arbeit daran eingestellt.
Die Kontroverse bedroht das Image von Apple als Unternehmen, das die Privatsphäre der Verbraucher in den Mittelpunkt stellt. Bislang sieht es indes nicht so aus, als wolle sich der iPhone-Hersteller von seinen Plänen abbringen lassen. Die neuen Funktionen sollen im kommenden Herbst mit der Veröffentlichung von iOS 15 und iPad OS 15 exklusiv in den USA eingeführt werden.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Ich finde es für „fälscher“ die Elemente zu scannen auf so etwas und dabei der Datenkrake alles zu unterwerfen und Regierungen damit das Angebot zu machen in Zukunft auch nach deren Kram scannen zu lassen (denn wenn so etwas vorhanden ist, zwingt es sich gleich viel besser), als dies unter der Privatsphäre nicht zu machen. Freiheit sollte hier vorgehen.
Abgesehen davon. Die größte Plattform dafür? Hat er die anderen Seiten und Dienste gleich mitgescannt?