Anzeige
Anzeige
News
Artikel merken

Kampf gegen Kindesmissbrauch: Apple scannt iCloud Mail seit 2019

Apples E-Mail-Dienst iCloud Mail scannt alle ein- und ausgehenden Mails seit mindestens 2019 auf Anhänge, die als kindesmissbräuchlich klassifiziert werden können. iCloud Photos und iCloud-Backups werden angeblich nicht gescannt.

2 Min. Lesezeit
Anzeige
Anzeige

Welche Software läuft über welche Daten – etwa hier im Apple-Rechenzentrum in Iowa? (Bild: Apple)

Im Rahmen des Rechtsstreits zwischen Apple und Epic geraten immer mehr interne Dokumente des kalifornischen iPhone-Herstellers an die Öffentlichkeit. Darunter befindet sich auch ein iMessage-Thread aus dem Februar 2020. In diesem hatte Eric Friedman, Apples Anti-Betrugs-Chef, die iCloud-Plattform als „die größte Plattform für die Verbreitung von Kinderpornografie“ bezeichnet. Im Zusammenhang mit dem nun heiß diskutierten Vorhaben Apples, künftig alle Foto-Mediatheken auf den Kundengeräten nach Bildern zu scannen, die Kindesmissbrauch zeigen könnten, bekommt diese Aussage eine gewisse Brisanz.

Woher hat Friedman sein Wissen?

Anzeige
Anzeige

Denn woher weiß Friedman das, wenn es doch bislang keine entsprechenden Bilder-Scans gibt? 9to5Macs Ben Lovejoy kontaktierte daraufhin das Unternehmen und stellte diese naheliegende Frage. Apple bestätigte ihm, dass es seit 2019 ausgehende und eingehende iCloud Mail auf sogenannte CSAM-Anhänge (Child Sexual Abuse Material; Material, das Kindesmissbrauch zeigt) scannt. Da E-Mails nicht verschlüsselt sind, sei das Scannen von Anhängen, während die E-Mails die Apple-Server passieren, eine triviale Aufgabe.

Ebenso bestätigte Apple den Scan „anderer Daten“, aber nur „in begrenztem Umfang“. Welche Daten damit gemeint sind und was „in begrenztem Umfang“ bedeutet, wollte der Unternehmenssprecher nicht sagen. Es handele sich jedoch nur um „einen kleinen Bereich“. iCloud Fotos sei jedenfalls davon nicht betroffen – ebenso wenig wie etwaige Backups, die Kunden in der iCloud speichern.

Anzeige
Anzeige

Bestehende Scan-Funktionen wahrscheinlich

Wer genau hinsieht, kann schon in vergangenen Veröffentlichungen Apples Hinweise darauf finden, dass sich das Unternehmen mit CSAM-Material beschäftigt. So bestätigt etwa eine inzwischen archivierte Seite zu Kindersicherheit, dass Apple „robuste Schutzmaßnahmen auf allen Ebenen unserer Softwareplattform“ entwickelt habe. Dabei setze „Apple eine Technologie zum Bildabgleich ein, um Kindesmissbrauch zu erkennen und zu melden“. Ähnlich wie Spam-Filter in E-Mails würden Apples Systeme „elektronische Signaturen“ nutzen, um „mutmaßliche Fälle von Kinderausbeutung zu finden“. Im Falle eines Fundes würde eine individuelle Überprüfung stattfinden. Erhärte sich der Verdacht, würden „alle Konten, die wir mit diesem Material finden“, deaktiviert.

Anzeige
Anzeige

Auch eine Aussage von Apples Datenschutzbeauftragter Jane Horvath im Januar 2020 weist in die gleiche Richtung. Sie sagte auf einer Tech-Konferenz, dass das Unternehmen eine Screening-Technologie einsetzt, um nach illegalen Bildern zu suchen.

Diskussion um Überwachungspotenzial geht weiter

Derweil geht die Kontroverse um Apples CSAM-Pläne auf den iPhones ihrer Kunden weiter. Jüngst hatten sich zwei Wissenschaftler aus Princeton zu Wort gemeldet. Sie gaben an, einen Prototyp eines Scansystems auf der technischen Basis, die auch Apple vorschwebt, umgesetzt zu haben. Als ihnen aber klar geworden sei, wie hoch das Risiko des Missbrauchs eines solchen Ansatzes durch Regierungen wäre, hätten sie die Arbeit daran eingestellt.

Anzeige
Anzeige

Die Kontroverse bedroht das Image von Apple als Unternehmen, das die Privatsphäre der Verbraucher in den Mittelpunkt stellt. Bislang sieht es indes nicht so aus, als wolle sich der iPhone-Hersteller von seinen Plänen abbringen lassen. Die neuen Funktionen sollen im kommenden Herbst mit der Veröffentlichung von iOS 15 und iPad OS 15 exklusiv in den USA eingeführt werden.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Ein Kommentar
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Durchwinker

Ich finde es für „fälscher“ die Elemente zu scannen auf so etwas und dabei der Datenkrake alles zu unterwerfen und Regierungen damit das Angebot zu machen in Zukunft auch nach deren Kram scannen zu lassen (denn wenn so etwas vorhanden ist, zwingt es sich gleich viel besser), als dies unter der Privatsphäre nicht zu machen. Freiheit sollte hier vorgehen.

Abgesehen davon. Die größte Plattform dafür? Hat er die anderen Seiten und Dienste gleich mitgescannt?

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige