Im Rahmen des Rechtsstreits zwischen Apple und Epic geraten immer mehr interne Dokumente des kalifornischen iPhone-Herstellers an die Öffentlichkeit. Darunter befindet sich auch ein iMessage-Thread aus dem Februar 2020. In diesem hatte Eric Friedman, Apples Anti-Betrugs-Chef, die iCloud-Plattform als „die größte Plattform für die Verbreitung von Kinderpornografie“ bezeichnet. Im Zusammenhang mit dem nun heiß diskutierten Vorhaben Apples, künftig alle Foto-Mediatheken auf den Kundengeräten nach Bildern zu scannen, die Kindesmissbrauch zeigen könnten, bekommt diese Aussage eine gewisse Brisanz.
Woher hat Friedman sein Wissen?
Denn woher weiß Friedman das, wenn es doch bislang keine entsprechenden Bilder-Scans gibt? 9to5Macs Ben Lovejoy kontaktierte daraufhin das Unternehmen und stellte diese naheliegende Frage. Apple bestätigte ihm, dass es seit 2019 ausgehende und eingehende iCloud Mail auf sogenannte CSAM-Anhänge (Child Sexual Abuse Material; Material, das Kindesmissbrauch zeigt) scannt. Da E-Mails nicht verschlüsselt sind, sei das Scannen von Anhängen, während die E-Mails die Apple-Server passieren, eine triviale Aufgabe.
Ebenso bestätigte Apple den Scan „anderer Daten“, aber nur „in begrenztem Umfang“. Welche Daten damit gemeint sind und was „in begrenztem Umfang“ bedeutet, wollte der Unternehmenssprecher nicht sagen. Es handele sich jedoch nur um „einen kleinen Bereich“. iCloud Fotos sei jedenfalls davon nicht betroffen – ebenso wenig wie etwaige Backups, die Kunden in der iCloud speichern.
Bestehende Scan-Funktionen wahrscheinlich
Wer genau hinsieht, kann schon in vergangenen Veröffentlichungen Apples Hinweise darauf finden, dass sich das Unternehmen mit CSAM-Material beschäftigt. So bestätigt etwa eine inzwischen archivierte Seite zu Kindersicherheit, dass Apple „robuste Schutzmaßnahmen auf allen Ebenen unserer Softwareplattform“ entwickelt habe. Dabei setze „Apple eine Technologie zum Bildabgleich ein, um Kindesmissbrauch zu erkennen und zu melden“. Ähnlich wie Spam-Filter in E-Mails würden Apples Systeme „elektronische Signaturen“ nutzen, um „mutmaßliche Fälle von Kinderausbeutung zu finden“. Im Falle eines Fundes würde eine individuelle Überprüfung stattfinden. Erhärte sich der Verdacht, würden „alle Konten, die wir mit diesem Material finden“, deaktiviert.
Auch eine Aussage von Apples Datenschutzbeauftragter Jane Horvath im Januar 2020 weist in die gleiche Richtung. Sie sagte auf einer Tech-Konferenz, dass das Unternehmen eine Screening-Technologie einsetzt, um nach illegalen Bildern zu suchen.
Diskussion um Überwachungspotenzial geht weiter
Derweil geht die Kontroverse um Apples CSAM-Pläne auf den iPhones ihrer Kunden weiter. Jüngst hatten sich zwei Wissenschaftler aus Princeton zu Wort gemeldet. Sie gaben an, einen Prototyp eines Scansystems auf der technischen Basis, die auch Apple vorschwebt, umgesetzt zu haben. Als ihnen aber klar geworden sei, wie hoch das Risiko des Missbrauchs eines solchen Ansatzes durch Regierungen wäre, hätten sie die Arbeit daran eingestellt.
Die Kontroverse bedroht das Image von Apple als Unternehmen, das die Privatsphäre der Verbraucher in den Mittelpunkt stellt. Bislang sieht es indes nicht so aus, als wolle sich der iPhone-Hersteller von seinen Plänen abbringen lassen. Die neuen Funktionen sollen im kommenden Herbst mit der Veröffentlichung von iOS 15 und iPad OS 15 exklusiv in den USA eingeführt werden.
Ich finde es für „fälscher“ die Elemente zu scannen auf so etwas und dabei der Datenkrake alles zu unterwerfen und Regierungen damit das Angebot zu machen in Zukunft auch nach deren Kram scannen zu lassen (denn wenn so etwas vorhanden ist, zwingt es sich gleich viel besser), als dies unter der Privatsphäre nicht zu machen. Freiheit sollte hier vorgehen.
Abgesehen davon. Die größte Plattform dafür? Hat er die anderen Seiten und Dienste gleich mitgescannt?