Anzeige
Anzeige
Analyse

Apple: Sicherheitsexperten alarmiert über angekündigte Foto-Scans

Apple installiere trotz gegenteiliger Beteuerungen nun doch eine Hintertür, meinen Datenschützer. Zudem könne das unfreiwillige Scannen von Fotos Missbrauch und Zensur nach sich ziehen.

4 Min.
Artikel merken
Anzeige
Anzeige

In den neuen Versionen der Betriebssystem will Apple einen automatischen Scan-Mechanismus in die Fotos-App einbauen. (Bild: Apple)

Kurz nach der Bestätigung Apples, in Zukunft iPhones auf Bilder von Kindesmissbrauch zu scannen, laufen Kryptoexperten und Menschenrechtsorganisationen Sturm. Der Konzern bemüht sich derweil zu versichern, dass die Privatsphäre gewahrt bleibe. Doch davon abgesehen gibt es weitere Kritikpunkte an dem Plan, der mit Updates von iOS 15, iPadOS 15, watchOS 8 und macOS Monterey verwirklicht werden soll. Apple kündigte an, die Änderungen später in diesem Jahr einzuführen.

Apple gleicht iPhone-Bilder mit Missbrauchsfotos ab

Anzeige
Anzeige

Die Ingenieure beschreiben in einem Dokument die technische Realisierung der unfreiwilligen Foto-Scans. Demnach führt das System einen geräteinternen Abgleich mit einer Datenbank von Missbrauchsbildern (CSAM – Child Sexual Abuse Material) durch. Neben Darstellungen in realen oder simulierten sexuellen Handlungen fällt darunter auch die Darstellung der Geschlechtsteile eines Kindes „zu primär sexuellen Zwecken, egal mit welchen Mitteln.“ Die Datenbank stellen das National Center for Missing and Exploited Children (NCMEC) und andere Schutzorganisationen bereit. Apple wandelt sie in einen Satz von Hashes um, der „sicher auf den Geräten der Nutzer gespeichert wird“.

„Extrem hohes Maß an Genauigkeit“

Apple schreibt, das Erkennungssystem nutze einen Schwellenwert, der „ein extrem hohes Maß an Genauigkeit bietet und eine Wahrscheinlichkeit von weniger als eins zu einer Billion pro Jahr sicherstellt, dass ein bestimmtes Konto fälschlicherweise gekennzeichnet wird.“ Findet das System vermeintlich anstößige Bilder, werden deren Nutzerdaten entschlüsselt und der Account gesperrt. Das Unternehmen prüft die Meldungen manuell, bevor es sie an das NCMEC und Strafverfolgungsbehörden weiterleitet. Benutzer könnten einen Antrag auf Wiederherstellung stellen, wenn sie glauben, ihr Konto sei fälschlicherweise markiert worden, schreibt der iPhone-Hersteller.

Anzeige
Anzeige

Nachrichten-App wird ebenfalls gescannt

Neue „Werkzeuge“ will Apple auch in der Kurznachrichten-App „Messages“ hinzufügen. Diese ermöglichen, Eltern und Kinder vor sexuell eindeutigen Fotos zu warnen. Dabei verwende die App geräteinternes maschinelles Lernen, um Bildanhänge zu analysieren und explizite Fotos zu erkennen. Die Software stellt entsprechende Funde daraufhin unscharf dar, warnt das Kind vor dem Inhalt und stellt ihm „hilfreiche Ressourcen“ zur Verfügung. Das System benachrichtigt die Eltern, wenn Kinder ein gekennzeichnetes Bild ansehen. Ähnliche Schutzmaßnahmen plant Apple für das Versenden: Das Kind wird gewarnt, bevor es ein entsprechendes Bild sendet, und die Eltern können eine Benachrichtigung darüber erhalten.

Anzeige
Anzeige
Meme Apple Überwachung Foto-Scans

Auf Twitter kursieren die ersten Memes zu Apples Foto-Scan-Plänen. (Bild: Twitter)

Datenschützer: „Es ist eine Hintertür“

Clientseitiges Scannen am „Ende“ der Kommunikation unterbreche die Sicherheit der Übertragung und das Informieren einer dritten Partei – in diesem Fall der Eltern – untergrabe die Privatsphäre, geben Organisationen zu bedenken. Das Center of Democracy & Technology schreibt: „Der Mechanismus, der es Apple ermöglichen wird, Bilder in Messages zu scannen, ist keine Alternative zu einer Hintertür – es ist eine Hintertür.“ Weltweit warnen Bürgerrechtsinitiativen, dass das clientseitige Scannen von Regierungen und Unternehmen zur Überwachung privater Kommunikation eingesetzt werden könnte. Mit einem Brief wandte sich eine Gruppe von Experten an die Europäische Union, als dort diesbezügliche Pläne zur Eindämmung von Kinderpornografie zur Diskussion standen. Darin schrieben sie: „Die Ende-zu-Ende-Verschlüsselung zu brechen, um anstößige Online-Inhalte einzudämmen, ist so, als würde man versuchen, ein Problem zu lösen, indem man 1.000 weitere schafft. Unsichere Kommunikation macht die Nutzer anfälliger für die Straftaten, die wir gemeinsam zu verhindern versuchen.“

Kritiker befürchten nun eine Welle von Scan-Initiativen

Ross Anderson, Professor für Sicherheitstechnik an der Universität Cambridge, kommentierte Apples Pläne so: „Es ist eine absolut schreckliche Idee, weil sie zu einer verteilten Massenüberwachung unserer Telefone und Laptops führen wird.“ Edward Snowden teilte den Kommentar auf Twitter. Dahinter steht die Angst, dass das System in Zukunft auf andere Bilder und Texte angepasst wird: erst Kindesmissbrauch, dann Terrorismus, dann regierungskritische Proteste. Ein Kollege von Anderson, Matthew Green von der John Hopkins University, schreibt dazu: „Das wird den Damm brechen – die Regierungen werden dies von allen verlangen.“ Alan Woodward, Professor für Computersicherheit an der University of Surrey, sagte der Financial Times: „Apples dezentralisierter Ansatz ist so ziemlich der beste Ansatz, den man wählen kann, wenn man diesen Weg einschlägt.“

t3n meint:
Auch wenn der Scan zunächst nur für US-Accounts gilt, weckt Apples Vorgehen Befürchtungen. Neben dem Bruch der Privatsphäre für Kinder und alle anderen Apple-Nutzer stellen sich viele ungeklärte Fragen. Welche Kriterien setzt das von Ronald Reagan gegründete NCMEC an? Wird demnächst mein Account blockiert, weil ich ein Foto meiner nackten Tochter auf dem iPhone habe? Noch mehr stört mich die Perspektive dieser Maßnahme: Was kommt nach den gehashten Missbrauchsfotos? Dürfen wir dank ultrachristlicher Dominanz in der amerikanischen Gesellschaft bald gar keine Nacktfotos mehr verschicken? Auch ich befürchte die Öffnung für weitere ungewollte Aktivitäten: Das Thema Terrorismus hat meiner Meinung nach schon genug Freiheitsrechte gekostet, sind in Zukunft unsere Fotoalben dran?

Das andere Reiz-Thema betrifft Cyber-Missbrauch. Ban-as-a-Service-Scammer könnten nach Instagram nun auch die Apple-Plattform als gewinnträchtige Spielwiese entdecken. Können Böswillige in Zukunft meinen Account lahmlegen, indem sie mir ein Missbrauchsbild schicken? Für mich bietet die Maßnahme mehr Gefahren als Nutzen. Nach den jüngsten Berichten bekommt man eine Ahnung davon, dass Sexualstraftäter andere Plattformen bevorzugen. Die Verbliebenen werden just in diesem Augenblick Apple den Rücken kehren und die neuen „Sicherheitsmaßnahmen“ in Leere laufen lassen. Stattdessen kommt auf Apple-Nutzer viel Ungemach zu, wenn automatische Systeme dann doch mal Fehler machen und zudem weitere Hintertüren drohen.
Raimund Schesswendter

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Ein Kommentar
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Titus von Unhold

In sechs Monaten gibt es in der EU eine Scanpflicht.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige