Anzeige
Anzeige
News
Artikel merken

macOS und iOS: Forscher tricksen Apples Foto-Scan aus

Neuralhash, die Kernkomponente von Apples umstrittener Foto-Scan-Funktion, wurde von Forschern nachgebaut und ausgetrickst.

Von Golem.de
3 Min. Lesezeit
Anzeige
Anzeige

Ein iPhone. (Foto: Xavier Wendling/Unsplash)

Apple möchte zukünftig auf den iPhones seiner Nutzer nach kinderpornografischen Inhalten suchen. Mehrere Forscher behaupten nun, die Kernkomponente des Systems nachgebaut und ausgetrickst zu haben. Apple sieht darin jedoch kein Problem.

Um Bilder mit Kindesmissbrauch zu erkennen, setzt Apple auf eine Technik namens Neuralhash. Mit dieser werden Hashes/Fingerabdrücke von Fotos erstellt und mit in einer Datenbank hinterlegten Hashes von Missbrauchsbildern abgeglichen. Das Neuralhash-Verfahren soll dabei sicherstellen, dass auch leicht veränderte Bilder weiterhin erkannt werden.

Anzeige
Anzeige

Nun ist es einer Person gelungen, das System nachzubauen und entsprechende Informationen und Software auf GitHub zu veröffentlichen. Dazu müssen insgesamt vier Dateien aus einem aktuellen macOS oder iOS extrahiert werden. Für letzteres ist ein Jailbreak erforderlich. Nur kurze Zeit später gab ein Sicherheitsforscher an, dass es ihm gelungen sei, eine Kollision zu erzeugen, also ein Bild zu generieren, das den Hash/Fingerabdruck eines anderen Bildes besitzt. Damit ist es dem Forscher gelungen, das System auszutricksen, denn für Neuralhash handelt es sich bei den beiden unterschiedlichen Bildern um das gleiche Bild.

Apple hatte bei der Vorstellung des Systems betont, dass es gegen solche Kollisionsangriffe resistent sei: „Die Hashing-Technologie, Neuralhash genannt, analysiert ein Bild und konvertiert es in eine eindeutige Nummer, die für dieses Bild spezifisch ist.“

Anzeige
Anzeige

Apple: Noch nicht die endgültige Version von Neuralhash

Auf Nachfrage des Onlinemagazins Motherboard teilte Apple mit, dass es sich bei der auf GitHub analysierten Neuralhash um eine generische und nicht um die endgültige Version handle, die für den Foto-Scan auf den iPhones verwendet werden soll. Apple betonte zudem, dass es den Algorithmus öffentlich gemacht habe.

Anzeige
Anzeige

„Wenn es für diese Funktion Kollisionen gibt, erwarte ich, dass sie auch in dem System existieren, das Apple letztendlich aktiviert“, sagte Matthew Green, der an der Johns Hopkins Universität Kryptographie lehrt, dem Onlinemagazin. „Natürlich ist es möglich, dass sie die Hash-Funktion verändern, bevor sie sie einsetzen. Aber als Proof-of-Concept ist [der Kollisionsangriff] definitiv gültig.“

Der Direktor der Sicherheitsfirma Sixgen, Ryan Duff, hält Apples Algorithmus für ziemlich anfällig für solche Angriffe. „Man kann darüber streiten, wie riskant das ist. Es bedeutet, dass die Wahrscheinlichkeit, dass eines ihrer Bilder mit kinderpornografischen Inhalten übereinstimmt, praktisch gleich Null ist“, sagte Duff. „Aber jemand könnte Ihnen ein Bild schicken, das nach dem Neuralhash-Algorithmus als kinderpornografisch detektiert wird.“

Anzeige
Anzeige

Allerdings dürften die realen Auswirkungen einer Kollision erst einmal gering sein, wie Nicholas Weaver, leitender Forscher am International Computer Science Institute der Berkeley Universität, anmerkt: „Apple hat dieses System so konzipiert, dass die Hash-Funktion nicht geheim bleiben muss, denn das Einzige, was man mit ‚Nicht-kinderpornografischem-Material, das als kinderpornografisches Material gehasht wird‘ tun kann, ist, Apples Reaktionsteam mit einigen Müllbildern zu belästigen, bis sie einen Filter implementieren, um diese Falschmeldungen in ihrer Analyse-Pipeline zu eliminieren.“

Erst wenn 30 Bilder, die auf dem iPhone gescannt und in die iCloud geladen wurden, von Neuralhash positiv auf Kindesmissbrauch getestet wurden, schlägt Apples System in der iCloud an. Dort sollen die Fotos erneut gescannt und anschließend von Apple-Angestellten überprüft werden. Wird kinderpornografisches Material entdeckt, werden das iCloud-Konto des Betroffenen gesperrt und ein Bericht an eine Kinderschutzorganisation gesendet. Diese kann dann die Strafverfolgungsbehörden einschalten.

Apple-Angestellte, Bürgerrechtler und Journalisten kritisieren den Foto-Scan

Apples geplanter Foto-Scan erntete in den vergangen Wochen von etlichen Seiten Kritik, darunter Journalistenverbände, die die Pressefreiheit in Gefahr sehen, etliche Bürgerrechtler, Apple-Angestellte und bekannte Persönlichkeiten. „Egal, wie gut es gemeint ist, Apple erlaubt damit Massenüberwachung auf der ganzen Welt“, erklärte etwa der Whistleblower Edward Snowden.

Anzeige
Anzeige

Auch Whatsapp-Chef Will Cathcart kritisierte das von „Apple gebaute und betriebene Überwachungssystem“. Die US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) bezeichnete die Technik als Backdoor, trotz der technischen Erklärungen Apples, wie die Privatsphäre der Nutzer geschützt werden solle: „Am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür.“

Der iPhone-Hersteller verteidigte die neue Funktion und kündigte an, jegliche Versuche von Regierungen, die das Verfahren für die Suche nach anderen Inhalten nutzen wollten, abzuweisen. In einer Stellungnahme spielte das Unternehmen auf Forderungen des FBI an, die von Apple eine Abschwächung der Geräteverschlüsselung forderten.

Allerdings hat es Apple unterlassen, die iCloud so zu verschlüsseln, dass nur noch die Nutzer selbst auf ihre Daten und Backups zugreifen können. Eine entsprechende Funktion war zwar geplant, wurde jedoch nie umgesetzt, um einem Konflikt mit dem FBI aus dem Weg zu gehen. So kann Apple – und damit auch das FBI – auf nahezu alle Daten der iPhones zugreifen, sofern sie mit der iCloud synchronisiert werden.

Anzeige
Anzeige

Autor des Artikels ist Moritz Tremmel.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige