macOS und iOS: Forscher tricksen Apples Foto-Scan aus

Ein iPhone. (Foto: Xavier Wendling/Unsplash)
Um Bilder mit Kindesmissbrauch zu erkennen, setzt Apple auf eine Technik namens Neuralhash. Mit dieser werden Hashes/Fingerabdrücke von Fotos erstellt und mit in einer Datenbank hinterlegten Hashes von Missbrauchsbildern abgeglichen. Das Neuralhash-Verfahren soll dabei sicherstellen, dass auch leicht veränderte Bilder weiterhin erkannt werden.
Nun ist es einer Person gelungen, das System nachzubauen und entsprechende Informationen und Software auf GitHub zu veröffentlichen. Dazu müssen insgesamt vier Dateien aus einem aktuellen macOS oder iOS extrahiert werden. Für letzteres ist ein Jailbreak erforderlich. Nur kurze Zeit später gab ein Sicherheitsforscher an, dass es ihm gelungen sei, eine Kollision zu erzeugen, also ein Bild zu generieren, das den Hash/Fingerabdruck eines anderen Bildes besitzt. Damit ist es dem Forscher gelungen, das System auszutricksen, denn für Neuralhash handelt es sich bei den beiden unterschiedlichen Bildern um das gleiche Bild.
Apple hatte bei der Vorstellung des Systems betont, dass es gegen solche Kollisionsangriffe resistent sei: „Die Hashing-Technologie, Neuralhash genannt, analysiert ein Bild und konvertiert es in eine eindeutige Nummer, die für dieses Bild spezifisch ist.“
Apple: Noch nicht die endgültige Version von Neuralhash
Auf Nachfrage des Onlinemagazins Motherboard teilte Apple mit, dass es sich bei der auf GitHub analysierten Neuralhash um eine generische und nicht um die endgültige Version handle, die für den Foto-Scan auf den iPhones verwendet werden soll. Apple betonte zudem, dass es den Algorithmus öffentlich gemacht habe.
„Wenn es für diese Funktion Kollisionen gibt, erwarte ich, dass sie auch in dem System existieren, das Apple letztendlich aktiviert“, sagte Matthew Green, der an der Johns Hopkins Universität Kryptographie lehrt, dem Onlinemagazin. „Natürlich ist es möglich, dass sie die Hash-Funktion verändern, bevor sie sie einsetzen. Aber als Proof-of-Concept ist [der Kollisionsangriff] definitiv gültig.“
Der Direktor der Sicherheitsfirma Sixgen, Ryan Duff, hält Apples Algorithmus für ziemlich anfällig für solche Angriffe. „Man kann darüber streiten, wie riskant das ist. Es bedeutet, dass die Wahrscheinlichkeit, dass eines ihrer Bilder mit kinderpornografischen Inhalten übereinstimmt, praktisch gleich Null ist“, sagte Duff. „Aber jemand könnte Ihnen ein Bild schicken, das nach dem Neuralhash-Algorithmus als kinderpornografisch detektiert wird.“
Allerdings dürften die realen Auswirkungen einer Kollision erst einmal gering sein, wie Nicholas Weaver, leitender Forscher am International Computer Science Institute der Berkeley Universität, anmerkt: „Apple hat dieses System so konzipiert, dass die Hash-Funktion nicht geheim bleiben muss, denn das Einzige, was man mit ‚Nicht-kinderpornografischem-Material, das als kinderpornografisches Material gehasht wird‘ tun kann, ist, Apples Reaktionsteam mit einigen Müllbildern zu belästigen, bis sie einen Filter implementieren, um diese Falschmeldungen in ihrer Analyse-Pipeline zu eliminieren.“
Erst wenn 30 Bilder, die auf dem iPhone gescannt und in die iCloud geladen wurden, von Neuralhash positiv auf Kindesmissbrauch getestet wurden, schlägt Apples System in der iCloud an. Dort sollen die Fotos erneut gescannt und anschließend von Apple-Angestellten überprüft werden. Wird kinderpornografisches Material entdeckt, werden das iCloud-Konto des Betroffenen gesperrt und ein Bericht an eine Kinderschutzorganisation gesendet. Diese kann dann die Strafverfolgungsbehörden einschalten.
Apple-Angestellte, Bürgerrechtler und Journalisten kritisieren den Foto-Scan
Apples geplanter Foto-Scan erntete in den vergangen Wochen von etlichen Seiten Kritik, darunter Journalistenverbände, die die Pressefreiheit in Gefahr sehen, etliche Bürgerrechtler, Apple-Angestellte und bekannte Persönlichkeiten. „Egal, wie gut es gemeint ist, Apple erlaubt damit Massenüberwachung auf der ganzen Welt“, erklärte etwa der Whistleblower Edward Snowden.
Auch Whatsapp-Chef Will Cathcart kritisierte das von „Apple gebaute und betriebene Überwachungssystem“. Die US-Bürgerrechtsorganisation Electronic Frontier Foundation (EFF) bezeichnete die Technik als Backdoor, trotz der technischen Erklärungen Apples, wie die Privatsphäre der Nutzer geschützt werden solle: „Am Ende des Tages ist selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng gefasste Hintertür immer noch eine Hintertür.“
Der iPhone-Hersteller verteidigte die neue Funktion und kündigte an, jegliche Versuche von Regierungen, die das Verfahren für die Suche nach anderen Inhalten nutzen wollten, abzuweisen. In einer Stellungnahme spielte das Unternehmen auf Forderungen des FBI an, die von Apple eine Abschwächung der Geräteverschlüsselung forderten.
Allerdings hat es Apple unterlassen, die iCloud so zu verschlüsseln, dass nur noch die Nutzer selbst auf ihre Daten und Backups zugreifen können. Eine entsprechende Funktion war zwar geplant, wurde jedoch nie umgesetzt, um einem Konflikt mit dem FBI aus dem Weg zu gehen. So kann Apple – und damit auch das FBI – auf nahezu alle Daten der iPhones zugreifen, sofern sie mit der iCloud synchronisiert werden.
Autor des Artikels ist Moritz Tremmel.