Apple plant, die Fotos aus iPhones zu scannen, um Kindesmissbrauch zu erkennen
Für den Abgleich soll auf die Geräte eine Datei mit sogenannten „Hashes“ von bereits bekannten kinderpornografischen Inhalten geladen werden – eine Art digitaler Fingerabdruck des Bildes. Darüber lässt sich bei einem Vergleich mit speziellen Verfahren eine Kopie des Fotos erkennen, das Original kann aus dem Hash aber nicht wiederhergestellt werden.
Bei einer Übereinstimmung werden verdächtige Bilder mit einem Zertifikat versehen, dank dem Apple sie nach dem Hochladen zur iCloud ausnahmsweise öffnen und einer Prüfung unterziehen kann. Das System schlägt erst Alarm, wenn es eine bestimmte Anzahl von Treffern gibt. Wie viele es dafür sein müssen, wird nicht öffentlich gemacht.
Übereinstimmung wird an NCMEC weitergeleitet
Wird dann bei der Überprüfung tatsächlich kinderpornografisches Material entdeckt, meldet Apple dies der amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing & Exploited Children), die wiederum Behörden einschalten kann.
Während die Funktion nur für Apple-Kunden mit US-Accounts aktiviert wird, ist die Datei mit den Hashes fester Teil des Betriebssystems. Sie soll damit auf alle iPhones geladen werden, auf denen diese Systemversion installiert wird. Aktualisiert werden soll die Liste auf den Geräten entsprechend mit Erscheinen neuer Versionen der Betriebssysteme von iPhones und iPad-Tablets. Vor einer internationalen Einführung der Funktion müssen erst noch rechtliche Voraussetzungen geklärt werden.
Nutzer, bei denen durch den Abgleich bekanntes kinderpornografisches Material gefunden wird, werden darüber nicht unterrichtet. Allerdings wird dabei ihr Konto gesperrt. Den Abgleich über Hashes nutzen zum Beispiel auch Online-Plattformen, um solche Inhalte bereits beim Hochladen zu entdecken und ihre Veröffentlichung zu verhindern. Das Verfahren funktioniert nach Branchenangaben praktisch fehlerfrei für Fotos – greift aber noch nicht bei Videos.
Kritiker der heute gängigen Verschlüsselung von privater Kommunikation in Chatdiensten und auf Smartphones führen oft den Kampf gegen sexuellen Kindesmissbrauch als Argument auf, um Hintertüren für Behörden zu fordern. Apples angekündigtes System ist ein Versuch, das Problem auf andere Weise zu lösen. Der Konzern wehrte sich wiederholt gegen Forderungen von US-Sicherheitsbehörden, die Verschlüsselung seiner Geräte bei Ermittlungen zu knacken. Der Fokus auf Hashes von bereits bekannten Fotos bedeutet zugleich, dass neue auf den Geräten erstellte Inhalte nicht entdeckt werden.
Datenschutz bleibt umstritten
Apple veröffentlichte Analysen mehrerer Experten, die den Datenschutz bei dem Verfahren begrüßten. Zugleich kritisierte bei Twitter ein Kryptografie-Experte an der US-Universität Johns Hopkins, Matthew Green, dass überhaupt die Möglichkeit zum Abgleich von Dateien auf den Geräten geschaffen werde. Er sieht speziell die Gefahr, dass jemand Hashes für andere Inhalte auf Geräte schleusen könnte – und dass autoritäre Regierungen Vorschriften zur Suche nach anderen Inhalten auf diese Weise erlassen könnten.
Mit einer weiteren Funktion wird es künftig die Möglichkeit geben, dass Eltern eine Warnmeldung erhalten, wenn ihr Kind in Apples Chatdienst iMessage Nacktfotos erhält oder verschickt. Die Nacktheit in den Bildern wird dabei von Software auf dem Gerät erkannt. Der Konzern erfährt nichts davon. dpa