Dickpick-Scanner: iPhones sollen Nacktfotos auch in Europa automatisch erkennen
Apple hat den Nacktfotoscanner als Jugendschutzfunktion entwickelt, heißt es vom US-Konzern. Im vergangenen Dezember brachte er ihn in den USA aufgrund von Bürgerrechtsprotesten verspätet auf den Markt.
Was fällt unter den Begriff „Nacktheit“?
Die englische Tageszeitung The Guardian und das US-Technikportal The Verge berichten nun, dass er demnächst auch in Großbritannien, Australien, Kanada und Neuseeland aktiviert werden soll. Apple bestätigte gegenüber dem Spiegel nur den Launch in Großbritannien und formulierte schwammig, „weitere Länder sollen in diesem Jahr folgen“. Ob unter diesen auch Deutschland sein wird, bleibt also noch unklar.
In Großbritannien können Eltern damit demnächst eine Warnfunktion auf dem iPhone aktivieren. Sollte ihr Kind ein Bild empfangen, auf dem „Nacktheit“ zu erkennen ist, wird das Foto verwischt und automatisch Hilfeoptionen angezeigt. Was unter den Begriff „Nacktheit“ fällt, spezifizierte Apple nicht detailliert. Im vergangenen Herbst war diesbezüglich vom US-Konzern von „explizit sexuellen Fotos“ die Rede.
Der Nacktfotoscanner ist dabei an Apples Nachrichten-App gekoppelt. Laut Hersteller analysiert die sogenannte Communication Safety mithilfe von maschinellem Lernen eingehende Bildanhänge. Die Funktion sei so konzipiert, dass Apple keinen Zugriff auf die Fotos erhält. Damit greift der Scanner in geringerem Maße auf die Daten der Nutzer:innen zu als geplant.
Bürgerrechtler besorgt
Apple sagt, dass die Überprüfung der Fotos lediglich lokal auf dem jeweiligen iPhone erfolge, angeblich erfahren weder das Unternehmen noch die Eltern, falls die Künstliche Intelligenz entsprechende Bilder erkennt.
Eine Neuerung, die in den vergangenen Monaten im Raum stand, kommt erst einmal aber nicht – auch nicht in den USA. Apple wollte ursprünglich Bilder erkennen und melden, die Missbrauch an Kindern zeigen, sobald diese in der iCloud hochgeladen werden. Der Protest von Bürgerrechtler:innen wurde an dieser Stelle besonders groß, da sie die Sorge umtrieb, eine solche Funktion könne von autoritären Staaten auch dafür verwendet werden, um nach anderen Inhalten zu suchen und würde somit eine virtuelle Überwachung ermöglichen.