Anzeige
Anzeige
News
Artikel merken

Dickpick-Scanner: iPhones sollen Nacktfotos auch in Europa automatisch erkennen

Apples umstrittene Nacktfotoscanner-Funktion für iPhones geht anscheinend in mehreren Ländern außerhalb der USA online. Noch ist allerdings unklar, ob und wann sie in Deutschland auf den Markt kommt.

Von Hannah Klaiber
1 Min. Lesezeit
Anzeige
Anzeige

Apple rollt nun in mehreren Ländern einen Nacktfotoscanner für iPhones aus. (Foto: Shutterstock/NYC Russ)

Apple hat den Nacktfotoscanner als Jugendschutzfunktion entwickelt, heißt es vom US-Konzern. Im vergangenen Dezember brachte er ihn in den USA aufgrund von Bürgerrechtsprotesten verspätet auf den Markt.

Was fällt unter den Begriff „Nacktheit“?

Anzeige
Anzeige

Die englische Tageszeitung The Guardian und das US-Technikportal The Verge berichten nun, dass er demnächst auch in Großbritannien, Australien, Kanada und Neuseeland aktiviert werden soll. Apple bestätigte gegenüber dem Spiegel nur den Launch in Großbritannien und formulierte schwammig, „weitere Länder sollen in diesem Jahr folgen“. Ob unter diesen auch Deutschland sein wird, bleibt also noch unklar.

In Großbritannien können Eltern damit demnächst eine Warnfunktion auf dem iPhone aktivieren. Sollte ihr Kind ein Bild empfangen, auf dem „Nacktheit“ zu erkennen ist, wird das Foto verwischt und automatisch Hilfeoptionen angezeigt. Was unter den Begriff „Nacktheit“ fällt, spezifizierte Apple nicht detailliert. Im vergangenen Herbst war diesbezüglich vom US-Konzern von „explizit sexuellen Fotos“ die Rede.

Anzeige
Anzeige

Der Nacktfotoscanner ist dabei an Apples Nachrichten-App gekoppelt. Laut Hersteller analysiert die sogenannte Communication Safety mithilfe von maschinellem Lernen eingehende Bildanhänge. Die Funktion sei so konzipiert, dass Apple keinen Zugriff auf die Fotos erhält. Damit greift der Scanner in geringerem Maße auf die Daten der Nutzer:innen zu als geplant.

Anzeige
Anzeige

Bürgerrechtler besorgt

Apple sagt, dass die Überprüfung der Fotos lediglich lokal auf dem jeweiligen iPhone erfolge, angeblich erfahren weder das Unternehmen noch die Eltern, falls die Künstliche Intelligenz entsprechende Bilder erkennt.

Eine Neuerung, die in den vergangenen Monaten im Raum stand, kommt erst einmal aber nicht – auch nicht in den USA. Apple wollte ursprünglich Bilder erkennen und melden, die Missbrauch an Kindern zeigen, sobald diese in der iCloud hochgeladen werden. Der Protest von Bürgerrechtler:innen wurde an dieser Stelle besonders groß, da sie die Sorge umtrieb, eine solche Funktion könne von autoritären Staaten auch dafür verwendet werden, um nach anderen Inhalten zu suchen und würde somit eine virtuelle Überwachung ermöglichen.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige