Anzeige
Anzeige
News
Artikel merken

Warum es sinnvoll sein kann, Facebook deine Nacktfotos zu schicken

Facebook will Nutzer und Nutzerinnen besser schützen, die Opfer von sogenannter Rachepornografie geworden sind. Der Weg wirkt allerdings erst mal etwas ungewöhnlich.

2 Min. Lesezeit
Anzeige
Anzeige

Facebook will Opfer von Rachepornografie besser schützen. (Foto: Shutterstock)

Auf den ersten Blick erscheint es nicht nur kontraproduktiv, sondern geradezu absurd: Um zu verhindern, dass jemand Nacktfotos von dir dort postet, schickst du Facebook eben jene Bilder. Tatsächlich reagierten die meisten – darunter viele Medien, aber auch Datenschützer – zunächst mit Spott, als das Unternehmen im November 2017 ein Pilotprojekt in Australien genau so startete: Nutzer sollten ihre Nacktfotos einschicken. Facebook könnte dann jedem Bild einen individuellen und für Menschen nicht lesbaren Code, einen Hash, zuweisen, der es ähnlich einem Fingerabdruck zweifelsfrei identifiziert – und so jeden Versuch, das Foto hochzuladen, bereits im Keim ersticken.

Die Kontrolle zurückgewinnen

Anzeige
Anzeige

Opfer und Betroffenengruppen reagierten positiver auf Facebooks Idee und sahen darin eine Möglichkeit, die Kontrolle zurückzugewinnen – noch dazu in einem ausgesprochen wichtigen Bereich. Denn die Erfahrung zeige, erklärt Katelyn Bowden, Gründerin einer Betroffenengruppe, gegenüber NBC, dass Websites, die sich auf sogenannte Rachepornos spezialisiert hätten, zwar in der Google-Suche auftauchen würden. Wer aber nicht explizit danach suche, bekäme viele Nacktaufnahmen nie zu Gesicht. Auf Facebook hingegen seien viele Leute mit ihrem Klarnamen angemeldet und mit Freunden, Arbeitskolleginnen und auch Chefs verbunden. „Da sieht dich jeder“, so Bowden. Deshalb sei es so wichtig, dass Facebook in diesem Bereich Schritte unternimmt.

Mit dem US-amerikanischen Mediennetzwerk NBC haben Mitglieder von Facebooks 25-köpfigem Team nun erstmals über das Projekt gesprochen. Im Zentrum ihrer Bemühungen steht eine künstliche Intelligenz, die Bilder, die potenziell in böser Absicht geteilt werden sollen, erkennen können soll. Die KI achtet dabei auf ganz subtile Hinweise: Ein lachendes Emoji in Kombination mit einem Text wie „Schau dir das an“ könne bedeuten, dass es sich um unberechtigt hochgeladene Nacktaufnahmen handelt, so Facebook. Sobald die KI auf ein Bild aufmerksam wird, zieht sie einen Menschen zurate. Handelt es sich bei einem Bild tatsächlich um eine rachepornografische Aufnahme, löscht Facebook das Bild und den Account des Senders.

Anzeige
Anzeige

Ein andauernder Lernprozess

Noch befinde sich die KI im Lernprozess; Facebook hat aber Vertrauen in die Technologie. Andere zweifeln, wie etwa Sarah T. Roberts, die an der Universität von Los Angeles zu kommerzieller Content-Moderation forscht: „Selbst Menschen fällt es schwer, Intentionen zu erkennen. Wie soll also eine KI, die hauptsächlich auf abstrakten Mustern menschlichen Verhaltens beruht, das besser können?“

Anzeige
Anzeige

Bei Facebook bleibt man optimistisch: In einem Prozess, der dem zum Aufspüren von Kinderpornografie ähnelt, werden proaktiv eingereichte Aufnahmen kurz von speziell geschulten Moderatoren überprüft, bevor der digitale Fingerabdruck erstellt wird. Das Bild selbst wird nach sieben Tagen gelöscht. Auf lange Sicht, so das Unternehmen, strebe man die Zusammenarbeit mit Mitbewerbern wie Twitter, Youtube, Snap, Reddit oder auch Microsoft an – wie es bei der Bekämpfung von Terrorismuspropaganda bereits der Fall sei.

Nach dem etwas holprigen Start hat Facebook das Tool bereits in den USA, in Kanada, Großbritannien, Pakistan und Taiwan ausgerollt. Weitere Länder in Europa, dem Nahen Osten und Lateinamerika sollen in den kommenden Monaten folgen.

Anzeige
Anzeige

Das könnte dich auch interessieren:

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
2 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Adam Cwientzek

Gute Idee, aber falls Umsetzung! Auch wenn der Aufwand etwas größer währe, das Bild könnte man bereit auf der Anwenderseite vor erarbeiten, so dass es gar nicht erst übermittelt werden müsste. So ist es nur eine Frage der Zeit bis zum nächsten Skandal…

Antworten
Mitch

Breite Zustimmung @Adam.

Ich kann ja den Sinn in „verhindern, dass sensible Bilder überhaupt erst angezeigt werden können“ durchaus sehen. Und Betroffene sind dafür sicher dankbar und das ist eine große Hilfe.

Aber die Bilder überhaupt erst übertragen, bei Facebook durch eine Reihe menschlicher Bewerter schicken und dann drauf vertrauen, dass in den 7 Tagen keine Daten wegkommen. Nun ja … Den menschlichen Eingriff bei Siri et al fanden wir alle nicht gut, bei Nacktbildern ists dann wieder ok?

Die Frage, inwieweit KI und/oder Menschen in der Lage sind, aus einem Bild auf „Racheporno“ oder generell den Zusammenhang zu schliessen, stellt Ihr ja auch. Man könnte den Eindruck haben, wenn man nur die richtigen Themen wählt, ist Überzensieren dann auch ok…

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige