Auf den ersten Blick erscheint es nicht nur kontraproduktiv, sondern geradezu absurd: Um zu verhindern, dass jemand Nacktfotos von dir dort postet, schickst du Facebook eben jene Bilder. Tatsächlich reagierten die meisten – darunter viele Medien, aber auch Datenschützer – zunächst mit Spott, als das Unternehmen im November 2017 ein Pilotprojekt in Australien genau so startete: Nutzer sollten ihre Nacktfotos einschicken. Facebook könnte dann jedem Bild einen individuellen und für Menschen nicht lesbaren Code, einen Hash, zuweisen, der es ähnlich einem Fingerabdruck zweifelsfrei identifiziert – und so jeden Versuch, das Foto hochzuladen, bereits im Keim ersticken.
Die Kontrolle zurückgewinnen
Opfer und Betroffenengruppen reagierten positiver auf Facebooks Idee und sahen darin eine Möglichkeit, die Kontrolle zurückzugewinnen – noch dazu in einem ausgesprochen wichtigen Bereich. Denn die Erfahrung zeige, erklärt Katelyn Bowden, Gründerin einer Betroffenengruppe, gegenüber NBC, dass Websites, die sich auf sogenannte Rachepornos spezialisiert hätten, zwar in der Google-Suche auftauchen würden. Wer aber nicht explizit danach suche, bekäme viele Nacktaufnahmen nie zu Gesicht. Auf Facebook hingegen seien viele Leute mit ihrem Klarnamen angemeldet und mit Freunden, Arbeitskolleginnen und auch Chefs verbunden. „Da sieht dich jeder“, so Bowden. Deshalb sei es so wichtig, dass Facebook in diesem Bereich Schritte unternimmt.
Mit dem US-amerikanischen Mediennetzwerk NBC haben Mitglieder von Facebooks 25-köpfigem Team nun erstmals über das Projekt gesprochen. Im Zentrum ihrer Bemühungen steht eine künstliche Intelligenz, die Bilder, die potenziell in böser Absicht geteilt werden sollen, erkennen können soll. Die KI achtet dabei auf ganz subtile Hinweise: Ein lachendes Emoji in Kombination mit einem Text wie „Schau dir das an“ könne bedeuten, dass es sich um unberechtigt hochgeladene Nacktaufnahmen handelt, so Facebook. Sobald die KI auf ein Bild aufmerksam wird, zieht sie einen Menschen zurate. Handelt es sich bei einem Bild tatsächlich um eine rachepornografische Aufnahme, löscht Facebook das Bild und den Account des Senders.
Ein andauernder Lernprozess
Noch befinde sich die KI im Lernprozess; Facebook hat aber Vertrauen in die Technologie. Andere zweifeln, wie etwa Sarah T. Roberts, die an der Universität von Los Angeles zu kommerzieller Content-Moderation forscht: „Selbst Menschen fällt es schwer, Intentionen zu erkennen. Wie soll also eine KI, die hauptsächlich auf abstrakten Mustern menschlichen Verhaltens beruht, das besser können?“
Bei Facebook bleibt man optimistisch: In einem Prozess, der dem zum Aufspüren von Kinderpornografie ähnelt, werden proaktiv eingereichte Aufnahmen kurz von speziell geschulten Moderatoren überprüft, bevor der digitale Fingerabdruck erstellt wird. Das Bild selbst wird nach sieben Tagen gelöscht. Auf lange Sicht, so das Unternehmen, strebe man die Zusammenarbeit mit Mitbewerbern wie Twitter, Youtube, Snap, Reddit oder auch Microsoft an – wie es bei der Bekämpfung von Terrorismuspropaganda bereits der Fall sei.
Nach dem etwas holprigen Start hat Facebook das Tool bereits in den USA, in Kanada, Großbritannien, Pakistan und Taiwan ausgerollt. Weitere Länder in Europa, dem Nahen Osten und Lateinamerika sollen in den kommenden Monaten folgen.
Das könnte dich auch interessieren:
Gute Idee, aber falls Umsetzung! Auch wenn der Aufwand etwas größer währe, das Bild könnte man bereit auf der Anwenderseite vor erarbeiten, so dass es gar nicht erst übermittelt werden müsste. So ist es nur eine Frage der Zeit bis zum nächsten Skandal…
Breite Zustimmung @Adam.
Ich kann ja den Sinn in „verhindern, dass sensible Bilder überhaupt erst angezeigt werden können“ durchaus sehen. Und Betroffene sind dafür sicher dankbar und das ist eine große Hilfe.
Aber die Bilder überhaupt erst übertragen, bei Facebook durch eine Reihe menschlicher Bewerter schicken und dann drauf vertrauen, dass in den 7 Tagen keine Daten wegkommen. Nun ja … Den menschlichen Eingriff bei Siri et al fanden wir alle nicht gut, bei Nacktbildern ists dann wieder ok?
Die Frage, inwieweit KI und/oder Menschen in der Lage sind, aus einem Bild auf „Racheporno“ oder generell den Zusammenhang zu schliessen, stellt Ihr ja auch. Man könnte den Eindruck haben, wenn man nur die richtigen Themen wählt, ist Überzensieren dann auch ok…