News

Bericht zeigt erstmals, wie Facebook gegen Gewaltfotos und Hate-Speech vorgeht

(Foto: Shutterstock-Rawpixel.com)

Facebook hat erstmals offengelegt, wie viele unerwünschte Inhalte wie Gewaltdarstellungen oder Hate-Speech dank der internen Prüfungen nicht veröffentlicht wurden.

Facebook muss sich immer wieder vorwerfen lassen, dass die Plattform nicht genug gegen Gewalt, Hass, Terrorpropaganda oder Spam tut. In dem „Community Standards Enforcement Preliminary Report“ hat der Social-Network-Konzern jetzt erstmals offengelegt, wie viele solcher unerwünschter Inhalte vor der Veröffentlichung erkannt und gelöscht werden. Fake-News werden nicht eigens aufgeführt.

In dem Bericht wird die Gesamtzahl der Inhalte, Spam und Fake-Accounts, die im ersten Quartal 2018 wegen eines Verstoßes gegen die Facebook-Regeln erkannt oder gemeldet wurden, mit jener aus dem Schlussquartal 2017 verglichen. Demnach ist etwa die Zahl der Gewaltdarstellungen, gegen die Facebook Maßnahmen ergriffen wurde von 1,2 auf 3,4 Millionen gestiegen.

Bericht: Anzahl der Spam-Versuche steigt, aber Facebook erkennt sie alle

Bei Hate-Speech ging es dem Bericht zufolge um fast eine Million auf 2,5 Millionen Fälle nach oben. Laut Facebook finden sich damit unter 10.000 Inhalten etwa 22 bis 27 Gewaltbilder. Spam wurde im Zeitraum zwischen Januar und März in 837 Millionen Fällen erkannt – plus 110 Millionen gegenüber dem vorherigen Dreimonatszeitraum. Zurück ging dagegen die Zahl der Fake-Accounts – um 111 Millionen auf 583 Millionen im ersten Quartal.

Beim internen Aufspüren von Hate-Speech hat Facebook noch Verbesserungsbedarf. (Grafik: Facebook)

Interessant ist auch, in wie vielen Fällen Facebook solche Regelverstöße intern erkennt, bevor sie nach einer Veröffentlichung von Nutzern gemeldet werden. Dem Bericht zufolge liegt die Quote bei Terrorpropaganda derzeit bei 99,5 Prozent, Spam wird angeblich sogar zu 100 Prozent erkannt. Weniger zielsicher erkennt Facebook offenbar bildliche Gewaltdarstellungen und Hate-Speech. Hier liegen die Raten bei 86 Prozent beziehungsweise 38 Prozent – immerhin jeweils ein deutliches Plus gegenüber Schlussquartal 2017.

Dem Bericht zufolge arbeitet Facebook derzeit weiter an der Optimierung des rechtzeitigen Aufspürens von gewaltverherrlichenden Bildern, Fake-Accounts oder Hate-Speech. Derzeit setzt das Social Network auf einer Mischung aus Machine-Learning-Technologien und menschlichen Prüfern. Bis Ende dieses Jahres sollen mindestens 10.000 Mitarbeiter die auf Facebook veröffentlichten Inhalte überprüfen, wie Marketingland berichtet.

Mehr zum Thema:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Ein Kommentar
Joringel
Joringel

Die Doku „The Cleaners“ ist dazu sehr empfehlenswert.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung