Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Bericht zeigt erstmals, wie Facebook gegen Gewaltfotos und Hate-Speech vorgeht

(Foto: Shutterstock-Rawpixel.com)

Facebook hat erstmals offengelegt, wie viele unerwünschte Inhalte wie Gewaltdarstellungen oder Hate-Speech dank der internen Prüfungen nicht veröffentlicht wurden.

Facebook muss sich immer wieder vorwerfen lassen, dass die Plattform nicht genug gegen Gewalt, Hass, Terrorpropaganda oder Spam tut. In dem „Community Standards Enforcement Preliminary Report“ hat der Social-Network-Konzern jetzt erstmals offengelegt, wie viele solcher unerwünschter Inhalte vor der Veröffentlichung erkannt und gelöscht werden. Fake-News werden nicht eigens aufgeführt.

In dem Bericht wird die Gesamtzahl der Inhalte, Spam und Fake-Accounts, die im ersten Quartal 2018 wegen eines Verstoßes gegen die Facebook-Regeln erkannt oder gemeldet wurden, mit jener aus dem Schlussquartal 2017 verglichen. Demnach ist etwa die Zahl der Gewaltdarstellungen, gegen die Facebook Maßnahmen ergriffen wurde von 1,2 auf 3,4 Millionen gestiegen.

Bericht: Anzahl der Spam-Versuche steigt, aber Facebook erkennt sie alle

Bei Hate-Speech ging es dem Bericht zufolge um fast eine Million auf 2,5 Millionen Fälle nach oben. Laut Facebook finden sich damit unter 10.000 Inhalten etwa 22 bis 27 Gewaltbilder. Spam wurde im Zeitraum zwischen Januar und März in 837 Millionen Fällen erkannt – plus 110 Millionen gegenüber dem vorherigen Dreimonatszeitraum. Zurück ging dagegen die Zahl der Fake-Accounts – um 111 Millionen auf 583 Millionen im ersten Quartal.

Beim internen Aufspüren von Hate-Speech hat Facebook noch Verbesserungsbedarf. (Grafik: Facebook)

Interessant ist auch, in wie vielen Fällen Facebook solche Regelverstöße intern erkennt, bevor sie nach einer Veröffentlichung von Nutzern gemeldet werden. Dem Bericht zufolge liegt die Quote bei Terrorpropaganda derzeit bei 99,5 Prozent, Spam wird angeblich sogar zu 100 Prozent erkannt. Weniger zielsicher erkennt Facebook offenbar bildliche Gewaltdarstellungen und Hate-Speech. Hier liegen die Raten bei 86 Prozent beziehungsweise 38 Prozent – immerhin jeweils ein deutliches Plus gegenüber Schlussquartal 2017.

Dem Bericht zufolge arbeitet Facebook derzeit weiter an der Optimierung des rechtzeitigen Aufspürens von gewaltverherrlichenden Bildern, Fake-Accounts oder Hate-Speech. Derzeit setzt das Social Network auf einer Mischung aus Machine-Learning-Technologien und menschlichen Prüfern. Bis Ende dieses Jahres sollen mindestens 10.000 Mitarbeiter die auf Facebook veröffentlichten Inhalte überprüfen, wie Marketingland berichtet.

Mehr zum Thema:

Bitte beachte unsere Community-Richtlinien

Eine Reaktion
Joringel

Die Doku „The Cleaners“ ist dazu sehr empfehlenswert.

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Finde einen Job, den du liebst