Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Facebook: Nach diesen Kriterien löscht das soziale Netzwerk Nachrichten

Noch mehr Content-Prüfer will Facebook in Zukunft beschäftigen. Schon heute lastet auf den Mitarbeitern ein enormer psychischer Druck. (Foto: achinthamb/Shutterstock)

Interne Dokumente zeigen jetzt erstmals, nach welchen Regeln Facebook-Mitarbeiter Postings prüfen und löschen. Dabei haben die Mitarbeiter gute Gründe, verunsichert zu sein.

Wenn es darum geht, nach welchen Kriterien Facebook Inhalte entfernt oder auf der Website belässt, gab sich Facebook in der Vergangenheit verschlossen. Bekanntgegeben wurden lediglich nichtssagende allgemeine Kriterien, nach denen ein großes Mitarbeiter-Team entscheidet, ob ein Posting bleibt oder nicht.

Jetzt haben der Guardian und die Süddeutsche Einblicke in Schulungsunterlagen und Diagramme erhalten, die den Mitarbeitern an die Hand gegeben werden, um diese Entscheidungen zu treffen. So lernen die Mitarbeiter, welche Postings sie stehen lassen dürfen, welche gelöscht werden sollen und in welchen Fällen die Strafverfolgungsbehörden informiert werden müssen.

Alleine 600 Mitarbeiter sollen beim Dienstleister Arvato in Berlin angestellt sein, um das soziale Netzwerk von Inhalten zu befreien, die man den Lesern aus rechtlichen oder moralischen und ethischen Gründen nicht zumuten will. Die Content-Moderatoren haben dabei oft nur wenige Sekunden Zeit, einen Fall zu beurteilen und gegebenenfalls Postings zu löschen. Sie seien dabei regelmäßig Fotos und Videos zu Themen wie Mord, Folter oder Kindesmisshandlung ausgesetzt. In Zukunft soll deren Arbeit nach Angaben des Unternehmens noch ausgeweitet werden: So kündigte Mark Zuckerberg Anfang Mai an, die Zahl der Kontrolleure weltweit von 4500 auf 7500 erhöhen zu wollen.

Dilemma für Facebook: Zeigen oder nicht zeigen?

Die Regeln, so urteilt die Süddeutsche, seien extrem komplex, aber einleuchtend. Vor einem Dilemma steht das soziale Netzwerk beispielsweise regelmäßig, wenn es um Selbstmordfälle geht. Einerseits will man Nutzern nicht verwehren, solche Inhalte ins Netz zu stellen, da diese meist Hilferufe seien. Andererseits sollen aber andere hierdurch auch nicht zu etwas Vergleichbarem ermutigt werden. Für die Betroffenen sei es am besten, mit anderen in Kontakt zu bleiben. Daher würden solche Aufnahmen erst entfernt, wenn es keine Möglichkeit mehr gibt, der Person zu helfen.

Ähnlich schwer tut man sich mit Bildern von selbst zugefügten Wunden oder Essstörungen. Zwar wolle man solche Inhalte nicht auf der Seite haben, da sie „selbstverletzende Verhaltensweisen anderer Nutzer auslösen könnten“. In Zusammenhang mit einer Aufforderung oder Anleitung verstoße ein solches Bild daher auch gegen die Regeln von Facebook. Das gelte allerdings nicht für das kommentarlose Bild eines abgemagerten Körpers.

Facebook gibt Hinweis, nicht Offensichtliches zu ignorieren

Alles in allem lastet auf den Content-Kontrolleuren eine große Verantwortung – die offenbar auch zur psychischen Herausforderung werden kann. Dabei heißt es in den FAQs der Mitarbeiter auf die Frage, was man tun solle, wenn man sich nicht sicher sei, ob eine Person Hilfe brauche: „Wenn es nicht offensichtlich ist, dass sie Hilfe brauchen, ignoriere den Inhalt einfach.“ Auch könne man Fälle mit seinem Vorgesetzten besprechen, heißt es in den Schulungsunterlagen.

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Melde dich mit deinem t3n-Account an oder fülle die unteren Felder aus.

Abbrechen

Finde einen Job, den du liebst