
Wie viele Instagram-Nutzer:innen in der vergangenen Woche beim Aufruf ihrer Feeds so geschaut haben, ist unklar. Es waren wohl einige... (Foto: Fizkes / Shutterstock)
Am Mittwoch musste die Meta-Tochter Instagram einen „Fehler“ einräumen, der dazu geführt hatte, dass jedenfalls zahlreiche – wobei nicht klar ist, wie viele – Instagram-Feeds plötzlich mit verstörenden Inhalten bespielt wurden. Wie 404 Media berichtet, soll es sich dabei um Gewaltvideos, tierquälerische Inhalte, die Darstellung von Leichen und sogar Aufnahmen von Morden gehandelt haben.
Meta nennt das Ausspielen von Mordvideos „Fehler“
„Wir haben einen Fehler behoben, der dazu führte, dass einigen Nutzer:innen Inhalte in ihrem Instagram-Reels-Feed angezeigt wurden, die nicht hätten empfohlen werden sollen“, erklärte ein Meta-Sprecher gegenüber 404 Media. „Wir entschuldigen uns für diesen Fehler.“
Mit den kürzlich gelockerten Moderationsrichtlinien habe der Vorfall indes nichts zu tun, beeilte sich das Unternehmen anzufügen. Die von 404 Media ermittelte Zahl an Beschwerden in den sozialen Medien legt die Vermutung nahe, dass der „Fehler“ durchaus Breitenwirkung gehabt haben könnte.
Immerhin lautet der am höchsten bewertete Beitrag im Subreddit r/Instagram (übersetzt) „Instagram besteht jetzt zu 100 % aus Gewaltinhalten“. Dem Bericht zufolge waren die Kommentare unter den verstörenden Videos durchweg geschockter Natur. Irritierte Nutzer:innen konnten nicht nachvollziehen, warum ihr Feed plötzlich solche Inhalte zeigte.
Von wegen selten: Selbst Metas Moderator:innen entwickeln PTBS
„Ich hatte noch nie zuvor gesehen, wie jemand von einem Hai gefressen wird, gefolgt von einem tödlichen Autounfall, gefolgt von einer Erschießung“, berichtete ein Reddit-Nutzer gegenüber 404 Media. Normalerweise sehe er sich Hundevideos und Beiträge rund ums Biking an.
„Ich habe heute das Gefühl, ein Stück meiner Menschlichkeit verloren zu haben, weil ich mich diesen Videos ausgesetzt habe“, schrieb ein Reddit-Nutzer. „Ich kann nicht schlafen, weil mein Kopf die Bilder immer wieder abspielt.“
Es ist nicht neu, dass die Moderationsteams von Instagram und Facebook schon seit Langem mit verstörenden Inhalten konfrontiert sind. Manche Moderator:innen haben Meta deshalb bereits wegen der Entwicklung einer posttraumatischen Belastungsstörung (PTBS) verklagt. Meta verspricht, den „Fehler“ behoben zu haben.