Hat Metas Algorithmus Mitschuld am Genozid der Rohingya?

Der Internationale Gerichtshof ermittelt seit Juli 2022 auf Grundlage der Völkermordkonvention gegen die Regierung von Myanmar wegen mutmaßlichen ethnischen Säuberungen. Im August 2017 flohen über 700 000 Rohingya vor Gewaltexzessen der staatlichen Sicherheitskräfte im südostasiatischen Land.
„Anti-Rohingya-Echokammern“ bei Facebook
Der Vorwurf gegen Meta: Facebook soll Inhalte geduldet haben, mit denen gegen die muslimische Minderheit der Rohingya gehetzt wurde. Die soziale Plattform habe nichts unternommen, obwohl sie davon wussten – oder davon wissen sollte. Schließlich hatte eine Forschungsabteilung im Konzern darauf hingewiesen, dass der Algorithmus als Brandbeschleuniger für Extremismus wirken könnte.
Facebook habe sich laut Amnesty International in eine „Anti-Rohingya-Echokammer“ verwandelt. Um die User:innen auf der Seite zu halten, habe der Algorithmus immer mehr Hassinhalte ausgespielt. 2014 habe Facebook zwar versucht, gegen Hetze in Myanmar vorzugehen.
Die Kampagne sei jedoch in ihr Gegenteil umgeschlagen. Das soziale Medium hatte damals Sticker eingeführt, mit denen man diskriminierende Inhalte markieren konnte. Doch der Algorithmus missdeutete die Sticker. Anstatt sie zu verbergen, spielte er die markierten Inhalte öfter aus.
„Die Rolle der sozialen Medien war bedeutend“
Die unabhängige internationale Fact-Finding-Mission der UN hatte schon früher die Mitschuld von Meta herausgearbeitet. „Die Rolle der sozialen Medien war bedeutend“, hieß es in dem Bericht. In Myanmar war Facebook zu der Zeit für viele die wichtigste Quelle.
Amnesty International will Meta nun zur Verantwortung ziehen. Organisationen der Rohingya hatten den Konzern um eine Spende von einer Millionen US-Dollar für Projekte in einem Flüchtlingslager in Bangladesch gebeten.
Doch Meta lehnte ab. Aktuell laufen mindestens drei Zivilklagen, die von Meta eine Entschädigung fordern.
Agnès Callamard von Amnesty International fordert von Meta „Dringende, weitreichende Reformen ihrer algorithmischen Systeme, um Missbrauch zu verhindern und die Transparenz zu erhöhen, sind dringend erforderlich, um sicherzustellen, dass sich Metas Geschichte mit den Rohingya nicht anderswo auf der Welt wiederholt“.