Das steht im ersten X-Transparenzbericht seit Elon Musks Übernahme
Im Jahr 2022 hatte Elon Musk Twitter gekauft. Mittlerweile heißt der Dienst X – und seit der Übernahme Musks gab es keinen Transparenzbericht mehr. Zuvor war noch alle sechs Monate einer veröffentlicht worden.
In 6 Monaten: 67 Millionen Meldungen über hasserfülltes Verhalten
Jetzt aber gibt es auch den ersten Transparenzbericht der Ära Musk. So sollen allein in den ersten sechs Monaten des Jahres 2024 knapp 67 Millionen Meldungen über hasserfülltes Verhalten eingegangen und deshalb Maßnahmen gegen mehr als 2.000 X-Konten ergriffen worden sein.
Der neue Transparenzbericht deckt in etwa die gleichen Bereiche wie die alten ab: die Entfernung von Inhalten, Daten darüber, welche Inhalte gemeldet wurden sowie eine Auflistung behördlicher Informationsanfragen. Laut dem neuen X-Bericht gab es insgesamt über 224 Millionen Meldungen, sowohl von Konten als auch von einzelnen Inhalten, 5,2 Millionen Konten seien gesperrt worden.
Unterschiede zwischen den Berichten
Es gibt auch Unterschiede zwischen den Berichten: Im vorherigen Bericht aus dem Jahr 2021 machten Konten, die wegen hasserfüllter Inhalte gemeldet wurden, fast die Hälfte aller Meldungen aus. Gegen rund eine Million Konto seien deshalb Maßnahmen ergriffen worden. Im neuen Bericht teilt das Unternehmen mit, dass es gegen 2.361 Konten vorgegangen ist, die hasserfüllte Inhalte veröffentlicht haben.
Theodora Skeadas, ein ehemaliges Mitglied des Public Policy Teams von Twitter, erklärt den Unterschied gegenüber Wired so: „Da bestimmte Richtlinien geändert wurden, sind einige Inhalte nicht mehr verletzend.“ X hat seit der Übernahme durch Musk zudem auch Nutzer:innen verloren, was die neue Realität der Plattform weiter verkompliziere.
Elon Musks Leben in Bildern
Kritik am neuen Bericht
Außerdem hat Musk seit seiner Übernahme zahlreiche Personen entlassen, die für die Erstellung von Regularien zuständig gewesen sind. Daran knüpft Kritik von Skeadas an.
Obwohl der Bericht darauf hinweist, dass viele der sogenannten Takedowns, sprich der gelöschten Konten, algorithmisch sind, sagte sie, dass mit weniger Personal „automatisierte Systeme möglicherweise nicht so regelmäßig überprüft werden, wie sie sollten“. Dies, so Skeadas, sei aber besonders wichtig für „Menschenrechtsverteidiger, Journalisten, Frauen, geschützte Bevölkerungsgruppen, ethnische und religiöse Minderheiten“. Dies seien Gruppen, die von den vorherigen „Sicherheitsbehörden“ von Twitter „besondere Aufmerksamkeit“ erhalten hätten, um für „sichere Räume auf der Plattform“ zu sorgen.