Schreib bloß nicht „Sklaven“, „Sex“ oder „Drogen“: Tiktok blockiert Wörter in Deutschland
Die populäre Video-App Tiktok, die von einer Milliarde vor allem jüngeren Menschen in aller Welt genutzt wird, ist schon in der Vergangenheit mehrmals mit Zensurvorwürfen konfrontiert gewesen. In China sind etwa Erwähnungen des Tian‘anmen-Massakers, Freiheitsforderungen für Tibet oder LGBTQ-Themen ein No-Go.
Tiktok blockiert Inhalte auch in Deutschland
Aber auch in Deutschland steht Tiktok unter Verdacht, unliebsame Inhalte einfach wegzublocken. Laut Betreiber Bytedance liege das einfach daran, dass man möglichst wenig mit Politik zu tun haben wolle und auch negative Ausdrücke nicht wünsche. Tiktok etwa präsentiert sich hierzulande als LGBTQ-freundlich, blockiert aber Begriffe wie „gay“ oder eben „LGBTQ“.
Nachdem schon im Frühjahr entsprechende Vorwürfe der Zensur bestimmter Begriffe in Deutschland laut geworden waren, legen die Kolleg:innen von NDR, WDR und Tagesschau noch mal nach. Den Recherchen der ARD-Rundunkanstalten und der Tagesschau zufolge soll Tiktok „mindestens 20 Wörter über automatisierte Filter“ zurückhalten.
Vier Versuche von unterschiedlichen Testaccounts hätten demnach ergeben, dass Kommentare, die einen der 20 Begriffe enthielten, nicht öffentlich unter den Videos erschienen. Getestet wurden 70 Wörter und Wortkombinationen.
Blockiert Begriffe im September 2022 auf Tiktok
Folgende Wörter sind den Recherchen nach im September 2022 auf Tiktok in Deutschland nicht zulässig und werden blockiert: „Cannabis“, „Crack“, „Drogen“, „Gas“, „gay“, „Heroin“, „Heterosexuelle“, „homo“, „Kokain“, „LGBTQ“, „LGBTQI“, „LSD“, „Nazi“, „Porno“, „Pornografie“, „Prostitution“, „schwul“, „Sex“, „Sexarbeit“ und „Sklaven“.
Darüber hinaus gab es verschiedene Wörter, die zumindest in einigen Fällen für eine Nicht-Veröffentlichung des Kommentars sorgten, darunter Wörter im Kontext des Ukrainekriegs („Kampfjets“, „Völkerrecht“), einige Drogen sowie Begriffe wie „Klimakrise“ und „Klimawandel“.
Eine Tiktok-Sprecherin erklärte auf Anfrage, dass das Unternehmen Technologien einsetze, die „proaktiv nach Kommentaren suchen, die gegen unsere Richtlinien verstoßen oder die ein Spam-Verhalten darstellen“. Allerdings seien in diesem Fall, so die Sprecherin, Kommentare, die nicht gegen die Richtlinien verstoßen, „fälschlicherweise als potenziell schädlich gekennzeichnet“ worden.
Die automatisierten Systeme sollen weiter trainiert werden, so Tiktok. Zudem wolle die Plattform in den kommenden Wochen Forscher:innen Zugriff auf die Moderations-API geben.
Tiktok erklärt nicht, warum Kommentare verschwinden
Im Test wurde den Nutzer:innen allerdings kein einziges Mal erklärt, warum ein Kommentar nicht erschien. Stattdessen sah es so aus, als sei der Kommentar öffentlich – Expert:innen bezeichnen das als „Shadow-banning“. Tiktok verspricht auch hier Besserung.
„Problematisch“ findet dies der Medienwissenschaftler Christian Stöcker. Man wisse schließlich nicht, „wie TikTok genau moderiert, mit welchen Werkzeugen und mit welcher Arbeitskraft“, zitiert tagesschau.de. Letztlich sei die Art der Moderation wohl auch eine Kostenfrage. Automatisierte Wortfilter seien wesentlich billiger als menschliche Content-Moderator:innen.