Mozilla-Studie: Youtubes Empfehlungen sind immer noch eine Katastrophe

Liegt häufig daneben: Youtubes Empfehlungs-Algorithmus (Foto: Daniel Krason / Shutterstock)
Youtube brüstet sich gerne damit, einen komplexen Empfehlungs-Algorithmus zu haben, der den Zuschauerinnen und Zuschauern stets die mutmaßlich besten Inhalte anzeigt, die sie direkt im Anschluss an einen Clip gucken können. Und wer hat nicht auch schon einmal (oder hundertmal) auf eines der Videos geklickt, die einem von Youtube in der rechten Spalte oder auf der Startseite empfohlen wurden?
Wie eine Untersuchung von Mozilla nun herausfand, sind die empfohlenen Inhalte aber häufig alles andere als passend und schon gar nicht perfekt. Im Gegenteil, in manchen Fällen bringen sie Videos hervor, die wahlweise als verstörend, hasserfüllt oder als Fake News bezeichnet werden können – und die somit gegen Youtubes eigene Richtlinien verstoßen.
Für die Untersuchung hat Mozilla seit September vergangenen Jahres freiwillig gespendete Daten von rund 37.000 Nutzerinnen und Nutzern ausgewertet. Sie alle nutzten Mozillas Browser-Erweiterung RegretsReporter, über die sie Youtube-Videos flaggen konnten, die ihnen vom Algorithmus empfohlen wurden, die aber für Enttäuschung sorgten. Und das waren eine ganze Menge. Wie Mozilla schreibt, reichen die Inhalte von Covid-Angstmacherei über politischer Desinformation bis hin zu komplett unangemessenen Cartoons für Kinder.
Vor allem nicht-englischsprachige Nutzer bereuen die Empfehlungen
Unter den vom Youtube-Algorithmus empfohlenen Inhalten, die von den Nutzern selbst als unpassend gemeldet wurden, waren laut Mozilla 43 Prozent, die überhaupt nichts mit den vorher geschauten Clips zu tun hatten. Zwölf Prozent der gezeigten Videos verstießen zusätzlich gegen die Richtlinien der Videoplattform. 200 dieser Clips seien inzwischen gelöscht worden.
Besonders deutlich war die Diskrepanz zwischen Erwartung und Enttäuschung unter Userinnen und Usern in nicht-englischsprachigen Ländern. Hier lag die Rate der bereuten Videos bei 60 Prozent – mehr als die Hälfte der empfohlenen Videos fanden die Nutzer also als nicht hilfreich oder zumindest enttäuschend.
Für Brandi Geurkink von Mozilla ist das ein Beweis, dass Youtube schadhafte Inhalte nicht nur hostet, sondern gezielt empfiehlt, also verbreitet. „Youtube muss zugeben, dass sein Algorithmus so konzipiert ist, dass er Menschen schädigt und falsch informiert“, sagt Geurkink. In einem Statement antwortet das Unternehmen, dass man allein im vergangenen Jahr über 30 Änderungen eingeführt habe, um schädliche Inhalte weniger zu empfehlen. Regelmäßig löscht die Plattform Kanäle, die gegen die Nutzungsbedingungen verstoßen. Doch reicht das?
Die Untersuchung von Mozilla bestätigt die Kritiker, die schon seit längerem von Youtube fordern, stärker gegen Falschinformationen und Hate-Speech vorzugehen. Vergangenen Sommer zeigte eine andere Untersuchung, wie schnell sich Verschwörungsmythen auf Youtube verbreiten können und zu einem „Rabbit Hole“-Effekt führen.