Wie Facebook unsere politischen Ansichten beeinflusst

Facebook wird immer wieder vorgeworfen, die Polarisierung der Gesellschaft zu verschärfen. (Foto: Erik Cox Photography/Shutterstock)
Ein interdisziplinäres Team von Forscher:innen hat am Donnerstag vier Paper veröffentlicht, in denen anhand mehrerer Versuche das politische Verhalten der Facebook-User:innen während des US-Wahlkampfs 2020 untersucht wurde. Die Ergebnisse entstanden in Kooperation mit dem Facebook-Mutterkonzern Meta.
Facebook und ähnlichen sozialen Medien wird immer wieder vorgeworfen, durch ihre Algorithmen, die Menschen nur zeigen, was sie sehen wollen, politische Gräben in der Gesellschaft zu vertiefen.
Tatsächlich hat eine der Studien herausgefunden, dass vor allem Gruppen und Seiten auf Facebook verstärkt einseitige politische Botschaften transportieren – viel mehr, als einzelne User:innen das tun, und noch stärker, als es in früheren Studien angenommen wurde. Dadurch erhalten Anhänger:innen einer bestimmten politischen Richtung fast ausschließlich Informationen, die das eigenen Weltbild bestätigen.
Gepaart mit dem psychologischen Effekt der Confirmation-Bias, durch den Menschen Informationen ausblenden, die nicht der eigenen Meinung entsprechen, können sich durch so eine Echokammer politische Ansichten immer weiter erhärten.
Problematisch wird das vor allem dann, wenn in diesen Gruppen – wie schon sehr oft geschehen – Falschinformationen und Verschwörungstheorien verbreitet werden. Hauptsächlich betroffen von „Fake News“ sind laut einer der Studien vor allem die Inhalte konservativer Seiten. „Das Publikum von Seiten, die Falschinformation verbreiten, ist besonders homogen und komplett im rechten politischen Spektrum konzentriert“, heißt es dazu von den Forschenden.
Wie oft angenommen, hat es allerdings laut der Studie wenig Einfluss auf das politische Verhalten, ob User:innen ihren Feed als chronologische Ordnung oder vom Algorithmus beeinflusst anzeigen lassen.
Die chronologische Anordnung sorgte bei Proband:innen dafür, dass ihnen mehr faktisch falsche Inhalte angezeigt wurden, die Facebook sonst aussortiert hätte, dafür bekamen sie aber auch deutlich weniger Inhalte mit hasserfüllten Botschaften zu sehen. Interessant ist, dass diese Gruppe Facebook dann deutlich weniger nutzte, der Feed also wohl weniger Anziehung ausübte.
Die gerade veröffentlichten Paper sind nur die ersten einer ganzen Reihe von Ergebnissen, die in den nächsten Wochen der Öffentlichkeit vorgestellt werden sollen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team