Reportage

Generation Newsfeed: Wie groß ist die Schuld von Facebook an der Polarisierung wirklich?

(Foto: Shutterstock)

Filterblasen, Echokammern und die ständige Lust an der ­Empörung: Das Image der sozialen Medien hat durch Trump, den Brexit und die Wahlerfolge der AfD kräftig gelitten. Doch wie viel Schuld tragen Plattformen wie Facebook mit ­ihren durch Algorithmen kuratierten Newsfeeds tatsächlich an der zunehmenden Spaltung der Gesellschaft?

Seit der Bundestagswahl im Herbst 2017 sind die Dinge in den Augen vieler Demokraten komplizierter geworden. Seither sitzt die AfD mit 91 Abgeordneten im Bundestag – eine Partei, deren Vorsitzender den Holocaust als „Vogelschiss“ in der deutschen Geschichte bezeichnet. Nicht zuletzt ihr Erfolg in den sozialen Medien habe der AfD den Weg ins deutsche Parlament geebnet, sagt Mario Hau, Social-Media-Direktor der Fraktion: „Wir können schon sagen, dass Social Media den Erfolg der Partei erst möglich gemacht hat.“

Seine Aussage passt zum Zeitgeist. Seit dem Brexit, der Trump-Wahl und dem Bundestagseinzug der AfD sucht die Öffent­lichkeit nach einem Grund für die Polarisierung in der Gesellschaft: in Deutschland, England, Europa und den USA sowieso. Und unter den Schuldigen immer wieder genannt: die großen Plattformen des Social Web. Sie ließen mit ihren algorithmengetriebenen Newsfeeds Filterblasen oder auch Echokammern entstehen, die die Meinungsbildung beeinflussten und der Spaltung der Gesellschaft dadurch Vorschub leisteten. Ein Narrativ, so simpel wie überzeugend. Aber ist die Sachlage wirklich so klar?

Informationen ohne Grenzen

Die Idee, dass das grenzenlose Informationsangebot des Internets uns in Schwierigkeiten bringen könnte, ist alt und sehr beliebt. Schon vor fast 18 Jahren schrieb der amerikanische Rechts­wissenschaftler Cass Sunstein über sogenannte „Echokammern“ und eine mögliche Gruppenpolarisierung: „Auch wenn Millionen Menschen das Internet nutzen, um ihren Horizont zu erweitern, machen viele genau das Gegenteil. Sie erschaffen eine ‚Ich-­Zeitung‘, speziell auf ihre Interessen und Vorurteile zugeschnitten.“ Später beriet Sunstein Barack Obama in Sachen Social Media und zog mit ihm 2009 ins Weiße Haus ein.

2011 griff der Internetaktivist Eli Pariser die Echokammer-­These Sunsteins in seinem Buch „Filterblasen“ auf. Pariser bezog sich dabei auf die mittlerweile personalisierte Suche Googles und den ebenfalls personalisierten Newsfeed von Facebook. Aber auch der liberale Netzkritiker entschied sich dafür, diese Blase selbst zu bespielen – und gründete Upworthy. Damals das schnellst wachsende Medien­unternehmen der Welt, füllte Upworthy die Facebook-Newsfeeds von Millionen von Menschen mit liberalem Video-Clickbait.

Die erste Bekanntschaft der Liberalen mit den sozialen ­Effekten des Internets und Social-Media-Plattformen war also eine aus ­ihrer Sicht durchaus angenehme: Obama war Präsident geworden. Es ereigneten sich sogar demokratische Revolutionen, die mit Social ­Media in Verbindung gebracht wurden. ­Parallelen dazu gab es auch in Deutschland etwa mit dem Hashtag ­#Aufschrei, der Sexismus anprangerte. Echokammer? Na, aber hör doch mal, wie schön es schallt! Dann brach die Welle.

Statt demokratischer Revolutionäre wie 2010 und 2011 machte plötzlich der IS mit seiner Youtube-Strategie Schlagzeilen. Und während sich in Bezug auf den islamistischen Extremismus noch eine klare Strategie anbot – einfach blocken –, wurde es spätestens beim Umgang mit der neuen Rechten kompliziert: Wo endet der Diskurs, wo beginnt die Hetze? Was darf bleiben, was muss gelöscht werden? Und wer hat darüber eigentlich zu entscheiden? Mit dem Brexit-­Referendum waren die sozialen Netz­werke dann endgültig in einem Kulturkampf gelandet: Social Media schien jetzt nicht mehr den demokratischen Sympathieträgern, sondern den Populisten – der AfD in Deutschland, der Alt-Right in den USA, den Brexiteers im Vereinigten Königreich und dem Front ­National in Frankreich – unter die Arme zu greifen.

„Die Echokammer-These lässt sich empirisch nicht belegen.“

Nicht wenige Menschen glauben, dass Polarisierung eben ein ­Charakteristikum von Social Media sei. Roger McNamee, selbst ein früher Google- und Facebook-Investor, sagt, Facebook und Google würden „Gehirne hacken“, gezielt Suchtverhalten erzeugen und seien „Bedrohungen für die öffentliche Gesundheit und die Demokratie“. Sie verstärkten Voreingenommenheit und verringerten die Vielfalt der Ideen, mit denen Nutzer in Kontakt kommen. Die Bezeichnung „Gehirne hacken“ hat McNamee von dem ehemaligen Google-Mitarbeiter Tristan Harris übernommen. „Empörung verbreitet sich schneller als alles, was nicht Empörung ist. (…) Und Empörung kriegt die meisten Klicks, also priorisiert [der Algorithmus] Empörung“, sagt Harris jetzt. Keywörter wie „Trump“ würden somit an die Spitze jedes Newsfeeds gespült. Chamath Palihapitiya, auch ehemals leitender Angestellter beim frühen Facebook und mittlerweile Investor, brachte das bei einer Veranstaltung der Universität Stanford so auf den Punkt: „Die kurzfristigen, dopamingetriebenen Feedbackschleifen, die wir geschaffen haben, zerstören, wie die Gesellschaft funktioniert. (…) Kein ziviler Diskurs, keine Kooperation, Falschinformationen, Unwahrheiten. Und es ist kein amerikanisches Problem, es geht nicht um russische Werbeanzeigen. Das ist ein globales Problem.“

Die Technologiesoziologin Zeynep Tüfekçi hat sich ganz auf ­Youtube eingeschossen. Ihre Kernthese ist, dass eigentlich niemand mehr genau verstehe, wie Algorithmen funktionierten, die für uns die Newsfeeds oder die Kategorie „nächstes Video“ bei Youtube zusammenstellen. Was man aber am Output der Algorithmen betrachten könne, so Tüfekçi: Sie neigen dazu, immer extremere Inhalte vorzuschlagen. „Ich habe mir ein Video über Vegetarismus auf Youtube angeschaut. Dann hat mir Youtube ein Video über Veganismus vorgeschlagen. Es ist, als wäre man nie hardcore genug für Youtube!“ Wenn man sich statt Vegetarier­videos Trump-Demos anschaue, lande man dementsprechend früher oder später auf rechtsextremen Kanälen.

Allerdings gehen die Kritiker im Valley nicht davon aus, dass die Social-Media-Macher grundsätzlich böse sind. Eher sei es eine Frage der Anreize: Solange Bildschirmzeit gleich Werbezeit sei, zahle sich Polarisierung aus, denn die klickt einfach besser.

10.000 Posts für jeden Nutzer

Wenn man Stefan Meister anruft, Pressesprecher von Facebook in Deutschland, um mit ihm über algorithmisierte Nachrichten, Filterblasen und Echokammern zu sprechen, erlebt man einen Mann, der unter Feuer steht. Das ist wenig überraschend: Seit dem Erfolg der neuen Rechten auf Facebook wird die Plattform mit eigentlich allem in Verbindung gebracht, was nach Populismus aussieht: angefangen bei der AfD über die Gelbwesten in Frankreich bis hin zu Trump in den USA. Dass Facebook dazu noch regelmäßig mit Datenskandalen auffällt, zur ­Beeinflussung von Wahlen instrumentalisiert wurde und bei einer PR-Schmieren­kampagne gegen George Soros ertappt wurde, macht es natürlich nicht ­besser. Aus PR-Perspektive ist Facebook nach Trump ungefähr so gut aufgestellt wie BP nach dem Untergang der ­Deepwater Horizon. Monatelang befand sich die Aktie im Sturzflug. Man merkt im Gespräch, dass Stephan Meister und ­Facebook sehr viel daran gelegen ist, nicht mehr als riesiges, digitales Problem dazustehen.
„Aus den Likes, Freunden und Profilen ergeben sich 10.000 Posts, die jedem Nutzer angezeigt werden könnten“, erklärt ­Meister. Weil sich kein Mensch 10.000 Posts angucken könne, stehe Facebook vor dem Problem, diese Posts in eine sinnvolle Reihenfolge zu bringen. Das Dilemma dabei: Wenn Facebook den Newsfeed nach dem Klickverhalten der Nutzer optimiert, schafft es die berühmten Echokammern. Wenn Facebook den Nutzern Inhalte vorsetzt, die ihnen gegen den Strich gehen, fühlen sie sich auf Facebook fremd.

Für eine Polarisierung fühlt sich Facebook aber nicht verantwortlich: „Auf Facebook sehen Menschen nachweislich nicht nur mehr Informationen, sondern auch ein breiteres Spektrum an Informationsquellen und Meinungen“, argumentiert Meister. Das liege daran, dass die Facebook-Freunde, die man über die Jahre so ansammele, sehr unterschiedlich seien. Facebook optimiere nicht nur auf möglichst viel Interaktion mit einem bestimmten Artikel: „Wenn ich es schaffe, dass Menschen, die noch nicht miteinander gesprochen haben, unter dem Artikel diskutieren, ist das im ­Ranking ein überaus positives Signal“, so Meister.

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung