Anzeige
Anzeige
Reportage

Generation Newsfeed: Wie groß ist die Schuld von Facebook an der Polarisierung wirklich?

Filterblasen, Echokammern und die ständige Lust an der ­Empörung: Das Image der sozialen Medien hat durch Trump, den Brexit und die Wahlerfolge der AfD kräftig gelitten. Doch wie viel Schuld tragen Plattformen wie Facebook mit ­ihren durch Algorithmen kuratierten Newsfeeds tatsächlich an der zunehmenden Spaltung der Gesellschaft?

Von Jan Vollmer
12 Min.
Artikel merken
Anzeige
Anzeige

(Foto: Shutterstock)

Seit der Bundestagswahl im Herbst 2017 sind die Dinge in den Augen vieler Demokraten komplizierter geworden. Seither sitzt die AfD mit 91 Abgeordneten im Bundestag – eine Partei, deren Vorsitzender den Holocaust als „Vogelschiss“ in der deutschen Geschichte bezeichnet. Nicht zuletzt ihr Erfolg in den sozialen Medien habe der AfD den Weg ins deutsche Parlament geebnet, sagt Mario Hau, Social-Media-Direktor der Fraktion: „Wir können schon sagen, dass Social Media den Erfolg der Partei erst möglich gemacht hat.“

Anzeige
Anzeige

Seine Aussage passt zum Zeitgeist. Seit dem Brexit, der Trump-Wahl und dem Bundestagseinzug der AfD sucht die Öffent­lichkeit nach einem Grund für die Polarisierung in der Gesellschaft: in Deutschland, England, Europa und den USA sowieso. Und unter den Schuldigen immer wieder genannt: die großen Plattformen des Social Web. Sie ließen mit ihren algorithmengetriebenen Newsfeeds Filterblasen oder auch Echokammern entstehen, die die Meinungsbildung beeinflussten und der Spaltung der Gesellschaft dadurch Vorschub leisteten. Ein Narrativ, so simpel wie überzeugend. Aber ist die Sachlage wirklich so klar?

Informationen ohne Grenzen

Die Idee, dass das grenzenlose Informationsangebot des Internets uns in Schwierigkeiten bringen könnte, ist alt und sehr beliebt. Schon vor fast 18 Jahren schrieb der amerikanische Rechts­wissenschaftler Cass Sunstein über sogenannte „Echokammern“ und eine mögliche Gruppenpolarisierung: „Auch wenn Millionen Menschen das Internet nutzen, um ihren Horizont zu erweitern, machen viele genau das Gegenteil. Sie erschaffen eine ‚Ich-­Zeitung‘, speziell auf ihre Interessen und Vorurteile zugeschnitten.“ Später beriet Sunstein Barack Obama in Sachen Social Media und zog mit ihm 2009 ins Weiße Haus ein.

Anzeige
Anzeige

2011 griff der Internetaktivist Eli Pariser die Echokammer-­These Sunsteins in seinem Buch „Filterblasen“ auf. Pariser bezog sich dabei auf die mittlerweile personalisierte Suche Googles und den ebenfalls personalisierten Newsfeed von Facebook. Aber auch der liberale Netzkritiker entschied sich dafür, diese Blase selbst zu bespielen – und gründete Upworthy. Damals das schnellst wachsende Medien­unternehmen der Welt, füllte Upworthy die Facebook-Newsfeeds von Millionen von Menschen mit liberalem Video-Clickbait.

Anzeige
Anzeige

Die erste Bekanntschaft der Liberalen mit den sozialen ­Effekten des Internets und Social-Media-Plattformen war also eine aus ­ihrer Sicht durchaus angenehme: Obama war Präsident geworden. Es ereigneten sich sogar demokratische Revolutionen, die mit Social ­Media in Verbindung gebracht wurden. ­Parallelen dazu gab es auch in Deutschland etwa mit dem Hashtag ­#Aufschrei, der Sexismus anprangerte. Echokammer? Na, aber hör doch mal, wie schön es schallt! Dann brach die Welle.

Statt demokratischer Revolutionäre wie 2010 und 2011 machte plötzlich der IS mit seiner Youtube-Strategie Schlagzeilen. Und während sich in Bezug auf den islamistischen Extremismus noch eine klare Strategie anbot – einfach blocken –, wurde es spätestens beim Umgang mit der neuen Rechten kompliziert: Wo endet der Diskurs, wo beginnt die Hetze? Was darf bleiben, was muss gelöscht werden? Und wer hat darüber eigentlich zu entscheiden? Mit dem Brexit-­Referendum waren die sozialen Netz­werke dann endgültig in einem Kulturkampf gelandet: Social Media schien jetzt nicht mehr den demokratischen Sympathieträgern, sondern den Populisten – der AfD in Deutschland, der Alt-Right in den USA, den Brexiteers im Vereinigten Königreich und dem Front ­National in Frankreich – unter die Arme zu greifen.

Anzeige
Anzeige

„Die Echokammer-These lässt sich empirisch nicht belegen.“

Nicht wenige Menschen glauben, dass Polarisierung eben ein ­Charakteristikum von Social Media sei. Roger McNamee, selbst ein früher Google- und Facebook-Investor, sagt, Facebook und Google würden „Gehirne hacken“, gezielt Suchtverhalten erzeugen und seien „Bedrohungen für die öffentliche Gesundheit und die Demokratie“. Sie verstärkten Voreingenommenheit und verringerten die Vielfalt der Ideen, mit denen Nutzer in Kontakt kommen. Die Bezeichnung „Gehirne hacken“ hat McNamee von dem ehemaligen Google-Mitarbeiter Tristan Harris übernommen. „Empörung verbreitet sich schneller als alles, was nicht Empörung ist. (…) Und Empörung kriegt die meisten Klicks, also priorisiert [der Algorithmus] Empörung“, sagt Harris jetzt. Keywörter wie „Trump“ würden somit an die Spitze jedes Newsfeeds gespült. Chamath Palihapitiya, auch ehemals leitender Angestellter beim frühen Facebook und mittlerweile Investor, brachte das bei einer Veranstaltung der Universität Stanford so auf den Punkt: „Die kurzfristigen, dopamingetriebenen Feedbackschleifen, die wir geschaffen haben, zerstören, wie die Gesellschaft funktioniert. (…) Kein ziviler Diskurs, keine Kooperation, Falschinformationen, Unwahrheiten. Und es ist kein amerikanisches Problem, es geht nicht um russische Werbeanzeigen. Das ist ein globales Problem.“

Die Technologiesoziologin Zeynep Tüfekçi hat sich ganz auf ­Youtube eingeschossen. Ihre Kernthese ist, dass eigentlich niemand mehr genau verstehe, wie Algorithmen funktionierten, die für uns die Newsfeeds oder die Kategorie „nächstes Video“ bei Youtube zusammenstellen. Was man aber am Output der Algorithmen betrachten könne, so Tüfekçi: Sie neigen dazu, immer extremere Inhalte vorzuschlagen. „Ich habe mir ein Video über Vegetarismus auf Youtube angeschaut. Dann hat mir Youtube ein Video über Veganismus vorgeschlagen. Es ist, als wäre man nie hardcore genug für Youtube!“ Wenn man sich statt Vegetarier­videos Trump-Demos anschaue, lande man dementsprechend früher oder später auf rechtsextremen Kanälen.

Allerdings gehen die Kritiker im Valley nicht davon aus, dass die Social-Media-Macher grundsätzlich böse sind. Eher sei es eine Frage der Anreize: Solange Bildschirmzeit gleich Werbezeit sei, zahle sich Polarisierung aus, denn die klickt einfach besser.

Anzeige
Anzeige

10.000 Posts für jeden Nutzer

Wenn man Stefan Meister anruft, Pressesprecher von Facebook in Deutschland, um mit ihm über algorithmisierte Nachrichten, Filterblasen und Echokammern zu sprechen, erlebt man einen Mann, der unter Feuer steht. Das ist wenig überraschend: Seit dem Erfolg der neuen Rechten auf Facebook wird die Plattform mit eigentlich allem in Verbindung gebracht, was nach Populismus aussieht: angefangen bei der AfD über die Gelbwesten in Frankreich bis hin zu Trump in den USA. Dass Facebook dazu noch regelmäßig mit Datenskandalen auffällt, zur ­Beeinflussung von Wahlen instrumentalisiert wurde und bei einer PR-Schmieren­kampagne gegen George Soros ertappt wurde, macht es natürlich nicht ­besser. Aus PR-Perspektive ist Facebook nach Trump ungefähr so gut aufgestellt wie BP nach dem Untergang der ­Deepwater Horizon. Monatelang befand sich die Aktie im Sturzflug. Man merkt im Gespräch, dass Stephan Meister und ­Facebook sehr viel daran gelegen ist, nicht mehr als riesiges, digitales Problem dazustehen.
„Aus den Likes, Freunden und Profilen ergeben sich 10.000 Posts, die jedem Nutzer angezeigt werden könnten“, erklärt ­Meister. Weil sich kein Mensch 10.000 Posts angucken könne, stehe Facebook vor dem Problem, diese Posts in eine sinnvolle Reihenfolge zu bringen. Das Dilemma dabei: Wenn Facebook den Newsfeed nach dem Klickverhalten der Nutzer optimiert, schafft es die berühmten Echokammern. Wenn Facebook den Nutzern Inhalte vorsetzt, die ihnen gegen den Strich gehen, fühlen sie sich auf Facebook fremd.

Für eine Polarisierung fühlt sich Facebook aber nicht verantwortlich: „Auf Facebook sehen Menschen nachweislich nicht nur mehr Informationen, sondern auch ein breiteres Spektrum an Informationsquellen und Meinungen“, argumentiert Meister. Das liege daran, dass die Facebook-Freunde, die man über die Jahre so ansammele, sehr unterschiedlich seien. Facebook optimiere nicht nur auf möglichst viel Interaktion mit einem bestimmten Artikel: „Wenn ich es schaffe, dass Menschen, die noch nicht miteinander gesprochen haben, unter dem Artikel diskutieren, ist das im ­Ranking ein überaus positives Signal“, so Meister.

Unter deutschen Technologiesoziologen sind Facebook und ­Youtube nicht unbedingt beliebter als unter amerikanischen. Trotzdem ist man skeptisch, ob man die gesamte Polarisierung wirklich nur den bösen Algorithmen in die Schuhe schieben kann: „Die Echokammerthese lässt sich empirisch nicht belegen“, erklärt Jeanette Hofmann, Professorin und Forschungsdirektorin am Institut für Internet und Gesellschaft der HU Berlin. „Anhand von Big Data erkennen wir zwar Korrelationen, aber keine kausalen Zusammenhänge.“ Soll heißen: Mag sein, dass die Gesellschaft in Zeiten von Social Media auseinanderdriftet. Aber das heißt nicht, dass es unbedingt an Social Media liegt. „Zu sagen, welche Effekte man dem Internet oder der Digitalisierung zuschreiben kann, ist wahnsinnig schwer. Vieles, was heute digital genannt wird, wie zum Beispiel Fake News, gab es in anderer Form auch schon vor dem Internet. Schauen Sie mal in die Gala oder die Bildzeitung, da wird auch unglaublich viel erfunden.“

Anzeige
Anzeige

Abgesehen davon, so Hofmann, hängt ein Problem bei allen Feststellungen über Social Media und das Internet am Faktor Zeit: „Die Wirksamkeit von allem, was im Internet auftaucht, ändert sich relativ schnell. An Spam-Mails gewöhnt man sich ja auch und fällt dann nicht mehr darauf herein.“
Tatsächlich, so argumentiert Hofmann, sei nicht einmal eine Spaltung oder Fragmentierung der Wahrheiten etwas besonders Neues oder Digitales: „Die Phase der homogenen öffentlichen ­Sphäre, in der wir alle das Gleiche sehen und das Gleiche ­wissen, ist vergleichsweise kurz in der Geschichte der Menschheit, nur ein paar Jahrzehnte tatsächlich. Vorher war die Gesellschaft auch fragmentiert, weil es noch keine Massenmedien gab. Und nun scheint diese Phase der homogenen Informationsversorgung wieder vorbei zu sein.“

Die Rechten und die Sozialen Netzwerke

Wenn man das Ganze eine Nummer kleiner und konkreter ­fassen will, kann man Bharath Ganesh in England anrufen. ­Ganesh ist Daten­wissenschaftler und untersucht am Oxford Internet ­Institute rechten Extremismus im Internet. Auch Ganesh findet es schwer, etwas über den Einfluss von Social Media zu sagen. Schließlich wissen nur die Nutzer selbst (und Facebook), was in den jeweiligen Newsfeeds überhaupt angezeigt wird. Dazu, so Ganesh, komme der sogenannte „­Confirmation Bias“, der Bestätigungsfehler. Menschen suchen sich eben lieber Informationen, die ihren Vorurteilen entsprechen. Aber wichtiger noch als dieses Phänomen sei die Rolle, die Emotionen in den sozialen Medien spielten: „Ich glaube nicht, dass eine bestimmte Ideologie auf ­Social Media besser funktioniert. Aber wenn Botschaften emotional sind, wenn sie Wut hervorrufen, das funktioniert. Und die Rechten haben Social Media sehr effizient genutzt, um Wut und Empörung hervorzurufen, um ihre Botschaften zu verbreiten. Gruppen wie die AfD gehen geschickt mit den Ängsten um, die Menschen haben, und konstruieren daraus eine Politik der Angst – und das funktioniert gut auf Social Media.“

Laut dem Wissenschaftler Ganesh sind es also weniger die ­Algorithmen an sich, sondern ihre geschickte Instrumentalisierung: „Spielen die Algorithmen dabei eine Rolle? Ja, ich glaube schon. Aber gleichzeitig verstehen die Leute auch, wie sie mit diesen ­Algorithmen spielen können und sie zu ihrem Vorteil nutzen. Im Kern des Ganzen steht der Mensch.“

Anzeige
Anzeige

Zwar kommen die großen sozialen Netzwerke, Facebook und ­Youtube, aus dem Silicon Valley, der liberalsten, linksorientiertesten und progressivsten Ecke der USA. Dass die rechte Szene aber so schnell verstanden hat, sie für sich zu nutzen, ist laut ­Ganesh kein Zufall: „Die Rechten nutzen digitale Technologie schon eine lange Zeit, seit Mitte der 1980er. Sie haben in ihren Netzwerken wirklich ­Expertise dazu aufgebaut.“

Kurzfristig, so Ganesh, habe Social Media die ­Eintrittshürden ­gesenkt, um in der Öffentlichkeit wahrgenommen zu werden. Langfristig, ergänzt er, sei aber auch politische Social-Media-­Reichweite eine Frage von Know-how und Geld: „Es geht auch darum, welche Werkzeuge jemand hat. Machine-Learning ist hier wichtig, Datenwissenschaften und andere wissenschaftliche Verfahren wie A/B-Tests erlauben einem, Content zu optimieren.“ Die Rechten, so Ganesh, hätten verstanden, beides für sich zu nutzen: die gesunkenen Einstiegshürden, aber auch die langfristigen Möglichkeiten. „Kapital spielt eine wichtige Rolle. Und Rechte und rechtsextreme Gruppen haben viel investiert, um ihre Botschaften zu verbreiten. Und ein Teil ihres Erfolges – nicht alles – kommt daher, dass sie in diese Technologien und das Know-how investiert haben.“ Bis heute ist zwar schwer zu sagen, wie wichtig die Wahlberatung von Cambridge Analytica für Trumps Wahlsieg war. Aber es ist wohl kein Zufall, dass Rechte wie Steve Bannon zuerst auf die Idee kamen, Facebook-Daten für eine Politkampagne anzuzapfen.

Mario Hau, der Social-Media-Direktor der AfD-Fraktion im Bundestag, unterstreicht die essenzielle Bedeutung der ­sozialen Netzwerke für die Öffentlichkeitsarbeit der Partei: „Social ­Media ist unser Ersatz für die übliche Medienarbeit, die uns verwehrt bleibt“, erklärt Hau im Interview. „Wir nutzen diesen Kanal effizienter und glaubwürdiger. Bei den anderen Fraktionen war Social Media nicht existent, zumindest nicht im Bundestag.“ Die AfD-Fraktion im Bundestag hat ­aktuell 81.000 Likes auf Facebook, die Parteiseite der AfD knapp 450.000 Likes. Zum Vergleich: Die Haupt-Facebook-Seiten der CDU und SPD kommen zusammen nur auf circa 373.000 Likes.

Anzeige
Anzeige

Zufällig hat Hau, hat die AfD auch gerade jetzt, in den ­Stunden vor dem Interview, in einem Paradebeispiel gezeigt, wie das mit den emotionalen Inhalten, das „mit dem Algorithmus Spielen“, von dem Barath Ganesh erzählt hat, funktioniert: Auf Twitter geht ein Bild des blutig geschlagenen AfD-Abgeordneten Frank Magnitz um. Magnitz war Anfang Januar nach einem Termin in Bremen auf der Straße angegriffen worden. Von einem „Mord­versuch“ mit einem „Kantholz“ sprach die AfD-Führung. „Mit ­Magnitz haben wir natürlich eine relativ hohe Reichweite gehabt. Mit allen Artikeln zusammen, würde ich sagen, bei einer Million. Das läuft ja auch alles noch“, schätzt Hau.

„Ich glaube nicht, dass eine bestimmte Ideologie auf Social Media besser funktioniert.“

Später hat sich herausgestellt, dass kein Kantholz in dem Vorfall eine Rolle gespielt hat und Magnitz auch nicht am Boden liegend getreten wurde. Auch die Polizei ermittelt nicht mehr wegen eines Mordversuchs, sondern wegen gefährlicher Körperverletzung. Und Magnitz selbst hat knapp eine Woche nach der Tat in einem internen Brief an AfD-Mitglieder, seine Medienstrategie erklärt: Er habe sich selbst noch am Abend der Tat dafür entschieden, das Foto von seiner Verletzung zu verbreiten, „und zwar aus zwei Gründen: Zum einen werden unsere Pressemitteilungen zu nahezu 100 Prozent nicht veröffentlicht. Ein solches Foto anzuhängen, ist jedoch ungewöhnlich, und mir war klar, dass eine entsprechende Aufmerksamkeit damit erzielt werden würde“. Nur so sei „mediale Betroffenheit zu erzeugen“ gewesen.

Mit Mario Haus Arbeit ist das Polarisierungspotenzial von ­Facebook aber noch nicht voll ausgeschöpft. Denn neben den offi­ziellen AfD-Facebook-Kanälen gibt es auch private Akteure wie Sven Liebich. Liebich ist, laut einem Bericht im MDR, ein ehemaliger ­Kader und des militanten Neonazi-Netzwerks „Blood and ­Honor“, der in Halle einen Versandhandel mit bedruckten T-Shirts betreibt. Wenn sich die Gelegenheit bietet, meldet er auch Demos an. In Videos des MDR ist er zu sehen, wie er vom Dach eines Transporters „Heil Merkel“ skandiert. Er hat dafür auch Fahnen drucken lassen. Rot, mit weißem Kreis in der Mitte und schwarzem Eurozeichen darin. Wenn in Halle ­moderate Muslime von der Ahmadyya-Bewegung Korane verteilen, verkleidet er sich zum Beispiel als radikaler Imam, stellt sich dazu, und jagt den Passanten mit ausgedachten, extremistischen Parolen einen gehörigen Schrecken ein.

Anzeige
Anzeige

Wenn man Liebich im Büro seiner T-Shirt-Firma in ­Halle anruft, wirkt er stolz auf die Reichweite der Aktion: „Da hat keiner erkannt, dass das Sven Liebich ist. Ich hatte da einen Bart, und es ­wirkte etwas verstörend. Das habe ich dann auf Facebook gestellt, und das hatte dann im Nu 500.000 Klicks“, sagt er. Die Klicks, Likes und ­Follower, die ­Liebich im Internet sammelt, sind für ihn auch bares Geld wert. In seinem ­Onlineshop können seine Fans rechte T-Shirts und Aufkleber kaufen.

Liebich liefert genau die Art von Hetze, die Facebook und ­Youtube verbannen wollen. Wenn es zu Löschungen kommt, weiß Liebich, wie er reagieren muss. Wenn eine Facebook-Seite gesperrt werde, erzählt Liebich, ­melde er eben eine neue an: „Also, du machst eine kleine Seite, machst einen Post, bewirbst den. Und den verteile ich dann an alle, die sich für die AfD interessieren. Das sind in Deutschland 500.000 Menschen, wenn man die Zielgruppe bei Facebook auswählt.“ Das einzige Problem mit den gesperrten Accounts, sagt Liebich, sei, nachher an die Rechnung von Facebook zu kommen. Denn die wird ja erst später gestellt. Allein mit seinem Klarnamen-­Account, so Liebich, habe er bis zur Sperrung über 110.000 Euro in Facebook-Werbung investiert.

So hat auch Wissenschaftler Ganesh recht: Liebich und der rechte Rand sind fit in Sachen Technik. In den 1980ern, so ­Liebich, habe er sich für BTX begeistert, ein Zwischending aus Teletext und frühem Internet, und für das Voice-Modem und Mailboxsystem. Seine Performance-Videos – wie den „verrückten Imam“ – verbreitete er über die Peer-to-Peer-Youtube-Alternativen wie Peertube. Er nutzt die Reichweite von AfD-Anhängern auf ­Facebook und kann in kürzester Zeit Hunderttausende erreichen.

Bei der Content-Moderation versagt

Fragt man Bharath Ganesh, wie man diese gezielte ­Polarisierung über Social Media wieder in den Griff kriegt, lacht er erst einmal: „Das ist die Millionen-Dollar-Frage.“ Trotz der Instrumentalisierung seien an Aufstieg und Erfolg der Polarisierung von rechts, so Ganesh, auch die Plattformen schuld: „Manches war außerhalb ihrer Kontrolle. Aber vieles war vermeidbar“, ist sich ­Ganesh ­sicher. „In Sachen Content-­Moderation haben Platt­formen wie ­Facebook und Twitter wirklich versagt. Und nur, weil sie jetzt mehr machen, sind sie da nicht aus der Pflicht für das, was ­passiert ist.“

Eine Plattform wie Facebook zu moderieren, so Ganesh, sei eine riesige Aufgabe. „Aber ich glaube, es ist weniger eine ­Frage der Größe und mehr eine Frage der Prioritäten. Und bisher ­haben sie mehr Zeit damit verbracht, sich um den Schutz der Rede­freiheit zu kümmern als um den Schutz der Nutzer und der ­Gesellschaften, in denen diese Nutzer leben.“

Vielleicht waren die Plattformen nicht der Grund für die Entstehung des Problems. Aber solange sich niemand beschwert hat, haben sie nicht viel dagegen getan.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige