Kommentar

Facebook ist nicht in der Krise. Facebook ist die Krise

Mark Zuckerberg versteht längst nicht mehr, was auf Facebook passiert. (Foto: Shutterstock)

Lesezeit: 7 Min. Gerade keine Zeit? Jetzt speichern und später lesen

Daten-Zugang für Airbnb und Netflix, der Cambridge-Analytica-Skandal, Online-Hetze, Datenleaks: Will und kann Mark Zuckerberg Facebook reparieren? Eher nicht. Vielleicht kann es überhaupt niemand.

In den letzten Tagen und Wochen kommt Facebook kaum noch aus den Desaster-Schlagzeilen heraus. Jetzt tauchen auch noch 250 Seiten aus Dokumenten im Netz auf, die das britische Parlament hatte beschlagnahmen lassen. Und diese Seite haben es in sich, wie die MIT Technology Review berichtet:

  • Trotz des Skandals, dass Dritte wie die Politik-Beeinflusser Cambridge Analytica über Facebook Nutzerdaten ergattern konnten, durften „Partner“ wie Netflix oder Airbnb weiter Freundeslisten auslesen.
  • Facebook ist aggressiv gegen die Konkurrenz vorgegangen: Nachdem Twitter die Video-Plattform Vine startete, ließ Zuckerberg Twitters Zugang zur Facebook-API kappen.
  • Zuckerberg wollte auch von Apps, die Facebook als Plattform nutzen, Informationen über Facebook-Nutzer erhalten. Frei nach dem Motto: Ihr nutzt unsere Daten, dann wollen wir auch eure.
  • Facebook griff über die Facebook-App heimlich auf die „letzten Anrufe“ von Nutzer-Handys zu. Facebook konnte so besser „neue Freunde vorschlagen“ und den Newsfeed-Algorithmus personalisieren.
  • Facebook spähte auf den Handys von Nutzern aus, welche Apps sie sonst noch so verwenden und wie oft. Die Idee dabei war, mögliche Konkurrenten zu finden und früh übernehmen zu können.

Jeder Punkt für sich genommen ist schon ein Skandal

Schlimmer aber als die Dreistigkeit, die Heimlichtuerei und der Machtmissbrauch des Konzerns ist, dass Mark Zuckerberg seine verrückte Maschine längst nicht mehr im Griff hat. Noch immer ist nicht klar, in welchem Umfang Russland durch Facebook die Wahlen in den USA beeinflusst hat. Vor kurzem zeigt die New York Times in einer umfangreichen Recherche, wie Mark Zuckerberg und seine Vize-Chefin Sheryl Sandberg mit solchen Skandalen umgehen, wenn sie davon erfahren: Sie machen gerne erstmal gar nichts. Zumindest, solange es noch niemand anders gemerkt hat.

Die lange Geschichte der Facebook-Skandale

Als Alex Stamos, der damalige Sicherheitschef, Mark Zuckerberg und Sheryl Sandberg Ende 2016 darauf hinwies, dass sein Team russische Einflussnahmen entdeckt hat, waren die beiden sauer. Sauer darüber, dass Stamos seinen Job gemacht und ohne ihr Okay zu tief gegraben hatte. Aus Angst vor Image-Schäden wiesen sie ihn an, die Füße still zu halten. Das Fake-News-Netzwerk innerhalb Facebooks wurde nicht einmal offline genommen – man hatte Angst, das würde noch mehr Ärger verursachen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Im Frühjahr 2018 flog Zuckerberg und Sandberg dann der Cambrige-Analytika-Skandal um die Ohren. Und um den Schaden zu begrenzen, heuerten sie die PR-Agentur Definers an. Und die PR-Agentur Definers, spezialisiert auf öffentliche Schlammschlachten wie vor Präsidentschaftswahlen, begann im Auftrag Facebooks mit einer Propaganda-Kampagne. Man versuchte tatsächlich, George Soros mit einer Negativ-PR-Kampagne dafür zu bestrafen, dass er Facebook kritisiert hatte. Ziel der Kampagne war es, das Licht der Öffentlichkeit auf die mutmaßlichen Verfehlungen der anderen zu lenken. Apple, so ein Vektor aus der Kampagne, sei ja auch nicht sauber.

Shery Sandberg, die Nummer zwei bei Facebook, übersah die politischen Kampagnen des Netzwerkes. (Foto: Shutterstock)

Shery Sandberg, die Nummer zwei bei Facebook, übersah die politischen Kampagnen des Netzwerkes. (Foto: Shutterstock)

Facebook: Propaganda gegen den Vorwurf der Propaganda

Das Problem nicht zu beheben und stattdessen eine politische Agentur ins Boot zu holen, die Propaganda produziert, um den Schaden auf andere abzuwälzen – das ist nicht nur in Sachen Integrität ziemlich dünn. Das ist auch ungefähr die Definition von katastrophalem Krisenmanagement. Zumal die feine grobe Ironie dabei ja ist, dass Facebook das ursprüngliche Problem – russische Propaganda – mit eigener Propaganda überdecken wollte.

Facebook ist nicht irgendein mächtiger IT-Konzern

Wenn Facebook jetzt irgendein riesiger Tech-Konzern wäre, dann wäre das schon schlimm. Dann würden Aktienwerte sinken, Umsätze würden sinken, Menschen würden Geld verlieren und vielleicht irgendwann auch Jobs. Vielleicht aber hätte ein naher Konkurrent eine Chance, Branchenprimus zu werden. Aber das wäre es dann auch. Aber leider ist Facebook nicht nur irgendein mächtiger IT-Konzern. Selbst unter den Plattform-Konzernen ragt Facebook heraus: Es ist nicht systemrelevant für unsere Kommunikation. Es ist unsere Kommunikation.

Facebook bestimmt, wie wir die Welt wahrnehmen

Amazon mag die Art verändert haben, wie wir einkaufen. Netflix, wie wir Fernsehen schauen und meinetwegen Airbnb die Art, wie wir reisen. Facebook aber hat die Art und Weise verändert, wie wir Nachrichten lesen und miteinander reden. Facebook hat die Art und Weise verändert, wie wir die Welt wahrnehmen. Ich bin kein Medienhistoriker, aber für mich ist der Social-Media-Newsfeed die wirkmächtigste Medien-Erfindung seit dem Buchdruck.

Natürlich war es auch ein ganz schöner Sprung von der Tageszeitung zum Radio zur Live-Schalte in den Nachrichten. Aber das Prinzip der Medienproduktion ist dabei das gleiche geblieben: Eine Redaktion wählt Themen aus, produziert Beiträge, verbreitet sie und finanziert sich über Werbung oder Rundfunkbeiträge. Die Reichweite hängt bei diesem Modell von der Strahlkraft und Glaubwürdigkeit der Marke ab. Das galt für alle Medien. Tendenziöse Berichterstattung ist eine Sache. Aber man wäre vielleicht überrascht, wie sauer Chefredakteure in großen Boulevardzeitungen werden können, wenn sie in ihrer Zeitung offensichtlich falsche Angaben entdecken.

Der Newsfeed löst die Story aus dem Kontext

Der Social-Media-Newsfeed ist da eine ganz andere Kategorie: Er löst die Story aus dem Kontext der Medienmarke und bettet sie ein, zwischen Urlaubsbildern von Freunden, Bildern ihrer Hunde beim Waldspaziergang oder Bildern von Kuchen, die gerade irgendwo gebacken wurden. Auch die Werbeerlöse werden losgelöst von der Strahlkraft der Medienmarke, da die Algorithmen von Facebook, Google Ads und Konsorten sie automatisch versteigern. Was jetzt zählt, sind allein die Klicks.

In gewisser Hinsicht hat Mark Zuckerberg, damals im Wohnheim von Harvard, die perfekte Maschine geschaffen. Facebook lebt nicht davon, dass es irgendwas produziert. Statt dessen lebt es davon, dass es die Interessen der Content-Provider, die Interessen der Nutzer und die Interessen der Werbekunden auf einen Nenner gebracht hat, den Newsfeed. Ein Produkt, das so gut ist, dass es süchtig macht.

Facebook ist kein Unternehmen, sondern angewandte Spieltheorie

Man könnte sagen, Facebook, das ist kein Unternehmen, sondern in erster Linie angewandte Spieltheorie: die (mathematische) Wissenschaft davon, Menschen mit bestimmten Anreizen zu Entscheidungen oder Handlungen motivieren. Und Spieltheorie ist ein sehr mächtiges Werkzeug: Seitdem die Bundesregierung einen Anreiz dafür geschaffen hat, Pfand einzusammeln, bleibt in Berlin keine Bierflasche länger als zwei Stunden auf der Straße liegen. Auch die unsichtbare Hand des Marktes, von der Adam Smith gerne schwärmte, und auf der noch heute ein großer Teil unseres Wirtschaftssystems basiert, ist eine Spielart der Spieltheorie.

Der Algorithmus, die unsichtbare Hand des Newsfeed

So gesehen gibt es auf Facebook auch eine „unsichtbare Hand des Informationsmarktes“: Der Algorithmus, der die Likes und Shares und Kommentare unter einem Post eines Freundes registriert, mit unseren Präferenzen abgleicht und annimmt, dass wir das auch gerne sehen würden. Ein Algorithmus, der lernt, wenn wir dann auch den Post liken und teilen. Das Problem ist nur, dass sich dieser Algorithmus, die unsichtbare Hand des Newsfeed, dabei unsere typisch menschlichen Schwächen ausnutzt: Wir reagieren stärker auf emotionale Posts als auf sachliche. Und besonders stark auf Dinge, die wir berührend finden, etwa wenn ein Obdachloser einer jungen Frau seine letzten 20 Dollar schenkt, damit sie genug Benzin kaufen kann, um nach Hause zu fahren. Ein Bild von einem toten Jungen am Strand. Und natürlich Stories, die den vielleicht stärksten Instinkt in uns wecken, Angst. Vor allem eine besonders einfache Angst: Angst vor dem Fremden.

Es spielt keine Rolle mehr, ob ein Post etwas mit der Realität zu tun hat

Dank der Loslösung von Medienmarke, Content und Werbekunden spielt es überhaupt keine Rolle mehr, ob ein Artikel irgendwas mit der Realität zu tun hat oder nicht. Damit er erfolgreich wird, muss er nur berühren und das geht eben am einfachsten, wenn er Angst macht.

Wenn der Newsfeed aber eines der wichtigsten Medien für unsere Gesellschaft ist, kann man sich fragen: Was macht das mit uns? Was kommt dabei heraus, wenn das wichtigste Medium einen grundsätzlichen Hang dazu hat, extreme Gefühle zu fördern und Angst und Vorurteile zu schüren? Nicht mal aus Bosheit. Sondern aus den Gesetzen heraus, die es am Leben halten.

Mark Zuckerberg ist kein Fan von Donald Trump. Als Trump während des Wahlkampfes 2015 auf Facebook fordert, erstmal überhaupt keine Muslime mehr in die USA zu lassen, überlegt Mark Zuckerberg, ob man den Post nicht löschen könnte, wenn er gegen die Regeln des Netzwerkes verstößt. Seine engen Mitarbeiter warnten ihn, er würde damit den Eindruck der Überparteilichkeit des Netzwerks aufs Spiel setzten. Er löscht den Post nicht.

Zuckerberg muss zuschauen, wie Facebook ein Werkzeug von Trump wird

Mark Zuckerberg hat keine Wahl. Facebook kann sowieso nicht alle Posts auf politische Gesinnung hin prüfen. Er muss zuschauen, wie diese unsichtbare Hand seines Netzwerkes, diese Kraft, die alles emotionale und populistische den Nutzern serviert, zum wichtigsten Werkzeug von Donald Trump wird.

Im Oktober wurde klar, dass das Militär in Myanmar Facebook-Posts genutzt hatte, um die Bevölkerung zu Mord und Vertreibung der Rohingya-Minderheit aufzustacheln. Mit an Sicherheit grenzender Wahrscheinlichkeit hatte Mark Zuckerberg dazu auch irgendwann einen Bericht auf dem Schreibtisch.

Was macht ein Mann, der sich vor allem mit Computern auskennt, wenn er hört, dass sein Produkt Mitschuld an einem Völkermord am anderen Ende der Welt trägt? Was macht Zuckerberg, wenn immer mehr Menschen glauben, dass Facebook Trump ins Weiße Haus gebracht hat? Was macht dieser Mann, wenn er feststellt, dass er das Problem mit den Werkzeugen, die er beherrscht, nicht beheben kann? Was macht der CEO von Facebook, wenn er feststellt, dass das, was sein Netzwerk so erfolgreich macht, genau das ist, was sein Heimatland in einer Krise gestürzt hat?

Nichts. Denn Facebook ist längst zu groß für ihn geworden.

 

Mehr zum Thema:

Meistgelesen

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

2 Kommentare
Benutzer
Benutzer

Wenn es Marc nicht macht, macht es ein anderer.

Und es auf viele Kleine zu splitten, würde nur fragmentieren und das wesentliche verschleiern.

Genau so wie uns die deutsche Medienlandschaft propagandiert (Alle greifen das gleiche Thema auf und zwiebeln in viel Sachlichkeit leider doch auch viel eigene Meinung und verkaufen diese als ein selbstverständliches gemeinsames unausweichliches Muss), genau so greifen automatische Algorithmen bei FB ein.

Marc die Schuld geben? Oder sich selbst an die Nase fassen, eben alles zu hinterfragen und nicht einfach so zu glauben. Aber ja, alle und nicht nur FB arbeiten an genau dem gegenteil, dass wir alles präsentiert bekommen und es als Quelle nennen können und gar nicht erst auf die Idee kommen es zu hinterfragen. Der, der niemandem glaubt, wird auch automatisch zum Alu-Hut-Alien-Gläubigen, so diffamieren auch viele un- oder bewusst anders denkende im Netz.

Die Medien könnten hier schon viel richten, aber wollen ggf. auch nicht. Marcs weg ist immerhin sehr lukrativ.

Antworten
Uli
Uli

Zitat:“Facebook bestimmt, wie wir die Welt wahrnehmen“
Jedoch nur, wenn wir alles, ohne nachzudenken, so konsumieren, wie es veröffentlicht wird.
Wer über die „Meldungen“ ein wenig nachdenkt, oder auch hinterfragt, stellt leicht fest, dass es nur eine Werbeplattform mit Kommentarfunktion ist.
Man kann sich der ganzen „Fernsteuerung“ entziehen, wenn man verschiedene, (Artverschidene) Quellen nutzt und selbst denken lernt. Alternativ erst gar nicht die (a) sozialen Medine nutzt.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 70 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Luca Caracciolo (Chefredakteur t3n) & das gesamte t3n-Team

Anleitung zur Deaktivierung