Marketing

Aufreger: Facebook manipuliert News-Feed für Sozial-Experiment

Das A/B-Testing ist laut den Nutzungsbedingungen legal. Dass Facebook in die Ansicht von knapp 700.000 Nutzern eingriff, bezeichnen Kritiker jedoch als unethisch.

Eingriff in persönliche Profile

Sind Gefühlsbekundungen in Status-Updates ansteckend? Das wollte Facebook in einer Sozialstudie herausfinden und engagierte dafür Datenforscher. Für die Analyse manipulierte das Social Network für eine Woche lang den News Feed von 689.000 Nutzern. Eine Hälfte davon sah vorwiegend positive Beiträge, die andere vorwiegend negative.

Am vergangenen Wochenende veröffentlichte Facebook die Ergebnisse des Experiments und sorgte damit für Schlagzeilen – jedoch nicht mit den Inhalten, sondern mit der Vorgehensweise. Der Eingriff in den News Feed erregte bei Nutzern als auch bei Medien Aufregung. Dass User ohne Zustimmung Teil eines Experiments werden und dafür in ihre Darstellung eingegriffen wird, gehe zu weiter, lautet der Vorwurf.

(Foto: FACEBOOK(LET) / Flickr Lizenz: CC BY 2.0)

In einer Studie wollte Facebook Emotionen analysieren – und sorgte damit erst recht für negative Gefühle bei den Nutzern. (Foto: FACEBOOK(LET) / Flickr Lizenz: CC BY 2.0)

Facebook erlaubt Datenanalyse

Facebook hat sich jedoch in seinen Nutzungsbestimmungen schon lange für diese Zwecke abgesichert. Daten können für die Analyse und Recherchezwecke verwendet werden, heißt es dort in einem Nebensatz. Auch ist A/B-Testing sowohl bei großen als auch kleinen Websites ein übliches Vorgehen, um Perfomance und Usability zu verbessern. Das Social Media-Portal war von den Reaktionen auf die Studie überrascht. Der interne Datenforscher Adam Kramer nahm in einem Facebook-Posting Stellung und beschwichtigte das Vorgehen. Der Test habe nur 0,04 Prozent der User betroffen und lief außerdem nur eine Woche.  Das Unternehmen betont weiter, dass die Daten nicht personalisiert an die Analysten weitergegeben wurden.

Unethisch finden die Kritiker an dem Vorgehen nach wie vor, dass die Datensammlung nur intern bewilligt wurde. Für Projekte wie diese sei ein Review einer externen Institution notwendig. Facebook ließ nur die Studie selbst extern absegnen, jedoch nicht das Vorgehen des Bezugs des Datenmaterials.

Ziel der Studie war es, die Dienste von Facebook zu verbessern, argumentiert Datenchef Kramer in seinem Beitrag: „Rückwirkend betrachtet rechfertigt der Nutzen der Ergebnisse jedoch nicht die Angst, die wir damit verursacht haben“, gibt sich der Sprecher selbstkritisch. Was die Forscher bei ihrer Analyse übrigens herausfanden: Wer einen negativen Beitrag auf Facebook liest, verfasst eher daraufhin auch ein negatives Status-Update – und umgekehrt.

Lest zu diesem Thema auch die Kolumne „Facebook manipuliert deine Gefühle – So verschafft sich das Netzwerk einen Vorsprung vor Google“.

via www.theatlantic.com

Zur Startseite
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

3 Kommentare
Björn Dorra
Björn Dorra

Sehr Grenzwertig, Herr Zuckerberg!

Sehr Grenzwertig. Dieses Facebook Experiment. Wieviele dieser Benutzer haben eigentlich erfahren, dass sie Teil eines Experimentes waren?

– Björn Dorra, Founder http://netzaktiv.de

Antworten
Christian Kunz

Hi, dass die Streams der User manipuliert wurden, war schon mit Veröffentlichung der Studie klar. Das ist nichts Neues. Die aktuelle Kritik richtet sich vor allem gegen die Methodik, die unpassenden Tools und die Interpretation der Ergebnisse.

Antworten
KFR
KFR

ach deshalb kommt keinerlei negative Kommentre beiden Medien, Politik, WebeTreibenden an .. wird alles ganz bequem gegen ein kleines Backschsich wechgefiltert !

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung