Kommentar

Social-Media-Studie: Die pösen, pösen Bots

Kann dieser Bot die Stimmung in sozialen Netzwerken kippen? Ohne A/B-Test werden wir es nicht herausfinden. (Foto: Shutterstock)

Eine neue Studie scheint zu belegen: Bots sind die heimliche Meinungsmacht im Netz. Kollektives Aufatmen: Endlich eine einfache Erklärung für die unheiter bis braune Stimmung online. Aber so einfach ist es leider nicht.

Wenn es in Wort gibt, das Journalisten auf der Suche nach einer heißen Story abtörnt, dann ist das „multifaktoriell“.

Wenn man also einen Wissenschaftler anruft, vielleicht einen, der sich gerade mit einem heißen politischen Thema beschäftigt, und man fragt: „Dr. XY, liegt es dann also daran, dass ...“, genau dann stehen die Chancen nicht schlecht, dass Dr. XY sagt. „So einfach ist das leider nicht. Es gibt nicht einen Grund, die Ursache ist multifaktoriell.“

Und dann versuch mal, eine schmissige Überschrift mit „multifaktoriell“ zu machen.

Dieses Internet ...

Ein weiteres Kreuz des Journalisten des frühen 21. Jahrhunderts ist das Internet. Ob die kommenden Europa-Wahlen oder die Spaltung der Gesellschaft – dieses Internet mischt überall mit, aber so richtig greifbar ist es nicht. Trolle, Bots, Echokammern, Filterblasen – weiß der Geier, was da alles kreucht und fleucht.

Um so befriedigender ist es, wenn jemand, auch noch ein Wissenschaftler (!), dieses Internet mal so richtig festnagelt, wissenschaftlich, versteht sich. Dann macht man da ja gerne mal ’nen Artikel zu.

Die Überschriften zu Social Bots (Screenshot: t3n)
Die pösen, pösen Bots. Scheinbar haben sie uns längst in der Hand. Oder wissen wir das vielleicht gar nicht so genau? (Screenshot: t3n)

Björn Ross, ein Wissenschaftler von der Uni Duisburg-Essen, hat uns Journalisten jetzt mal diesen Gefallen getan und hat die legendären Social Bots dingfest gemacht: Ja, sie sind „gefährlich“ (Techbook), können eine „Stimmung kippen“ (Deutschlandfunk), können „Nutzer zum Schweigen bringen“ (t-online.de), „lenken Meinung“ (WDR) und „manipulieren“ (tagesschau.de) – stellt man begeistert fest. Das Problem ist nur: In dem Experiment von Ross und seinen Kollegen ging es nicht um tatsächlichen Einfluss. Es ging um theoretischen Einfluss in virtuellen Netzwerken.

Ein virtuelles Experiment: Keine echten Menschen, keine echten Netzwerke

Schaut man sich das Experiment einmal genauer an ... well, okay ... überfliegt man mal die Zusammenfassung, dann merkt man: In dem Experiment kamen überhaupt keine Menschen vor. Und auch keine echten sozialen Netzwerke. Björn Ross und sein Team haben das auch nie behauptet. Sie haben nur ein theoretisches Modell erarbeitet, also eine Art Computerprogramm, dass ein soziales Netzwerk und dessen Nutzer simuliert. In dieses theoretische Modell haben sie ein paar Annahmen aus der Kommunikationswissenschaft als Regeln einprogrammiert. Zum Beispiel die These der Schweigespirale. Eine weitere Annahme dieses theoretischen Modells ist, dass die Meinungen der virtuellen Nutzer sich zu jeweils 50 Prozent auf zwei Lager verteilen. Letztendlich ist es also ein digitales, ein in jeder Hinsicht virtuelles Modell davon, wie sich Nutzer und Bots in einem hypothetischen sozialen Netzwerk verhalten könnten.

Als Experiment ist das sicherlich wichtig und richtig. Aus dieser virtuellen Simulation von Nutzern, Bots, und Netzwerken jetzt Schlüsse über tatsächliche Nutzer, Bots und Netzwerke zu ziehen, geht leider nicht. Wir können ja auch nicht mit Erkenntnissen aus dem Spiel „Die Sims“ argumentieren, wenn wir etwas über das Familienleben sagen wollen.

Verkürzt dargestellt, verkürzt übernommen

„Das wird zum Teil in den Medien verkürzt dargestellt und dann von anderen verkürzt übernommen. Aber im Kern geht es darum, zu simulieren, wie Bots die Stimmung beeinflussen könnten“, erklärt der Forscher Björn Ross gegenüber t3n am Telefon. Und weiter: „Daraus zu schließen, dass es diese Bots so gibt und sie eine Gefahr für die kommende Wahl sind, das ginge zu weit. Das war auch nicht die Frage, der wir uns gewidmet haben.“

Ob und wie sich die Ergebnisse der Social-Bot-Studie sich nun auf echte Menschen und echte Bots in echten sozialen Netzwerken übertragen lassen, ist wieder eine ganz andere Frage: „Ob es übertragbar ist oder nicht, müsste getestet werden“, erklärt Ross. „Und vorneweg: Bei manchen Debatten geht das bestimmt besser als bei anderen. Wir nehmen im Experiment an, dass die Meinungsverteilung 50:50 ist. Das ist sie natürlich nie. Die Bots wären vermutlich auch weniger effektiv, wenn die prozentuale Meinungsverteilung eine andere ist.“

Wahrheit gibt’s leider nur mit A/B-Tests

Um wirklich Aussagen über das Verhalten von Menschen mit Bots treffen zu können, so Ross, müsste man Versuche mit zwei Gruppen Menschen machen. Und das wäre ethisch schwer zu vertreten. „Wir können ja keine Bots auf die Menschen loslassen und dann schauen, ob sie beeinflusst werden. Deswegen machen wir ja ein virtuelles Experiment.“ (Experimente mit echten Nutzer traut sich nur Facebook.)

Und die Moral von der Geschicht: Eine einfache Internet-Erklärung ... muss multifaktoriell sein. Auch wenn einem das jeden Reim kaputt macht.

Mehr zum Thema:

Bitte beachte unsere Community-Richtlinien

Eine Reaktion
ICU

Ja so ist das mit Theorie und Praxis. Und mit Modell und Wirklichkeit.

;-)

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung