Wie Social-Media-Trends durch Bots manipuliert werden

(Grafik: Shutterstock-studiostoks)
Gesellschaftliche Debatten entstehen heutzutage zunehmend im Netz. Auf Facebook und Twitter werden aktuelle Geschehnisse von Nutzern hitzig diskutiert. Es gibt unzählige Programme, die Hashtags und andere Schlagworte auswerten und sie anhand ihrer Häufigkeit als Trends identifizieren. Nicht selten werden diese Themen dann als Empörungswellen von Journalisten wahrgenommen und landen schlussendlich in den Medien, wo Politiker wiederum auf sie aufmerksam werden und sie mindestens in ihren Reden aufgreifen – wenn nicht sogar mehr.
Im Grunde ist das ein ganz normaler Reflex. Und ein Vorteil des Internets, dass einzelne Menschen durch dessen Existenz eine Stimme erhalten und als Masse ihre Wünsche, Sorgen und Nöte kundtun können. So gesehen ist das Netz ein großartiges demokratisches Tool. Wäre da nicht eine Sache, die in den letzten Jahren leider einiges auf den Kopf gestellt hat: Roboter nutzen die Algorithmen aus und befeuern Trends, die in manchen Fällen vielleicht gar keine geworden wären. Es wird offensichtlich betrogen.
Während der Ukraine-Krise waren unzählige Social-Bots im Einsatz

Als die Ukraine-Krise im Januar 2014 auf dem Majdan entfacht wurde, wurden verschiedene Social Bots auf Twitter beobachtet. (Foto: Euromaidan by Nwssa Gnatoush / CC BY 2.0)
Diese Roboter von denen hier die Rede ist, werden „Social Bots“ genannt und sie manipulieren häufig mit voller Absicht den Verlauf bestimmter Trends in den sozialen Netzwerken. Sie tauchen tausendfach im Internet auf und kommentieren, teilen und solidarisieren sich mit Statusmeldungen anderer Nutzer, etwa durch „Gefällt-mir“-Angaben. Jemand, der sich seit längerem damit auseinandersetzt, ist Prof. Dr. Simon Hegelich, Professor für „Political Data Science“ an der Hochschule für Politik der Technischen Universität München.
Als die Ukraine-Krise im Januar 2014 auf dem Majdan entfacht wurde, hat er verschiedene Hashtags dazu auf Twitter beobachtet. Eher zufällig erkannte Hegelich, dass nicht wenige Tweets sich erstaunlich ähnelten. Viele waren sogar komplett identisch. Schon damals haben Beobachter vermutet, dass derartige Statusupdates für einen Propagandakrieg pro-russischer Aktivisten benutzt werden. Später ist sogar die Existenz ganzer „Troll-Büros“ an die Öffentlichkeit geraten, von wo aus hunderte Mitarbeiter die Deutungshoheit der Verläufe im Netz an sich reißen sollten.„Komplexe Bots ahmen das Verhalten echter Nutzer nach.“
Hegelich begann sich näher mit den Tweets zu beschäftigen. Er untersuchte ihre Metadaten, verfolgte deren Spuren im Internet und stieß schlussendlich auf ein Programm, das tausende Twitter-Konten steuerte. Wie sich später herausstellte, wurde es von russischen Hackern entwickelt. Auf einmal beteiligten sich Algorithmen an der Weltpolitik.
Bot-Netzwerke sind nicht einfach zu erkennen
Derartige Manipulationen der Netz-Stimmungen können durchaus zum Problem werden. „Die größte Gefahr ist, dass Politiker, Unternehmer oder Journalisten basierend auf falschen quantitativen Auswertungen der Meinung im Internet falsche Entscheidungen treffen“, erklärt Prof. Dr. Hegelich im Gespräch mit t3n. „Wenn beispielsweise geglaubt wird, alle sind gegen Flüchtlinge, nur weil in den sozialen Medien massenhaft gehetzt wird, kann das ein sehr verzerrtes Bild der Wirklichkeit sein.“

Prof. Dr. Simon Hegelich: „Komplexe Bots ahmen das Verhalten echter Nutzer nach.“
Sein Beispiel ist brandaktuell. Seitdem Millionen von Menschen nach Europa flüchten und im vergangenen Jahr in Deutschland der sogenannte „Willkommenssommer“ stattfand, sind die Gemüter in der deutschen Bevölkerung erhitzt. Verschiedene Debatten werden im Netz geführt und Kritiken zu Merkels Flüchtlingspolitik unter Hashtags wie #RapeFugees, #RefugeesNotWelcome oder #unsereLisa gesammelt. Nicht wenige davon waren offenkundig rassistisch und wurden unter anderem von Social Bots begleitet, die die Stimmungslage zusätzlich anheizten.
Einfach zu identifizieren sind diese Roboter-Programme nicht. „Komplexe Bots ahmen das Verhalten echter Nutzer nach. Sie posten scheinbar belanglose Dinge, folgen autonom anderen Nutzern, haben einen geregelten Tagesablauf und können sich eventuell sogar mit echten Nutzern sinnvoll unterhalten“, erklärt Hegelich. „Diese Bots sind kaum zu enttarnen und wenn dann nur mit komplexen Machine-Learning-Algorithmen, also in der Masse und nicht in jedem Einzelfall.“
Social Bots stellen einen Gefahr für die Demokratie dar

Eine Untersuchung des US-Verteidigungsministeriums kommt zu dem Schluss, dass in den kommenden Jahren eine starke Zunahme von Bots zu erwarten sei. (Foto: The Pentagon by David B. Gleason / CC BY-SA 2.0)
Algorithmen und Programme zu entwickeln, die diese Bot-Netzwerke enttarnen, ist unter anderem die Aufgabe von Social-Media-Forensikern. Sie sammeln beispielsweise Traffic-Daten in Echtzeit und werten sie aus. Sobald ein auffälliger Post im Internet auftaucht, wird er registriert und zur Analyse abgespeichert. Auch Simon Hegelich hat solche Programme zusammen mit einem Social-Media-Forencics-Team entwickelt. Damals arbeitete er noch an der Universität in Siegen.
Momentan arbeiten die Algorithmen meistens mit den Metadaten, so wie Hegelich einst im Fall der Ukraine. Der Computer sucht nach Ähnlichkeiten bereits bekannter Bot-Netzwerke. Vor kurzem hat der Wissenschaftler auch eine völlig neue Methode vorgestellt: eine eigens entwickelte Software soll entschlüsseln, ob das Profilbild eines Nutzer eine Farbstruktur aufweist, die häufiger in denen von Social Bots auftaucht. Die Profilbilder sind nämlich oftmals Comics und eher selten echte Fotos.„Social Bots stellen eine Gefahr für die Demokratie dar.“
Wie wichtig diese Software-Entwicklungen sind, zeigt auch eine Untersuchung der DARPA-Behörde des US-Verteidigungsministeriums. Vor einem Jahr setzten sie Wissenschaftler auf Social Bots an, die auf Facebook und Twitter hitzig über den Sinn von Impfungen stritten. In der Schlussbewertung der Untersuchung heißt es, dass „in den kommenden Jahren eine starke Zunahme von Bots zu erwarten sei, die Meinungen in sozialen Netzwerken beeinflussen sollen.“
Die Aufzählung der Gruppen, die davon Gebrauch machen, ist zum Teil besorgniserregend und reicht von Werbetreibenden und Kriminellen bis hin zu Politikern, Regierungen und Terroristen. Social Bots stellen „eine Gefahr für die Demokratie dar“, heißt es weiter, und würden „immer schlauer werden“. Auf die Frage, ob sie auch einen Krieg auslösen könnten, hat Prof. Dr. Hegelich dann aber doch eine beruhigende Antwort: „Sicher nicht!“, sagt er.
SEO ist hingegen ehrlich und vorbildlich… Daher sind so viele SEO-bezogene Artikel hier zu finden.
Wie ist die korrekte wissenschaftliche (schliesslich kann man einen Professor fragen) Abgrenzung von gutem und schlechtem SEO bzw. Bezahlpostings ?
Die Regeln für Schleichwerbung sind im Web zu finden glaube ich. Die könnten als Basis dienen…
„Eher zufällig erkannte Hegelich, dass nicht wenige Tweets sich erstaunlich ähnelten. Viele waren sogar komplett identisch.“
Wenn man auf „ausgeblendete Artikel einblenden“ bei Google-News klickt erkennt man die Agentur-Copy-Paste-Presse auch…
Ich habe ja schon lange Bezahlposter vermutet welche im Auftrag von Firmen die besseren Konkurrenten diffamieren. Auch die Sache mit der Shades of Grey Autorin bei Twitter könnten organisierten Christen gewesen sein welche damals offen in der Presse Harry Potter in den Schulen wegen Förderung der Hexerei verbieten wollten.
Ich will schon seit über 10 Jahren partizipative Systeme für Parteitage, Pressekonferenzen, Umfragen usw. Leider kenne ich kenne ich keinen Ort um sowas triviales stress-frei betreiben zu können.
Dort sieht man die Stimmen nach Anonym (also auch die Bots), Facebook-public, Facebook-anonym, Parteimitglied, Politiker, Konkurrenz-Partei, Presse, Blogger usw. getrennt um abzuschätzen was wie relevant ist.
Die Presse erfüllt immer offensichtlicher ihre Arbeit nicht. Also gewinnt der Protest scharenweise Wähler und regiert auch bald. Viel Spaß mit den Ergebnissen…
Tippfehler „forencics“ oder so ?