Anzeige
Anzeige
Marketing

Wie Social-Media-Trends durch Bots manipuliert werden

Social-Media-Trends geben Journalisten und Politikern ein Gefühl dafür, wie Teile der Gesellschaft ticken. Viel zu oft werden diese Strömungen jedoch von Bots manipuliert. Andreas Weck über eine Schattenwelt im Netz.

4 Min.
Artikel merken
Anzeige
Anzeige

Gesellschaftliche Debatten entstehen heutzutage zunehmend im Netz. Auf Facebook und Twitter werden aktuelle Geschehnisse von Nutzern hitzig diskutiert. Es gibt unzählige Programme, die Hashtags und andere Schlagworte auswerten und sie anhand ihrer Häufigkeit als Trends identifizieren. Nicht selten werden diese Themen dann als Empörungswellen von Journalisten wahrgenommen und landen schlussendlich in den Medien, wo Politiker wiederum auf sie aufmerksam werden und sie mindestens in ihren Reden aufgreifen – wenn nicht sogar mehr.

Anzeige
Anzeige

Im Grunde ist das ein ganz normaler Reflex. Und ein Vorteil des Internets, dass einzelne Menschen durch dessen Existenz eine Stimme erhalten und als Masse ihre Wünsche, Sorgen und Nöte kundtun können. So gesehen ist das Netz ein großartiges demokratisches Tool. Wäre da nicht eine Sache, die in den letzten Jahren leider einiges auf den Kopf gestellt hat: Roboter nutzen die Algorithmen aus und befeuern Trends, die in manchen Fällen vielleicht gar keine geworden wären. Es wird offensichtlich betrogen.

Während der Ukraine-Krise waren unzählige Social-Bots im Einsatz

Als die Ukraine-Krise im Januar 2014 auf dem Majdan entfacht wurde, wurden verschiedene Social Bots auf Twitter beobachtet. (Foto: Euromaidan by Nwssa Gnatoush / CC BY 2.0)

Als die Ukraine-Krise im Januar 2014 auf dem Majdan entfacht wurde, wurden verschiedene Social Bots auf Twitter beobachtet. (Foto: Euromaidan by Nwssa Gnatoush / CC BY 2.0)

Diese Roboter von denen hier die Rede ist, werden „Social Bots“ genannt und sie manipulieren häufig mit voller Absicht den Verlauf bestimmter Trends in den sozialen Netzwerken. Sie tauchen tausendfach im Internet auf und kommentieren, teilen und solidarisieren sich mit Statusmeldungen anderer Nutzer, etwa durch „Gefällt-mir“-Angaben. Jemand, der sich seit längerem damit auseinandersetzt, ist Prof. Dr. Simon Hegelich, Professor für „Political Data Science“ an der Hochschule für Politik der Technischen Universität München.

Anzeige
Anzeige

Anzeige
Anzeige

„Komplexe Bots ahmen das Verhalten echter Nutzer nach.“

Als die Ukraine-Krise im Januar 2014 auf dem Majdan entfacht wurde, hat er verschiedene Hashtags dazu auf Twitter beobachtet. Eher zufällig erkannte Hegelich, dass nicht wenige Tweets sich erstaunlich ähnelten. Viele waren sogar komplett identisch. Schon damals haben Beobachter vermutet, dass derartige Statusupdates für einen Propagandakrieg pro-russischer Aktivisten benutzt werden. Später ist sogar die Existenz ganzer „Troll-Büros“ an die Öffentlichkeit geraten, von wo aus hunderte Mitarbeiter die Deutungshoheit der Verläufe im Netz an sich reißen sollten.

Hegelich begann sich näher mit den Tweets zu beschäftigen. Er untersuchte ihre Metadaten, verfolgte deren Spuren im Internet und stieß schlussendlich auf ein Programm, das tausende Twitter-Konten steuerte. Wie sich später herausstellte, wurde es von russischen Hackern entwickelt. Auf einmal beteiligten sich Algorithmen an der Weltpolitik.

Bot-Netzwerke sind nicht einfach zu erkennen

Derartige Manipulationen der Netz-Stimmungen können durchaus zum Problem werden. „Die größte Gefahr ist, dass Politiker, Unternehmer oder Journalisten basierend auf falschen quantitativen Auswertungen der Meinung im Internet falsche Entscheidungen treffen“, erklärt Prof. Dr. Hegelich im Gespräch mit t3n. „Wenn beispielsweise geglaubt wird, alle sind gegen Flüchtlinge, nur weil in den sozialen Medien massenhaft gehetzt wird, kann das ein sehr verzerrtes Bild der Wirklichkeit sein.“

Anzeige
Anzeige
Prof. Dr. Simon Hegelich: „Komplexe Bots ahmen das Verhalten echter Nutzer nach.“

Prof. Dr. Simon Hegelich: „Komplexe Bots ahmen das Verhalten echter Nutzer nach.“

Sein Beispiel ist brandaktuell. Seitdem Millionen von Menschen nach Europa flüchten und im vergangenen Jahr in Deutschland der sogenannte „Willkommenssommer“ stattfand, sind die Gemüter in der deutschen Bevölkerung erhitzt. Verschiedene Debatten werden im Netz geführt und Kritiken zu Merkels Flüchtlingspolitik unter Hashtags wie #RapeFugees, #RefugeesNotWelcome oder #unsereLisa gesammelt. Nicht wenige davon waren offenkundig rassistisch und wurden unter anderem von Social Bots begleitet, die die Stimmungslage zusätzlich anheizten.

Einfach zu identifizieren sind diese Roboter-Programme nicht. „Komplexe Bots ahmen das Verhalten echter Nutzer nach. Sie posten scheinbar belanglose Dinge, folgen autonom anderen Nutzern, haben einen geregelten Tagesablauf und können sich eventuell sogar mit echten Nutzern sinnvoll unterhalten“, erklärt Hegelich. „Diese Bots sind kaum zu enttarnen und wenn dann nur mit komplexen Machine-Learning-Algorithmen, also in der Masse und nicht in jedem Einzelfall.“

Social Bots stellen einen Gefahr für die Demokratie dar

Eine Untersuchung des US-Verteidigungsministeriums kommt zu dem Schluss, dass in den kommenden Jahren eine starke Zunahme von Bots zu erwarten sei. (Foto: The Pentagon by David B. Gleason / CC BY-SA 2.0)

Eine Untersuchung des US-Verteidigungsministeriums kommt zu dem Schluss, dass in den kommenden Jahren eine starke Zunahme von Bots zu erwarten sei. (Foto: The Pentagon by David B. Gleason / CC BY-SA 2.0)

Algorithmen und Programme zu entwickeln, die diese Bot-Netzwerke enttarnen, ist unter anderem die Aufgabe von Social-Media-Forensikern. Sie sammeln beispielsweise Traffic-Daten in Echtzeit und werten sie aus. Sobald ein auffälliger Post im Internet auftaucht, wird er registriert und zur Analyse abgespeichert. Auch Simon Hegelich hat solche Programme zusammen mit einem Social-Media-Forencics-Team entwickelt. Damals arbeitete er noch an der Universität in Siegen.

Anzeige
Anzeige

„Social Bots stellen eine Gefahr für die Demokratie dar.“

Momentan arbeiten die Algorithmen meistens mit den Metadaten, so wie Hegelich einst im Fall der Ukraine. Der Computer sucht nach Ähnlichkeiten bereits bekannter Bot-Netzwerke. Vor kurzem hat der Wissenschaftler auch eine völlig neue Methode vorgestellt: eine eigens entwickelte Software soll entschlüsseln, ob das Profilbild eines Nutzer eine Farbstruktur aufweist, die häufiger in denen von Social Bots auftaucht. Die Profilbilder sind nämlich oftmals Comics und eher selten echte Fotos.

Wie wichtig diese Software-Entwicklungen sind, zeigt auch eine Untersuchung der DARPA-Behörde des US-Verteidigungsministeriums. Vor einem Jahr setzten sie Wissenschaftler auf Social Bots an, die auf Facebook und Twitter hitzig über den Sinn von Impfungen stritten. In der Schlussbewertung der Untersuchung heißt es, dass „in den kommenden Jahren eine starke Zunahme von Bots zu erwarten sei, die Meinungen in sozialen Netzwerken beeinflussen sollen.“

Die Aufzählung der Gruppen, die davon Gebrauch machen, ist zum Teil besorgniserregend und reicht von Werbetreibenden und Kriminellen bis hin zu Politikern, Regierungen und Terroristen. Social Bots stellen „eine Gefahr für die Demokratie dar“, heißt es weiter, und würden „immer schlauer werden“. Auf die Frage, ob sie auch einen Krieg auslösen könnten, hat Prof. Dr. Hegelich dann aber doch eine beruhigende Antwort: „Sicher nicht!“, sagt er.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Ein Kommentar
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Partizipation

SEO ist hingegen ehrlich und vorbildlich… Daher sind so viele SEO-bezogene Artikel hier zu finden.
Wie ist die korrekte wissenschaftliche (schliesslich kann man einen Professor fragen) Abgrenzung von gutem und schlechtem SEO bzw. Bezahlpostings ?
Die Regeln für Schleichwerbung sind im Web zu finden glaube ich. Die könnten als Basis dienen…

„Eher zufällig erkannte Hegelich, dass nicht wenige Tweets sich erstaunlich ähnelten. Viele waren sogar komplett identisch.“
Wenn man auf „ausgeblendete Artikel einblenden“ bei Google-News klickt erkennt man die Agentur-Copy-Paste-Presse auch…
Ich habe ja schon lange Bezahlposter vermutet welche im Auftrag von Firmen die besseren Konkurrenten diffamieren. Auch die Sache mit der Shades of Grey Autorin bei Twitter könnten organisierten Christen gewesen sein welche damals offen in der Presse Harry Potter in den Schulen wegen Förderung der Hexerei verbieten wollten.

Ich will schon seit über 10 Jahren partizipative Systeme für Parteitage, Pressekonferenzen, Umfragen usw. Leider kenne ich kenne ich keinen Ort um sowas triviales stress-frei betreiben zu können.
Dort sieht man die Stimmen nach Anonym (also auch die Bots), Facebook-public, Facebook-anonym, Parteimitglied, Politiker, Konkurrenz-Partei, Presse, Blogger usw. getrennt um abzuschätzen was wie relevant ist.

Die Presse erfüllt immer offensichtlicher ihre Arbeit nicht. Also gewinnt der Protest scharenweise Wähler und regiert auch bald. Viel Spaß mit den Ergebnissen…

Tippfehler „forencics“ oder so ?

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige