Anzeige
Anzeige
MIT Technology Review Analyse

KI im Superwahljahr 2024: Wie gefährlich sind Fake News und Desinformation für unsere Demokratie?

Im Superwahljahr 2024 geht die Angst um, dass skrupellose Akteur:innen, ausgerüstet mit mächtigen Text- und Bildgeneratoren, massenweise Menschen mit gezielten Fake News manipulieren. Wird mit KI die Demokratie gehackt?

Von Wolfgang Stieler
5 Min.
Artikel merken
Anzeige
Anzeige
Donald Trump beim Parteitag der Republikaner. (Foto: picture alliance / ZUMAPRESS.com | Carol Guzy)

Desinformation ist gefährlicher als Kriegsverbrechen, soziale Ungleichheit und Klimawandel. So steht es jedenfalls im Global Risk Report 2024, einer Einschätzung globaler Risiken, die auf einer Umfrage unter führenden Versicherungs- und Rückversicherungsunternehmen beruht. Das Thema steht bereits zum zweiten Mal in Folge auf Platz eins der Top-10-Risiken. Aber nicht nur die Expert:innen sind beunruhigt. Laut einer repräsentativen Umfrage der Konrad-Adenauer-Stiftung von 2023 haben 64 Prozent der Befragten „große“ oder „sehr große“ Angst vor Desinformation.

Anzeige
Anzeige

Und das liegt sicherlich nicht nur an der Zunahme internationaler Konflikte. Auch der Blick auf die aktuelle technische Entwicklung ist nicht sonderlich beruhigend. Beispiele gefällig? Italienische Forscher:innen haben GPT‑4 erfolgreich genutzt, um in Diskussionen politische Meinungen von Menschen zu ändern. Einem irischen Forschungsteam gelang es, mit Fake-Videos Erinnerungen an fiktive politische Skandale in das Gedächtnis ihrer Studienteilnehmer:innen zu pflanzen – die waren überzeugt, dass es diese Skandale gegeben hatte, obwohl sie frei erfunden waren. Währenddessen brachte ein slowakisch-tschechisches Team große Sprachmodelle dazu, zu Verschwörungsmythen passende Nachrichtenmeldungen zu erfinden, was ihnen trotz Filtern und Sicherheitsmaßnahmen von OpenAI und Co. erstaunlich oft und erstaunlich gut gelang. Ganz zu schweigen von den audiovisuellen Inhalten, die immer besser werden – und die in Form von Fake-Videos oder Robocalls schon in Wahlkämpfen weltweit aufgetaucht sind.

Die Tricks der Psychokrieger

Die gute Nachricht dabei ist: Solche Manipulations- und Täuschungsversuche sind an sich nichts Neues, schreibt US-Autorin Annalee Newitz in ihrem neuen Buch „Stories Are Weapons – Psychological Warfare and the American Mind“. Techniken der Desinformation und der Manipulation würden vom Militär bereits seit Langem benutzt. Allerdings würden solche Methoden immer nur unter spezifischen Rahmenbedingungen funktionieren. So hätten die Nazis beispielsweise im Zweiten Weltkrieg eine zeitweise sehr erfolgreiche Sendung für Großbritannien produziert, die zwar die Moral der Bevölkerung untergrub. Diese Sendung konnte aber nur deshalb solch eine Wirkung erzielen, weil die britischen Behörden Meldungen über eigene Verluste streng zensierten – und die Propaganda der Nazis eine Möglichkeit darstellte, etwas über das Schicksal von Freund:innen und Verwandten an der Front zu erfahren.

Anzeige
Anzeige

Bei Militärs beliebt war auch die Methode, eine potenziell feindlich eingestellte Bevölkerung mit Lautsprecheransagen zu traktieren. Diese Taktik wird gern gekoppelt mit Versprechungen für materielle Hilfen oder der Androhung von Gewalt. Eine Taktik, die auch heute noch zum Repertoire der Psychokrieger:innen der Bundeswehr zu gehören scheint. Wie Newitz schreibt, funktioniert das allerdings nur dann, wenn die in so einer Aktion gegebenen Zusagen auch eingehalten werden.

Verdeckte Manipulation

Die große Anziehungskraft, die das Thema auch in der Öffentlichkeit und der Popkultur hat, beruht allerdings nicht auf solchen – wenig subtilen – Methoden. Die morbide Faszination an der psychologischen Kriegsführung wird gespeist aus der Vorstellung, es sei möglich, mit den richtigen Techniken an tief liegende, unterbewusste Überzeugungen von Menschen anzuknüpfen, um sie so zu Handlungen zu bewegen, die ihren bewussten, öffentlich präsentierten Überzeugungen zuwiderlaufen.

Anzeige
Anzeige

Laut Newitz wurde diese These durch ein ganz spezielles Forschungsprojekt bestärkt: Der Sozialpsychologe R. Nevitt Sanford, der Psychologe Daniel J. Levinso und der aus Deutschland emigrierte Soziologe Theodor W. Adorno gingen 1943 darin der Frage nach, wie aus vollkommen normalen Bürgern brutale Faschisten werden können. Ihre Vermutung: Es gibt Menschen, die aufgrund frühkindlicher Erfahrungen Charakterzüge wie Autoritätshörigkeit und Aggression gegenüber Unterlegenen und Fremden entwickeln, derer sie sich zunächst gar nicht bewusst sind. Unter den richtigen Umständen und mit der richtigen Ansprache ließen sich diese Charakterzüge aber gewissermaßen aufwecken und aktivieren.

Das Buch „Studien zum autoritären Charakter“, das 1950 erschien, war in den USA außerordentlich erfolgreich. Es passte allerdings auch ganz hervorragend zum Zeitgeist des aufkommenden Kalten Krieges. 1951 veröffentlichte der Journalist und antikommunistische Aktivist Edward Hunter ein Buch mit dem Titel „Gehirnwäsche in Rotchina“ über ein angeblich wissenschaftliches System, mit dem man die Meinung von Menschen ändern und sie sogar dazu bringen könne, Dinge zu lieben, die sie zuvor gehasst hätten. Und 1955 erschien eine anonym veröffentliche Broschüre mit dem Titel „Brain-Washing: A Synthesis of the Russian Textbook on Psychopolitics“ (Gehirnwäsche: Eine Zusammenfassung des russischen Lehrbuchs zu Psychopolitik), die angeblich eine Übersetzung der Arbeit des sowjetischen Geheimdienstchefs Lawrenti Beria war. Die Broschüre erwies sich in späteren Analysen allerdings als Machwerk des Scientology-Gründers L. Ron Hubbard, wurde zu ihrer Zeit jedoch auch von Expert:innen ernst genommen.

Anzeige
Anzeige

Gezielte Werbung

Dass es tatsächlich möglich ist, mit zielgerichteten Botschaften an tief liegende, unbewusste Muster der Persönlichkeit anzuknüpfen, um Menschen gewissermaßen fernzusteuern, ist eher unwahrscheinlich. Der Mythos hält sich jedoch hartnäckig und wird auch in den „Culture Wars“ in den USA gern immer wieder aufgegriffen, wenn rechte US-Politiker:innen beispielsweise über den „Woke Virus“ fabulieren, der Infizierte dazu bringe, „politisch korrekt“ zu sprechen und zu denken. Moderne Theorien der psychologischen Beeinflussung knüpfen allerdings eher an Techniken aus dem Marketing an. Die Science of Persuasion hat eine Vielzahl emotionaler und kommunikativer Anknüpfungspunkte gefunden. Die Methodik konzentriert sich vor allem auf eine Frage: Wem sage ich was und in welcher Form, um meine Ziele zu erreichen?

Wenig verwunderlich also, dass der Skandal um Cambridge Analytica für erhebliche Verunsicherung sorgte. Das britische Beratungsunternehmen hatte in den 2010ern Daten von Facebook-Profilen abgesaugt und daraus Persönlichkeitsprofile erstellt, die angeblich später für zielgerichtete politische Werbung in Zusammenhang mit dem Brexit und der US-Wahl 2016 verwendet wurden. Untersuchungen dazu konnten jedoch keine messbaren Effekte von – überwiegend russischen – Manipulationsversuchen feststellen.

Entwarnung?

Können wir also aufatmen? Ein Bericht von OpenAI zu Abwehrmaßnahmen gegen den politischen Missbrauch seiner Systeme ist nur halbwegs beruhigend. Denn die Studie zeigt, dass es zwar Akteur:innen gibt, die Sprachmodelle von OpenAI tatsächlich bereits zu Desinformation nutzen. Allerdings sind die Nutzungsszenarien fast schon ein wenig langweilig: Die Sprachmodelle wurden verwendet, um „Text (und gelegentlich auch Bilder) in größerem Umfang und mit weniger Sprachfehlern zu erstellen, als dies für die menschlichen Betreiber allein möglich gewesen wäre“, oder um vorhandene Texte umzuformulieren – etwa für andere Social-Media-Kanäle. In einzelnen Fällen ging es auch darum, „in den sozialen Medien den Anschein von Engagement zu erwecken – beispielsweise durch das Generieren von Antworten auf ihre eigenen Beiträge“. Viele der von KI identifizierten – und mittlerweile gesperrten – Akteur:innen nutzten die Sprachmodelle auch, um Code zu debuggen.

Anzeige
Anzeige

Die reale Praxis KI-unterstützer Desinformation scheint also – noch – recht profan zu sein. Noch dazu ist sie wenig konspirativ: Wer die Dienste von OpenAI für verdeckte politische Einflussnahme nutzt, ist entweder hoffnungslos naiv oder versucht, erst einmal die niedrig hängenden Früchte zu ernten. Aber das muss nicht so bleiben. Schließlich entwickelt sich die Technik rasant weiter.

Erkennst du, welche Bilder von einer KI erstellt sind?

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige