Anzeige
Anzeige
MIT Technology Review Analyse

Wie China, Russland und der Iran KI für Propaganda einsetzen – und was Experten dagegen tun wollen

OpenAI berichtet über immer mehr sogenannte Einflussnahmeoperationen, die ChatGPT und Co. nutzen. Ein gemeinsames Reporting aller KI-Firmen ist dringend notwendig, sagen zwei Wissenschaftler. Nur wie?

Von MIT Technology Review Online
6 Min.
Artikel merken
Anzeige
Anzeige

Ki-Propaganda ist deutlich schwerer zu erkennen wie diese alte aus China.

Ende Mai konnte OpenAI eine eher unschöne „Premiere“ in seiner Unternehmensgeschichte verzeichnen. Dabei handelte es sich nicht um ein noch leistungsfähigeres Sprachmodell oder eine neue Partnerschaft mit Inhaltelieferanten, sondern um einen Bericht, in dem offengelegt wurde, dass bösartige Akteure die Produkte des Unternehmens zur Einflussnahme missbraucht hatten. Das Unternehmen hatte fünf Netzwerke verdeckter Propagandaaktivisten – darunter Akteure aus Russland, China und dem Iran – erwischt, die seine generativen KI-Tools für betrügerische Taktiken einsetzten. Darunter war von der Erstellung großer Mengen von Social-Media-Kommentaren in mehreren Sprachen bis zur Umwandlung von Nachrichtenartikeln zu Facebook-Propaganda alles dabei. Der Einsatz seiner Tools, so OpenAI, soll offenbar die Qualität und Quantität des Outputs verbessern: KI verschafft auch Fake-News-Verbreitern einen Produktivitätsschub.

OpenAI hat für den Report Lob verdient. Denn es ist der erste seiner Art von großen KI-Lieferanten. Forscher erwarten seit langem, dass problematische Akteure generative KI-Technologien, insbesondere große Sprachmodelle, einsetzen, um den Umfang und die Qualität ihrer Bemühungen, die Stimmung zu drehen, kostengünstig zu steigern. Die transparente Offenlegung, dass dies bereits geschehen ist – und OpenAI der Erkennung und Schließung solcher Konten Priorität eingeräumt hat, um die Auswirkungen abzumildern – zeigt, dass es ein Problembewusstsein gibt.

Anzeige
Anzeige

Zumindest ein großes KI-Unternehmen hat offenbar etwas aus den Kämpfen der Social-Media-Plattformen in den Jahren nach der russischen Operation während US-Wahl 2016 gelernt. Als dieser Missbrauch aufgedeckt wurde, richteten Facebook, YouTube und Twitter (jetzt X) „Integritätsteams“ ein und begannen, regelmäßig über Einflussnahmeoperationen auf ihren Plattformen zu berichten. (X hat diese Aktivitäten nach dem Kauf des Unternehmens durch Elon Musk zunächst eingestellt.)

Die Offenlegung von OpenAI erinnerte an einen ähnlichen Bericht von Meta, der nur einen Tag zuvor veröffentlicht wurde, in dem es allerdings um die Inhalteverbreitung geht und nicht um deren Erstellung. Der Transparenzreport für das erste Quartal 2024 enthüllte die Zerschlagung von sechs verdeckten Operationen auf der Plattform. Auch hier wurden Netzwerke mit Verbindungen zu China oder Iran entdeckt und die Verwendung von KI-generierten Inhalten festgestellt. Propagandisten aus China teilten Bilder, die wie KI-Plakate für eine „fiktive Pro-Sikh-Aktivistenbewegung“ aussahen – offenbar um die indische Regierung unter Druck zu setzen.

Anzeige
Anzeige

Russischer Bedrohungsakteur aktiv

Ein in Israel ansässiges Unternehmen für politisches Marketing soll wiederum Kommentare gepostet haben, die „wahrscheinlich“ von KI generiert wurden. Der Meta-Bericht stellte auch fest, dass ein sehr hartnäckiger russischer Bedrohungsakteur immer noch aktiv ist und dass sich seine Strategien weiterentwickeln. Am wichtigsten ist vielleicht, dass Metas Report eine Reihe von „Empfehlungen für eine stärkere Reaktion der Industrie“ enthält, in denen Regierungen, Forscher und andere Technologieunternehmen aufgefordert werden, gemeinsam Daten über Bedrohungsszenarien auszutauschen, um die laufende russische Kampagne zu stoppen.

Wir sind zwei Forscher auf dem Gebiet und beschäftigen uns seit Jahren mit Online-Einflussnahmeoperationen. Wir haben Untersuchungen über koordinierte Aktivitäten veröffentlicht – manchmal in Zusammenarbeit mit Plattformen – und analysiert, wie KI-Werkzeuge die Art und Weise, wie Propagandakampagnen geführt werden, beeinflussen könnten. Eine einem Peer Review unterzogene Studie unserer Teams hat ergeben, dass Sprachmodelle Texte produzieren können, die fast genauso überzeugend sind wie Propaganda in von Menschen geschriebenen Kampagnen. Wir haben festgestellt, dass die Einflussnahme auf allen sozialen Plattformen und in allen Regionen der Welt immer weiter zunimmt; sie ist heute ein fester Bestandteil des Propagandaspiels. Staatliche Gegner und „Söldnerfirmen“, die eine derartige „Öffentlichkeitsarbeit“ betreiben, werden von Social-Media-Plattformen und der Reichweite, die sie bieten, angezogen. Vor allem für autoritäre Regime gibt es kaum Nachteile, solche Kampagnen zu führen, insbesondere in einem kritischen Wahljahr im Westen. Und jetzt setzen diese Akteure nachweislich KI-Technologien ein, die es den Plattformen erschweren, diese Aktivitäten zu erkennen. Die Medien schreiben über eine „Wahl mit KI- Beteiligung“ – und viele Regulierungsbehörden scheinen in Panik zu verfallen.

Anzeige
Anzeige

Es ist jedoch wichtig, dies in die richtige Perspektive zu rücken. Die meisten der von OpenAI und Meta erwähnten Beeinflussungskampagnen hatten keine großen Auswirkungen, worauf die Unternehmen mit Nachdruck hinwiesen. Es ist wichtig zu betonen, dass Aufwand nicht dasselbe ist wie Nutzen via „Engagement“: Die bloße Existenz von gefälschten Konten oder Seiten bedeutet nicht, dass echte Menschen ihnen Aufmerksamkeit schenken. Und nur weil eine Kampagne KI einsetzt, heißt das noch lange nicht, dass sie die öffentliche Meinung beeinflussen wird. Generative KI senkt nur die Kosten für die Durchführung von Propagandakampagnen, indem sie die Produktion von Inhalten und den Betrieb interaktiver automatisierter Konten deutlich billiger macht. Aber sie ist kein Allheilmittel, und im Falle der von OpenAI bekannt gegebenen Aktionen schien das, was generiert wurde, manchmal ziemlich Spam-artig zu sein. Das Publikum hat wohl nicht angebissen.

Die Produktion von Inhalten ist schließlich nur der erste Schritt einer Propagandakampagne; selbst die überzeugendsten von KI generierten Beiträge, Bilder oder Multimediadateien müssen noch verbreitet werden. Kampagnen ohne algorithmische Verstärkung oder „Abholung“ durch Influencer sind oft nur ein Twittern ins Leere. In der Tat sind es durchweg authentische Menschen, die die Aufmerksamkeit eines großen Publikums haben, das ihre Beiträge begeistert teilt, die das Engagement erhalten und die öffentliche Konversation vorantreiben, was dazu beiträgt, dass Inhalte und Stories viral werden. Das ist der Grund, warum einige der besser ausgestatteten Propagandanationen, wie etwa China, diese Stimmen einfach heimlich anheuern. Zum jetzigen Zeitpunkt haben einflussreiche reale Konten ein weitaus größeres Wirkungspotenzial als KI-gesteuerte Fakes.

Anzeige
Anzeige

Störungen in der Matrix

Nichtsdestotrotz ist die Sorge groß, dass KI die demokratische Politik stören und zu einer Bedrohung der nationalen Sicherheit werden könnte. Es ist wichtig, diese Bedrohung richtig einzuschätzen, insbesondere in einem Wahljahr. Die Übertreibung der Bedetung von Desinformationskampagnen kann das Vertrauen in Wahlen und in die Demokratie auch untergraben: Indem sie die Wähler glauben lässt, dass hinter jedem Posting Trolle stecken oder die bloße Tatsache, dass ein Kandidat derart angegriffen wurde, dessen Niederlage „verursacht“ hat.

Dadurch, dass OpenAI in seinem ersten Bericht eine Bewertung der Auswirkungen des KI-Einsatzes in den Vordergrund stellt, nimmt sie das Risiko einer Übertreibung der Bedrohung eindeutig ernst. Die Bedrohung abzuschwächen oder keine Integritätsteams einzusetzen – und die Trolle einfach weiter ihre Anhängerschaft vergrößern und ihre Verbreitungsmöglichkeiten verbessern zu lassen – wäre jedoch ebenfalls ein schlechter Ansatz. Der Meta-Bericht stellte fest, dass ein von der Firma entdecktes Netzwerk, das offenbar mit einer politischen Partei in Bangladesch in Verbindung stand und auf die bangladeschische Öffentlichkeit abzielte, 3,4 Millionen Anhänger auf 98 Seiten angehäuft hatte. Da dieses Netzwerk nicht von einem „Gegner“ betrieben wurde, der für die Amerikaner von Interesse ist, wird es wahrscheinlich kaum Beachtung finden. Dennoch zeigt dieses Beispiel, dass die Bedrohung global ist und Wachsamkeit der Schlüssel ist. Die Plattformen müssen der Erkennung von Bedrohungen weiterhin Vorrang einräumen.

Was sollten wir also tun? Der Aufruf des Meta-Berichts zur gemeinsamen Erfassung von Bedrohungen und zur Zusammenarbeit, der sich hier zwar zunächst nur auf einen russischen Gegner bezieht, zeigt den richtigen Weg für Social-Media-Plattformen, KI-Unternehmen und akademische Forscher gleichermaßen auf.

Anzeige
Anzeige

Transparenz ist das A und O. Als externe Forscher können wir nur so viel aus der Beschreibung eines Social-Media-Unternehmens über einen Vorgang erfahren, wie im Bericht steht. Dies gilt auch für die Öffentlichkeit und die politischen Entscheidungsträger, und die unglaublich mächtigen Plattformen sollten nicht einfach beim Wort genommen werden. Die Gewährleistung des Zugangs von Forschern zu Daten über koordinierte Propagandanetzwerke bietet die Möglichkeit, die Behauptungen eines Technologieunternehmens von außen zu überprüfen (oder zu widerlegen!). Vor der Übernahme von Twitter durch Musk gab das Unternehmen regelmäßig Datensätze mit Beiträgen von nicht authentischen, mit dem Staat verbundenen Konten an Forscher und sogar an die Öffentlichkeit weiter. Meta teilte Daten mit externen Partnern, bevor es ein Propagandanetzwerk entfernte, und ging vor kurzem zu einem Modell über, bei dem Inhalte aus bereits entfernten Netzwerken über ein „Influence Operations Research Archive“ geteilt werden. Auch wenn Forscher weiterhin auf mehr Daten drängen, haben diese Bemühungen ein umfassenderes Verständnis der Verhaltensweisen der Propagandisten ermöglicht. Transparenzberichte alleine reichen nicht.

Josh A. Goldstein ist wissenschaftlicher Mitarbeiter am Center for Security and Emerging Technology (CSET) der Georgetown University, wo er beim CyberAI-Projekt arbeitet. Renée DiResta ist Forschungsleiterin des Stanford Internet Observatory und Autorin von „Invisible Rulers: The People Who Turn Lies into Reality“.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige