Wie China, Russland und der Iran KI für Propaganda einsetzen – und was Experten dagegen tun wollen
OpenAI hat für den Report Lob verdient. Denn es ist der erste seiner Art von großen KI-Lieferanten. Forscher erwarten seit langem, dass problematische Akteure generative KI-Technologien, insbesondere große Sprachmodelle, einsetzen, um den Umfang und die Qualität ihrer Bemühungen, die Stimmung zu drehen, kostengünstig zu steigern. Die transparente Offenlegung, dass dies bereits geschehen ist – und OpenAI der Erkennung und Schließung solcher Konten Priorität eingeräumt hat, um die Auswirkungen abzumildern – zeigt, dass es ein Problembewusstsein gibt.
Zumindest ein großes KI-Unternehmen hat offenbar etwas aus den Kämpfen der Social-Media-Plattformen in den Jahren nach der russischen Operation während US-Wahl 2016 gelernt. Als dieser Missbrauch aufgedeckt wurde, richteten Facebook, YouTube und Twitter (jetzt X) „Integritätsteams“ ein und begannen, regelmäßig über Einflussnahmeoperationen auf ihren Plattformen zu berichten. (X hat diese Aktivitäten nach dem Kauf des Unternehmens durch Elon Musk zunächst eingestellt.)
Die Offenlegung von OpenAI erinnerte an einen ähnlichen Bericht von Meta, der nur einen Tag zuvor veröffentlicht wurde, in dem es allerdings um die Inhalteverbreitung geht und nicht um deren Erstellung. Der Transparenzreport für das erste Quartal 2024 enthüllte die Zerschlagung von sechs verdeckten Operationen auf der Plattform. Auch hier wurden Netzwerke mit Verbindungen zu China oder Iran entdeckt und die Verwendung von KI-generierten Inhalten festgestellt. Propagandisten aus China teilten Bilder, die wie KI-Plakate für eine „fiktive Pro-Sikh-Aktivistenbewegung“ aussahen – offenbar um die indische Regierung unter Druck zu setzen.
Russischer Bedrohungsakteur aktiv
Ein in Israel ansässiges Unternehmen für politisches Marketing soll wiederum Kommentare gepostet haben, die „wahrscheinlich“ von KI generiert wurden. Der Meta-Bericht stellte auch fest, dass ein sehr hartnäckiger russischer Bedrohungsakteur immer noch aktiv ist und dass sich seine Strategien weiterentwickeln. Am wichtigsten ist vielleicht, dass Metas Report eine Reihe von „Empfehlungen für eine stärkere Reaktion der Industrie“ enthält, in denen Regierungen, Forscher und andere Technologieunternehmen aufgefordert werden, gemeinsam Daten über Bedrohungsszenarien auszutauschen, um die laufende russische Kampagne zu stoppen.
Wir sind zwei Forscher auf dem Gebiet und beschäftigen uns seit Jahren mit Online-Einflussnahmeoperationen. Wir haben Untersuchungen über koordinierte Aktivitäten veröffentlicht – manchmal in Zusammenarbeit mit Plattformen – und analysiert, wie KI-Werkzeuge die Art und Weise, wie Propagandakampagnen geführt werden, beeinflussen könnten. Eine einem Peer Review unterzogene Studie unserer Teams hat ergeben, dass Sprachmodelle Texte produzieren können, die fast genauso überzeugend sind wie Propaganda in von Menschen geschriebenen Kampagnen. Wir haben festgestellt, dass die Einflussnahme auf allen sozialen Plattformen und in allen Regionen der Welt immer weiter zunimmt; sie ist heute ein fester Bestandteil des Propagandaspiels. Staatliche Gegner und „Söldnerfirmen“, die eine derartige „Öffentlichkeitsarbeit“ betreiben, werden von Social-Media-Plattformen und der Reichweite, die sie bieten, angezogen. Vor allem für autoritäre Regime gibt es kaum Nachteile, solche Kampagnen zu führen, insbesondere in einem kritischen Wahljahr im Westen. Und jetzt setzen diese Akteure nachweislich KI-Technologien ein, die es den Plattformen erschweren, diese Aktivitäten zu erkennen. Die Medien schreiben über eine „Wahl mit KI- Beteiligung“ – und viele Regulierungsbehörden scheinen in Panik zu verfallen.
Es ist jedoch wichtig, dies in die richtige Perspektive zu rücken. Die meisten der von OpenAI und Meta erwähnten Beeinflussungskampagnen hatten keine großen Auswirkungen, worauf die Unternehmen mit Nachdruck hinwiesen. Es ist wichtig zu betonen, dass Aufwand nicht dasselbe ist wie Nutzen via „Engagement“: Die bloße Existenz von gefälschten Konten oder Seiten bedeutet nicht, dass echte Menschen ihnen Aufmerksamkeit schenken. Und nur weil eine Kampagne KI einsetzt, heißt das noch lange nicht, dass sie die öffentliche Meinung beeinflussen wird. Generative KI senkt nur die Kosten für die Durchführung von Propagandakampagnen, indem sie die Produktion von Inhalten und den Betrieb interaktiver automatisierter Konten deutlich billiger macht. Aber sie ist kein Allheilmittel, und im Falle der von OpenAI bekannt gegebenen Aktionen schien das, was generiert wurde, manchmal ziemlich Spam-artig zu sein. Das Publikum hat wohl nicht angebissen.
Die Produktion von Inhalten ist schließlich nur der erste Schritt einer Propagandakampagne; selbst die überzeugendsten von KI generierten Beiträge, Bilder oder Multimediadateien müssen noch verbreitet werden. Kampagnen ohne algorithmische Verstärkung oder „Abholung“ durch Influencer sind oft nur ein Twittern ins Leere. In der Tat sind es durchweg authentische Menschen, die die Aufmerksamkeit eines großen Publikums haben, das ihre Beiträge begeistert teilt, die das Engagement erhalten und die öffentliche Konversation vorantreiben, was dazu beiträgt, dass Inhalte und Stories viral werden. Das ist der Grund, warum einige der besser ausgestatteten Propagandanationen, wie etwa China, diese Stimmen einfach heimlich anheuern. Zum jetzigen Zeitpunkt haben einflussreiche reale Konten ein weitaus größeres Wirkungspotenzial als KI-gesteuerte Fakes.
Störungen in der Matrix
Nichtsdestotrotz ist die Sorge groß, dass KI die demokratische Politik stören und zu einer Bedrohung der nationalen Sicherheit werden könnte. Es ist wichtig, diese Bedrohung richtig einzuschätzen, insbesondere in einem Wahljahr. Die Übertreibung der Bedetung von Desinformationskampagnen kann das Vertrauen in Wahlen und in die Demokratie auch untergraben: Indem sie die Wähler glauben lässt, dass hinter jedem Posting Trolle stecken oder die bloße Tatsache, dass ein Kandidat derart angegriffen wurde, dessen Niederlage „verursacht“ hat.
Dadurch, dass OpenAI in seinem ersten Bericht eine Bewertung der Auswirkungen des KI-Einsatzes in den Vordergrund stellt, nimmt sie das Risiko einer Übertreibung der Bedrohung eindeutig ernst. Die Bedrohung abzuschwächen oder keine Integritätsteams einzusetzen – und die Trolle einfach weiter ihre Anhängerschaft vergrößern und ihre Verbreitungsmöglichkeiten verbessern zu lassen – wäre jedoch ebenfalls ein schlechter Ansatz. Der Meta-Bericht stellte fest, dass ein von der Firma entdecktes Netzwerk, das offenbar mit einer politischen Partei in Bangladesch in Verbindung stand und auf die bangladeschische Öffentlichkeit abzielte, 3,4 Millionen Anhänger auf 98 Seiten angehäuft hatte. Da dieses Netzwerk nicht von einem „Gegner“ betrieben wurde, der für die Amerikaner von Interesse ist, wird es wahrscheinlich kaum Beachtung finden. Dennoch zeigt dieses Beispiel, dass die Bedrohung global ist und Wachsamkeit der Schlüssel ist. Die Plattformen müssen der Erkennung von Bedrohungen weiterhin Vorrang einräumen.
Was sollten wir also tun? Der Aufruf des Meta-Berichts zur gemeinsamen Erfassung von Bedrohungen und zur Zusammenarbeit, der sich hier zwar zunächst nur auf einen russischen Gegner bezieht, zeigt den richtigen Weg für Social-Media-Plattformen, KI-Unternehmen und akademische Forscher gleichermaßen auf.
Transparenz ist das A und O. Als externe Forscher können wir nur so viel aus der Beschreibung eines Social-Media-Unternehmens über einen Vorgang erfahren, wie im Bericht steht. Dies gilt auch für die Öffentlichkeit und die politischen Entscheidungsträger, und die unglaublich mächtigen Plattformen sollten nicht einfach beim Wort genommen werden. Die Gewährleistung des Zugangs von Forschern zu Daten über koordinierte Propagandanetzwerke bietet die Möglichkeit, die Behauptungen eines Technologieunternehmens von außen zu überprüfen (oder zu widerlegen!). Vor der Übernahme von Twitter durch Musk gab das Unternehmen regelmäßig Datensätze mit Beiträgen von nicht authentischen, mit dem Staat verbundenen Konten an Forscher und sogar an die Öffentlichkeit weiter. Meta teilte Daten mit externen Partnern, bevor es ein Propagandanetzwerk entfernte, und ging vor kurzem zu einem Modell über, bei dem Inhalte aus bereits entfernten Netzwerken über ein „Influence Operations Research Archive“ geteilt werden. Auch wenn Forscher weiterhin auf mehr Daten drängen, haben diese Bemühungen ein umfassenderes Verständnis der Verhaltensweisen der Propagandisten ermöglicht. Transparenzberichte alleine reichen nicht.