Manipulative Akteur:innen nutzen Programme wie ChatGPT, um ihre Falschinformationen zu übersetzen und sie anschließend zu verteilen. Das kann aber auch auffliegen. Wie, zeigt OpenAI in einem ausführlichen Bericht, der sich um Desinformationskampagnen dreht, die das Unternehmen einschränken konnte.
So haben die Desinformationskampagnen ChatGPT eingesetzt
OpenAI hat insgesamt fünf große Desinformationskampagnen innerhalb der vergangenen drei Monate gestoppt. Darunter befinden sich vor allem Akteur:innen, die über ChatGPT Content generiert haben – also Texte und Bilder. Texte wurden meist von einer Sprache in eine andere übersetzt und dann auf Social-Media-Plattformen gepostet. Durch die relativ genaue Übersetzung von ChatGPT lässt sich so nur schwer erkennen, dass ein Text zunächst in einer anderen Sprache entstanden ist.
So soll etwa die Gruppierung „Bad Grammar“ von Russland aus operieren. Laut OpenAI haben die Verantwortlichen ChatGPT genutzt, um kurze politische Statements auf Russisch und Englisch zu generieren. Eine chinesische Gruppierung namens „Spamouflage“ soll die KI genutzt haben, um chinesische Desinformationen ins Englische, Koreanische und Japanische zu übersetzen.
Andere Akteur:innen sollen ChatGPT genutzt haben, um ihre eigenen Social-Media-Posts mit Kommentaren zu bereichern. Dazu zählt etwa eine israelische Gruppierung, die OpenAI als „Zero Zeno“ bezeichnet. Sie hat Kommentare für Facebook und X erstellt und dort gepostet.
Zudem sollen einige Gruppierungen die KI auch eingesetzt haben, um ihre eigene Produktivität zu steigern. Sie haben über ChatGPT Social-Media-Posts aus fremden Sprachen zusammenfassen lassen oder das Debugging von Code automatisiert.
Wie konnten die Bedrohungen aufgespürt werden?
OpenAI hält sich etwas bedeckt, wenn es darum geht, wie die Operationen entdeckt werden konnten. Kein Wunder, schließlich möchte das Unternehmen nicht, dass derartige Akteur:innen herausfinden, wie sie diese Maßnahmen umgehen können. OpenAI betont lediglich, dass es mehrere Sicherheitsmaßnahmen gibt, die solche Operationen frühzeitig entdecken sollen.
Dazu zählen etwa KI-Tools, die ungewöhnliche Aktivitäten feststellen und genauer analysieren. Zudem haben es ihnen die Gruppierungen recht leicht gemacht. Sie haben auf Social-Media-Plattformen gepostet, wenn ChatGPT ihre Prompts aufgrund der implementierten KI-Sicherheitsbestimmungen abgelehnt hat.