Das Weltwirtschaftsforum nennt in einem aktuellen Bericht KI-gestützte Desinformationen und ihre Folgen als größte Gefahr für die Zivilgesellschaft. Damit steht die Organisation nicht allein da. Viele Expert:innen gehen davon aus, dass KI zunehmend zur Beeinflussung von Wahlen genutzt wird.
Das ist im Jahr 2024 besonders relevant, denn im Dezember des Jahres findet der US-Präsidentschaftswahlkampf statt. In Deutschland wiederum stehen in Sachsen, Thüringen und Brandenburg Landtagswahlen an. Außerdem findet am 9. Juni die Europawahl an.
ChatGPT: OpenAI rüstet für das Wahljahr auf
Schon im vergangenen Jahr hat sich OpenAI-Chef Sam Altman mehrfach besorgt darüber geäußert, wie auch die von seinem Unternehmen bereitgestellte Technologie zur gezielten Wähler:innenbeeinflussung genutzt werden könnte. Ende 2013 hat OpenAI die Gründung einer neuen Abteilung angekündigt, die neuen Risiken durch den KI-Einsatz frühzeitig entgegenwirken soll.
Anscheinend wurde jetzt auch ChatGPT in Vorbereitung auf die US-Wahlen angepasst. Der Informatikstudent Dennis Miczek will einen entsprechenden Hinweis in ChatGPT gefunden haben.
Laut einer Konversation mit ChatGPT hat OpenAI mit dem sogenannten guardian_tool ein neues Werkzeug in den Chatbot integriert. Dabei soll es sich um ein Werkzeug zur Moderation von Inhalten mit Bezug zu der US-Wahl handeln. Anfragen zu Wahlen in anderen Ländern scheinen von dem neuen Werkzeug nicht betroffen zu sein.
Wie KI den Wahlausgang beeinflussen könnte
Schon im argentinischen Präsidentschaftswahlkampf 2023 setzten die Kampagnen beider Kontrahenten in der Stichwahl auf KI-generierte Inhalte. Die Technologie wurde online einerseits für politische Memes verwendet, kam andererseits aber auch bei der Gestaltung von Wahlplakaten zum Einsatz.
Altman befürchtet indes einen viel zielgerichteteren Einsatz der Technologie. Ende 2023 warnte der OpenAI-Chef öffentlich davor, dass KI dafür genutzt werden könnte, auf Basis aller von einer Person öffentlich geteilten Inhalte Nachrichten zu verfassen, mit denen diese Person gezielt beeinflusst werden könnte. „Das ist eine neue Art der Einmischung, die vor der KI einfach nicht möglich war“, so Altman.