ChatGPT und Co. wissen wenig über aktuelle Politik – warum das ein Problem ist
In Vorbereitung auf die Wahlen in den USA und durch die vielen politischen Großereignisse angestoßen, hat The Washington Post Chatbots genauer unter die Lupe genommen. ChatGPT, Google Gemini und viele weitere Sprachmodelle sollten aktuelle Informationen zum weltpolitischen Geschehen liefern – und scheiterten dabei grandios.
ChatGPT und Co. wissen wenig über aktuelle Politik
So wurde zunächst ChatGPT über das versuchte Attentat auf den ehemaligen Präsidenten Donald Trump befragt. Nur wenige Stunden, nachdem der Schuss gefallen war, hatte die KI keine Ahnung, was vorgefallen war. ChatGPT behauptete sogar, dass es sich bei dem Attentat um Gerüchte handele und diese als Falschinformationen zu kategorisieren seien. Auch Meta AI konnte keine klaren Fakten offenbaren. Perplexity behauptete, dass es keine Berichte darüber gebe, dass der ehemalige Präsident angeschossen wurde.
Nachdem Trump Senator J.D. Vance als seinen Vizepräsidenten für die bevorstehende Wahl bekannt gegeben hatte, wurden ebenfalls mehrere Chatbots dazu befragt. Meta AI lieferte laut Washington Post zunächst die richtigen Informationen, zog diese aber dann zurück. Stattdessen verwies die KI in einer kurzen Nachricht auf die Wahlinformationen. Auch der Rückzug von Präsident Joe Biden bei der aktuellen Wahl bereitete einigen künstlichen Intelligenzen Probleme. Auf die Frage, wer für die Demokraten kandidiere, berichtete Perplexity, dass Biden weiterhin als Präsidentschaftskandidat antrete.
Jevin West, Professor und Mitgründer des Center for an Informed Public an der Universität von Washington, erklärte, dass die Menschen verstehen müssen, dass wir uns immer noch in einer frühen KI-Phase befinden. Selbst das Zitieren und die Nennung von Quellen passieren laut dem Professor erst nach der Antwort, was zwangsläufig zu Problemen mit Falschinformationen führt. Er fügt hinzu: „Sie sind unglaublich gut darin, zu kommunizieren. Allerdings sind sie nicht darauf optimiert, die Wahrheit zu sagen.“
Andere KI-Chatbots schnitten besser ab
Der Test zeigte allerdings auch, dass manche Chatbots besser mit aktuellen Informationen umgehen können. So konnten Microsofts Copilot und Googles Gemini häufiger richtige Informationen zur Politiklage in den USA liefern. Allerdings fehlt Googles KI dabei noch eine Quellennennung, während Microsoft diese bereits bietet.
Immerhin: Einige Stunden nach dem Attentat und den anderen politischen Entwicklungen in den USA konnten die künstlichen Intelligenzen, die zuvor Falschinformationen verbreitet hatten, etwas besser abschneiden. ChatGPT nannte einen Tag später akkurate Quellen für das Attentat auf Trump.
Einige KI-Entwickler:innen haben bereits Vorsichtsmaßnahmen getroffen, um Falschinformationen zur Wahl durch ihre Tools zu verhindern. Microsoft, Meta und Google haben bereits Einschränkungen bei ihren künstlichen Intelligenzen vorgenommen. Dementsprechend hat Meta AI auch die zunächst richtigen Informationen zu J.D. Vance wieder zurückgezogen.