Perplexity und ChatGPT schneiden schlecht ab: Diese KI-Chatbots verbreiten die meisten Falschinformationen
Egal ob GPT-5 oder Gemini 2.5: Wann immer ein neues KI-Modell erscheint, versprechen die Hersteller auch eine höhere Genauigkeit. Ausgerechnet bei Nachrichten scheint die Entwicklung aber in die entgegengesetzte Richtung zu gehen. Laut einer Untersuchung des auf die Bewertung von Nachrichtenquellen spezialisierten Unternehmens Newsguard verbreiten die zehn bekanntesten KI-Chatbots heute fast doppelt so viele Falschinformationen wie noch vor einem Jahr.
Während die untersuchten KI-Chatbots 2024 bei 18 Prozent der von Newsguard durchgeführten Versuche Fehlinformationen verbreitet hat, soll das 2025 bei 35 Prozent der Fälle vorgekommen sein. Das könnte, so die Autor:innen, auch damit zusammenhängen, dass die Chatbots mittlerweile auf wirklich jede Frage eine Antwort generiert haben. Vor einem Jahr blieben 31 Prozent noch unbeantwortet – waren dann aber eben auch nicht falsch.
Diese Chatbots haben am schlechtesten abgeschnitten
Am schlechtesten hat laut Newsguard der US-amerikanische Chatbot Inflection abgeschnitten, der allerdings hierzulande wenig genutzt wird. Dahinter folgt die KI-Suchmaschine Perplexity mit einer Fehlerrate von mehr als 46 Prozent. Das ist einigermaßen überraschend, weil Perplexity ein Jahr zuvor noch gar keine Falschinformtionen ausgegeben hatte.
Sowohl ChatGPT als auch Meta AI schreibt Newsguard eine Fehlerrate von immer noch 40 Prozent zu. Wenig besser schlagen sich Microsofts Copilot und der französische KI-Chatbot Mistral mit jeweils 36,67 Prozent fehlerhaften Antworten. Elon Musks Grok und die KI-Suchmaschine You.com antworteten wiederum zu mehr als 33 Prozent mit fehlerhaften Informationen.
Vergleichsweise gut konnte aber Googles KI-Chatbot Gemini abschneiden. Hier lag die Fehlerrate bei nur 16,67 Prozent. Spitzenreiter ist allerdings Claude. Hier lag die von Newsguard ermittelte Fehlerquote bei nur 10 Prozent.
Russische Propaganda-Kampagnen und KI-Chatbots
Die Untersuchung von Newsguard zeigt, dass KI-Chatbots anfällig für gezielte Desinformationskampagnen sind. So bestätigten sechs der zehn untersuchten Chatbots den vermeintlichen Wahrheitsgehalt einer Aussage über einen moldawischen Politiker, die der so nie getroffen hat, und Teil einer gezielten russischen Propaganda-Kampagne ist, die unter der Bezeichnung Storm-1516 mit gefälschten Nachrichtenseiten und KI-generierten Inhalten Fake News verbreitet.
Interessant in diesem Zusammenhang: Während Microsofts Copilot 2024 noch die russische Zeitung Prawda als vertrauenswürdige Quelle herangezogen hatte, scheint der Konzern das mittlerweile unterbunden zu haben. Nur scheint das die KI nicht daran zu hindern, auf die Prawda als Quelle zurückzugreifen. Statt der Nachrichten-Website selbst bezieht die KI jetzt allerdings die Informationen von dem Prawda-Auftritt auf dem russischen Social-Media-Dienst VK.
Das scheint kein Zufall zu sein. Über ein Netzwerk aus VK-Accounts verbreitet die Prawda tausende von Beiträgen, die teilweise fast keine Leser:innen auf der Plattform haben. In einer im Juni 2025 veröffentlichten Untersuchung einer dieser Seiten von Open Measures heißt es entsprechend: „Das Hauptziel des Pravda-Netzwerks könnte darin bestehen, große Sprachmodelle zu beeinflussen.“
Vor allem junge Menschen beziehen Nachrichten immer häufiger von KI-Chatbots
Laut einer im Juni 2025 vom britischen Reuters Institute for the Study of Journalism veröffentlichten Studie, nutzen 15 Prozent der Internet-Nutzer:innen unter 25 Jahren KI-Chatbots, um sich über das aktuelle Nachrichtengeschehen zu informieren. Eine Zahl, die in den kommenden Jahren wohl noch ansteigen wird.
Entsprechend dürften es vor allem junge Menschen sein, die anfällig für die gezielte Manipulation von KI-Chatbots sein. Aber selbst ohne entsprechende Bestrebungen müssen sich Nutzer:innen im Klaren sein, dass KI-Modelle nach wie vor zu Halluzinationen neigen. Darunter versteht man das Phänomen, dass große Sprachmodelle immer wieder falsche Informationen erzeugen. Ein Phänomen, für das es nach wie vor keine echte Lösung gibt.
Gegenüber t3n erklärte die KI- und Datenstrategie-Expertin Barbara Lampl kürzlich: „Im Deutschen halluzinieren Modelle gerne massiv mehr, weil der Trainingskorpus dominant Englisch ist.“ Dementsprechend sollten hiesige Nutzer:innen auch besonders vorsichtig sein, wenn sie ihre Informationen von einem KI-Chatbot beziehen.