ChatGPT und Gemini: Warum Chatbots bei Beziehungsfragen ihrer Fantasie freien Lauf lassen

Halluzinationen sind nach wie vor ein großes Problem für generative KI-Modelle. Anstatt zuzugeben, dass bestimmte Informationen nicht geliefert werden können, tendieren Chatbots oft dazu, Antworten frei zu erfinden. Besonders kurios ist ein aktueller Fall, über den das Wall Street Journal berichtet: Hier scheitern selbst große Modelle wie ChatGPT und Google Gemini an der scheinbar einfachen Frage nach den Ehepartner:innen bestimmter Personen und machen reihenweise fehlerhafte Angaben.
Wenn Chatbots Ehen stiften – ob sie existieren oder nicht
Um den Bug zu testen, befragte Noor Al-Sibai, Redakteurin beim Online-Magazin Futurism, KI-Modelle nach ihrem aktuellen Beziehungsstatus – wie sie in ihrem Artikel verrät, ist sie derzeit nicht verheiratet. Das hielt Gemini aber nicht davon ab, ihr einen Ehemann anzudichten. Laut des Chatbots soll Al-Sibai mit Ahmad Durak Sibai verheiratet sein – einem Mann, von dem sie noch nie zuvor gehört hat. Eine kurze Recherche ergab, dass es sich dabei um einen wenig bekannten syrischen Maler handelt, der allerdings bereits in den 1980er Jahren verstorben ist.
Mehrere Tests haben gezeigt, dass ChatGPT und Gemini häufig völlig zufällige Namen als Ehepartner:in angeben – teils von realen, aber unbekannten Personen, teils auch von fiktiven Charakteren. Zumindest bei der deutschsprachigen Version von ChatGPT scheinen Halluzinationen zu potenziellen Ehepartner:innen ein weniger großes Problem zu sein. Bei meinem eigenen Test hat der Chatbot korrekte Antworten gegeben – und in meinem persönlichen Fall sogar zugegeben, keine Informationen über meinen Beziehungsstatus zu haben. Dieses Eingeständnis ist etwas, das vielen Modellen schwerzufallen scheint.
Das steckt hinter den Falschangaben von Gemini und Co.
Halluzinationen sind ein bekanntes Problem großer Sprachmodelle. Sie entstehen, weil KI-Modelle Wahrscheinlichkeiten für Wörter und Phrasen berechnen, anstatt tatsächliche Fakten zu verstehen oder zu überprüfen. Während einige Modelle wie zum Beispiel Claude von Anthorpic in solchen Fällen eher zurückhaltend agieren und Unsicherheit signalisieren, neigen ChatGPT und Gemini dazu, dennoch eine Antwort zu liefern – selbst, wenn sie falsch ist.
Ein möglicher Grund für diese fehlerhaften Angaben ist die Art und Weise, wie KI-Modelle trainiert werden. Die Datenmengen, die sie nutzen, sind riesig, aber nicht immer präzise oder aktuell. Veraltete Informationen, unstrukturierte Daten aus dem Internet oder gar humorvolle Angaben in Social-Media-Profilen können fälschlicherweise als Fakten interpretiert werden. Das erklärt auch, warum die Antworten inkonsistent sein können: Während die KI in einem Test eine Person als ledig bezeichnet, gibt sie im nächsten Versuch eine völlig erfundene Ehe an.
KI-Modellen sollte nicht blind vertraut werden
Auch wenn die fehlerhaften Ehepartner eher für Belustigung sorgen, zeigt der Fall ein größeres Problem auf: Sprachmodelle sind nicht immer zuverlässig, wenn es um faktenbasierte Informationen geht. Besonders kritisch wird es, wenn solche Halluzinationen nicht nur einen harmlose Beziehungsstatus, sondern ernsthafte Themen wie medizinische Ratschläge, historische Ereignisse oder rechtliche Informationen betreffen.
Ein weiteres Problem ist, dass falsche Informationen mit großer Überzeugung präsentiert werden. Wer sich auf eine KI verlässt, ohne die Angaben zu überprüfen, läuft Gefahr, Fehlinformationen weiterzuverbreiten. Das kann besonders problematisch sein, wenn sich falsche Fakten in sozialen Netzwerken oder journalistischen Artikeln verbreiten.
Technologieunternehmen wie Google und OpenAI arbeiten zwar kontinuierlich daran, die Genauigkeit ihrer Sprachmodelle zu verbessern. Der aktuelle Fall zeigt allerdings, dass sie weiterhin mit Vorsicht genutzt werden sollten. Wer Chatbots nach biografischen oder persönlichen Informationen fragt, sollte deren Antworten nicht blind vertrauen – und im Zweifel mit einer klassischen Google-Suche gegenprüfen.
Googles neue KI-Suche geht nach hinten los