Anzeige
Anzeige
News
Verpasse keine News mehr!

ChatGPT und Gemini: Warum Chatbots bei Beziehungsfragen ihrer Fantasie freien Lauf lassen

Vielen KI-Modellen fällt es noch immer schwer, ihr Unwissen anzuerkennen – so auch bei der Fragen nach dem Beziehungsstatus. Ein aktueller Fall zeigt auf, warum ChatGPT und Co. nicht blind vertraut werden sollte.

Von Noëlle Bölling
3 Min.
Artikel merken
Anzeige
Anzeige
„Mit wem bin ich verheiratet?“: An dieser scheinbar simplen Frage scheinen viele Chatbots zu scheitern. (Bild: Shutterstock/APrint)

Halluzinationen sind nach wie vor ein großes Problem für generative KI-Modelle. Anstatt zuzugeben, dass bestimmte Informationen nicht geliefert werden können, tendieren Chatbots oft dazu, Antworten frei zu erfinden. Besonders kurios ist ein aktueller Fall, über den das Wall Street Journal berichtet: Hier scheitern selbst große Modelle wie ChatGPT und Google Gemini an der scheinbar einfachen Frage nach den Ehepartner:innen bestimmter Personen und machen reihenweise fehlerhafte Angaben.

Anzeige
Anzeige

Wenn Chatbots Ehen stiften – ob sie existieren oder nicht

Um den Bug zu testen, befragte Noor Al-Sibai, Redakteurin beim Online-Magazin Futurism, KI-Modelle nach ihrem aktuellen Beziehungsstatus – wie sie in ihrem Artikel verrät, ist sie derzeit nicht verheiratet. Das hielt Gemini aber nicht davon ab, ihr einen Ehemann anzudichten. Laut des Chatbots soll Al-Sibai mit Ahmad Durak Sibai verheiratet sein – einem Mann, von dem sie noch nie zuvor gehört hat. Eine kurze Recherche ergab, dass es sich dabei um einen wenig bekannten syrischen Maler handelt, der allerdings bereits in den 1980er Jahren verstorben ist.

Mehrere Tests haben gezeigt, dass ChatGPT und Gemini häufig völlig zufällige Namen als Ehepartner:in angeben – teils von realen, aber unbekannten Personen, teils auch von fiktiven Charakteren. Zumindest bei der deutschsprachigen Version von ChatGPT scheinen Halluzinationen zu potenziellen Ehepartner:innen ein weniger großes Problem zu sein. Bei meinem eigenen Test hat der Chatbot korrekte Antworten gegeben – und in meinem persönlichen Fall sogar zugegeben, keine Informationen über meinen Beziehungsstatus zu haben. Dieses Eingeständnis ist etwas, das vielen Modellen schwerzufallen scheint.

Anzeige
Anzeige

Das steckt hinter den Falschangaben von Gemini und Co.

Halluzinationen sind ein bekanntes Problem großer Sprachmodelle. Sie entstehen, weil KI-Modelle Wahrscheinlichkeiten für Wörter und Phrasen berechnen, anstatt tatsächliche Fakten zu verstehen oder zu überprüfen. Während einige Modelle wie zum Beispiel Claude von Anthorpic in solchen Fällen eher zurückhaltend agieren und Unsicherheit signalisieren, neigen ChatGPT und Gemini dazu, dennoch eine Antwort zu liefern – selbst, wenn sie falsch ist.

Anzeige
Anzeige

Ein möglicher Grund für diese fehlerhaften Angaben ist die Art und Weise, wie KI-Modelle trainiert werden. Die Datenmengen, die sie nutzen, sind riesig, aber nicht immer präzise oder aktuell. Veraltete Informationen, unstrukturierte Daten aus dem Internet oder gar humorvolle Angaben in Social-Media-Profilen können fälschlicherweise als Fakten interpretiert werden. Das erklärt auch, warum die Antworten inkonsistent sein können: Während die KI in einem Test eine Person als ledig bezeichnet, gibt sie im nächsten Versuch eine völlig erfundene Ehe an.

KI-Modellen sollte nicht blind vertraut werden

Auch wenn die fehlerhaften Ehepartner eher für Belustigung sorgen, zeigt der Fall ein größeres Problem auf: Sprachmodelle sind nicht immer zuverlässig, wenn es um faktenbasierte Informationen geht. Besonders kritisch wird es, wenn solche Halluzinationen nicht nur einen harmlose Beziehungsstatus, sondern ernsthafte Themen wie medizinische Ratschläge, historische Ereignisse oder rechtliche Informationen betreffen.

Anzeige
Anzeige

Ein weiteres Problem ist, dass falsche Informationen mit großer Überzeugung präsentiert werden. Wer sich auf eine KI verlässt, ohne die Angaben zu überprüfen, läuft Gefahr, Fehlinformationen weiterzuverbreiten. Das kann besonders problematisch sein, wenn sich falsche Fakten in sozialen Netzwerken oder journalistischen Artikeln verbreiten.

Technologieunternehmen wie Google und OpenAI arbeiten zwar kontinuierlich daran, die Genauigkeit ihrer Sprachmodelle zu verbessern. Der aktuelle Fall zeigt allerdings, dass sie weiterhin mit Vorsicht genutzt werden sollten. Wer Chatbots nach biografischen oder persönlichen Informationen fragt, sollte deren Antworten nicht blind vertrauen – und im Zweifel mit einer klassischen Google-Suche gegenprüfen.

Googles neue KI-Suche geht nach hinten los

Googles neue KI-Suche geht nach hinten los Quelle: (Bild: Koshiro K/Shutterstock)

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige