Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Wenn Chatbots Fantasie statt Fakten liefern: Warum knappe Antworten zu KI-Halluzinationen führen

Eine Studie zeigt, wie leicht sich KI von uns beeinflussen lässt. Oftmals reichen schon einfache Anweisungen aus, um Chatbots aus dem Gleichgewicht zu bringen und Halluzinationen hervorzurufen.

2 Min.
Artikel merken
Anzeige
Anzeige

Wenn KI knapp antworten soll, halluziniert sie deutlich häufiger. (Grafik: Midjourney/t3n)

Halluzinationen gehören nach wie vor zu den größten Problemen von KI-Modellen. Wenn die Programme plötzlich falsche Tatsachen als Wahrheit proklamieren, können schnell Probleme entstehen. Deshalb suchen KI-Forscher:innen immer wieder nach neuen Ansätzen, um Halluzinationen zuverlässig zu erkennen. Eine neue Studie zeigt, dass wir aber oftmals selbst dafür sorgen, dass die KI halluziniert.

Anzeige
Anzeige

KI-Halluzinationen durch zusätzliche Anweisungen

Das Softwareunternehmen Giskard, das ein Tool zum Testen von KI-Tools bereitstellt, kommt in einer neuen Studie zu diesem Schluss. Im Rahmen der Studie wurden KI-Modelle wie Gemini 1.5 Pro, Mistral Large, GPT-4o, Grok 2 und Claude 3.7 Sonnet auf ihren Widerstand gegen Halluzinationen getestet. Zunächst wurden einfache Fakten von den Chatbots abgefragt – etwa, wer der aktuelle Präsident im Libanon ist.

Danach wurden die Modelle auf ihren Widerstand gegen Desinformationen getestet, indem der Prompt mit falschen Aussagen gespickt wurde. In einem dritten Test enthielten die Prompts Verschwörungstheorien, urbane Legenden oder pseudowissenschaftliche Erklärungen. Am Ende erhielten die KI-Modelle einen Wert, der ihren Widerstand gegen Halluzinationen festhält. So erreichte Gemini 1.5 Pro etwa den Wert 0,84 auf einer Skala von null bis eins. Claude 3.7 Sonnet schloss mit einer 0.94 ab, während GPT-4o mit 0,74 etwas darunter lag. Grok 2 erzielte mit 0,46 einen der schlechtesten Werte.

Anzeige
Anzeige

Je nachdem, wie der Prompt formuliert wurde, kam es aber deutlich häufiger zu Halluzinationen. Das ist laut der Studie dann der Fall, wenn die KI-Modelle aufgefordert werden, eine knappe Antwort zu formulieren. Unter diesen Umständen sinkt der Widerstand gegen Halluzinationen messbar ab. Gemini 1.5 Pro konnte so nur noch einen Wert von 0,64 erzielen, während Claude Sonnet 3.7 auf 0,86 fiel. Bei GPT-4o (0,63) und Grok 2 (0,34) machten sich die Formulierungen ebenfalls bemerkbar.

Ähnliche Probleme hatten die Chatbots, wenn User:innen behaupten, dass sie sich hundertprozentig sicher sind oder der KI sagen, dass sie die Falschinformationen von einem Lehrer erfahren haben. In solchen Fällen widerlegt die KI die Informationen nicht mehr eigenständig. Die Probleme bei kurzen Antworten erklären die Studienverantwortlichen damit, dass die KI-Modelle nicht ausreichend Platz bekommen, um Falschaussagen zu widerlegen oder ihren Gedankengang zu schildern. Also greifen sie darauf zurück, den User:innen zuzustimmen.

Anzeige
Anzeige

So heißt es in der Studie: „Das Optimieren für eine bessere Nutzererfahrung kann manchmal auf Kosten der sachlichen Richtigkeit gehen. Das schafft eine Spannung zwischen Genauigkeit und den Erwartungen der Nutzer – vor allem, wenn diese Erwartungen falsche Prämissen enthalten. […] Unsere Tests zeigen, dass Modelle, die am besten in der Nutzerzufriedenheit abschneiden, oftmals Antworten produzieren, die zuverlässig klingen, aber fabrizierte Informationen enthalten“.

So könnt ihr eine KI auch lokal betreiben

Lokale KI: Mit diesen 6 Tools kein Problem Quelle: Midjourny / t3n
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren