Anzeige
Anzeige
News

Überraschende Studie: KI weiß oft die richtige Antwort – auch wenn sie falsch antwortet

Forscher:innen haben herausgefunden, dass KI-Systeme oft die richtige Antwort „wissen“, auch wenn sie falsch antworten. Die Erkenntnisse könnten neue Ansätze für den Kampf gegen Halluzinationen bringen, werfen aber auch neue Fragen auf.

Von Jörn Brien
2 Min.
Artikel merken
Anzeige
Anzeige

KI-Chatbots das „Lügen“ abtrainieren: Neue Ansätze für den Kampf gegen Halluzinationen. (Foto: luckyraccoon/Shutterstock.com)

Große Sprachmodelle (LLM), auf denen etwa Chatbots wie ChatGPT basieren, sind berüchtigt für ihre Halluzinationen. Darunter werden im KI-Bereich überzeugend formulierte, aber falsche Antworten auf teils einfache Anfragen verstanden.

Anzeige
Anzeige

KI-Halluzinationen bekämpfen

Schon länger versuchen Wissenschaft und Unternehmen, das Halluzinieren der KI-Systeme zu bekämpfen. Microsoft etwa hat erst kürzlich mit Correction ein Tool vorgestellt, das KI-Antworten auf Richtigkeit prüfen soll.

Eine Studie von Forscher:innen der Technion-Universität im israelischen Haifa zufolge, an der auch Apple und Google beteiligt waren, hat jetzt einen genaueren Blick ins Innenleben der LLM geworfen. Und dabei interessante Entdeckungen gemacht, die künftig die Korrektur von KI-Fehlern vereinfachen können.

Anzeige
Anzeige

KI-Systeme wissen mehr als man denkt

Die Haupterkenntnis versteckt sich schon Titel der Studie: „LLMs Know More Than They Show“. Den Forscher:innen zufolge „wüssten“ KI-Systeme oft die richtige Antwort, obwohl sie die Frage falsch beantworteten.

Dieses Phänomen ist wohl damit zu begründen, dass speziell die großen Sprachmodelle darauf trainiert sind, die am wahrscheinlichsten folgenden Wörter zu bilden – und nicht notwendigerweise die für den jeweiligen Fall korrekten.

Anzeige
Anzeige

Suche nach korrekten Antwort-Token

Um das Innenleben der KI-Systeme zu analysieren, haben die Forscher:innen eine neue Methode entwickelt, wie The Decoder berichtet. Dabei setzen sie auf sogenannte korrekte Antwort-Tokens. Ein solcher Token wäre etwa das Wort „Paris“ in einer längeren Antwort auf die Frage nach der Hauptstadt Frankreichs.

In diesen Token, so die Forscher:innen stecken die meisten Informationen darüber, ob eine Antwort korrekt oder falsch ist. Schnell stellte sich heraus, dass die KI-Systeme oft die korrekte Antwort parat hätten, aber trotzdem eine falsche Antwort gaben. Sie verfügen also über mehr Informationen als sie preisgeben, so die Studie.

Anzeige
Anzeige

Neue Ansätze für Fehlerkorrekturen

Zudem zeigte sich, dass die KI die Erkennung der Fehler besonders gut darstellen konnte, wenn die Aufgabentypen ähnlich war. Für die Forscher:innen ein Zeichen, dass die KI beim Umgang mit bestimmten Informationsarten spezielle Fähigkeiten entwickelt. Diese Erkenntnisse könnten dazu führen, neue Ansätze für die Verbesserung der Zuverlässigkeit und Genauigkeit von KI-Systemen finden.

Für kritische Beobachter:innen werfen die durchaus überraschenden Studienergebnisse aber ganz grundsätzliche Fragen auf, etwa zu den Entscheidungsprozessen innerhalb der LLMs. Sind die KI-Ergebnisse von anderen Faktoren als der bloßen Vorhersage des wahrscheinlichsten Token beeinflusst, fragt etwa Silverwave-Gründer Pete Weishaupt.

Zweifel an Grund für Halluzinationen

Bisher, so Weishaupt, sei man davon ausgegangen, dass die Halluzinationen darauf zurückzuführen seien, dass die KI-Systeme nicht ausreichend trainiert worden oder nicht fähig seien, Wissen zu verallgemeinern.

Anzeige
Anzeige
Googles neue KI-Suche geht nach hinten los Quelle: (Bild: Koshiro K/Shutterstock)

Die Forschungsergebnisse würden jetzt auf ein viel differenzierteres Bild hinweisen, „bei dem LLMs möglicherweise bewusste Entscheidungen über die von ihnen präsentierten Informationen treffen“. Selbst dann, wenn dies Ungenauigkeiten oder Fehler bedeuten würde.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige