Anzeige
Anzeige
News

Bevor Halluzinationen entstehen: So könnten KI-Modelle künftig ihre Fehler frühzeitig einsehen

Forscher:innen haben in Experimenten versucht, die Ursache von KI-Halluzinationen genauer zu identifizieren. Dabei sind sie auf die Erkenntnis gestoßen, dass einige Modelle sogar ihre eigenen Fehler aufdecken könnten.

2 Min.
Artikel merken
Anzeige
Anzeige

Forscher:innen haben herausgefunden, dass LLMs ihre eigenen Fehler erkennen können. (Bild: MarutStudio/Shutterstock)

Wenn eine KI eine falsche Antwort gibt oder Informationen von sich gibt, die sie sich selbst „ausgedacht“ hat, spricht man von Halluzinationen. Diese sind auch bei großen Modellen wie GPT, Mistral oder Llama immer noch ein großes Problem. Ein Problem, das Forscher:innen von Technion, Google Research und Apple lösen wollten.

Anzeige
Anzeige

Kann eine KI andere KI-Fehler erkennen?

In einer Studie haben die Forscher:innen sich genauer angeschaut, wie Halluzinationen in einem LLM entstehen. Dafür haben sie zunächst Mistral 7B und LLama 2 in zehn verschiedenen Datensets über mehrere Gebiete hinweg Aufgaben erledigen lassen. Dazu zählten etwa mathematische Probleme und das Beantworten von Fragen.

Sie haben dabei festgestellt, dass die Wahrheit der Antwort meist in von ihnen benannten „Exact Answer Tokens“ steckt. Also Tokens, die die gesamte Aussage zu einer Halluzination machen würden, wenn sie nicht korrekt wären. Dementsprechend haben die Forscher:innen nach Wegen gesucht, die Chance auf „Exact Answer Tokens“ zu erhöhen. Denn diese werden nur ausgegeben, wenn die KI sie als wahrscheinlichsten Token für die Antwort erachtet.

Anzeige
Anzeige

Ihr Lösungsansatz sind sogenannte „Probing Classifiers“, also KI-Modelle, die den Token-Output von LLMs analysieren können. Diese KI-Modelle können anhand der korrekten Token trainiert werden und erkennen anschließend, anhand welcher Faktoren ein großes Sprachmodell die Token intern auswählt und ausgibt. Anhand dieser Daten kann der Classifier schon vorab einschätzen, ob die Antwort korrekt ausfällt oder ob die KI einen falschen Weg zur Antwort genommen hat.

Anzeige
Anzeige

Zudem haben die Forscher:innen festgestellt, dass die Probing Classifiers in der Lage sind, die Art des Fehlers vorab zu erkennen. Diese Erkenntnisse wären für KI-Entwickler:innen Gold wert. Sie könnten ihr Programm anhand der Daten noch besser gegen Halluzinationen wappnen. Das soll sich laut den Forscher:innen vor allem in den Fällen lohnen, in denen die KI zwar den korrekten Weg zur Antwort nimmt, aber dann trotzdem am Ende eine falsche Antwort generiert.

Allerdings gibt es noch Probleme bei der Methode der Forscher:innen. Da die Probing Classifiers auf die interne Struktur einer KI zugreifen und diese analysieren müssen, funktioniert das bislang nur bei Open-Source-Modellen. Dennoch sind sich die Forscher:innen sicher, dass ihre Erkenntnisse dabei helfen können, Halluzinationen künftig besser zu verstehen und zu verringern.

Mit diesen Tools könnt ihr lokal eine KI betreiben

Lokale KI: Mit diesen 6 Tools kein Problem Quelle: Midjourny / t3n
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige