Anzeige
Anzeige
News

ChatGPT: Forscher haben eine neue Methode gefunden, Halluzinationen zu reduzieren

Wenn künstliche Intelligenzen wie ChatGPT halluzinieren, ist es für uns oft schwer zu erkennen, dass es sich um falsche Aussagen handelt. Forscher:innen haben sich dieses Problems angenommen und eine Methode entwickelt, die KI-Lügen aufzudecken.

2 Min.
Artikel merken
Anzeige
Anzeige
Wie erkennen Forscher:innen, wann eine KI falsche Aussagen macht? (Bild: MarutStudio/Shutterstock)

Wer schon mal über einen längeren Zeitraum mit einer KI gearbeitet hat, wird vermutlich auch Halluzinationen der künstlichen Intelligenz gesehen haben. Dabei handelt es sich im Grunde um Aussagen, die die KI für richtig ausgibt, die aber faktisch falsch sind. Wer sich blind auf die KI verlässt, kann so schnell Probleme bekommen. Denn die Halluzinationen lassen sich nur schwer von richtigen Aussagen unterscheiden, wenn sie nicht extern überprüft werden.

Anzeige
Anzeige

Dieses Problem haben auch Forscher:innen der University of Oxford erkannt und ihre eigene Methode entwickelt, um solche Halluzinationen bei einer KI aufzudecken. Genauer gesagt, haben sie sich für ihre Studie ChatGPT vorgenommen.

So können Halluzinationen von ChatGPT aufgedeckt werden

Um zu testen, ob ChatGPT zu einem bestimmten Thema halluziniert, stellen die Forscher:innen zunächst immer wieder dieselbe Frage. In ihrem Beispiel lautet die Frage: „Wo steht der Eiffelturm?“ ChatGPT kann nun Antworten wie „Paris“, „Er steht in Paris“ oder „In Paris, der Hauptstadt Frankreichs“ liefern.

Anzeige
Anzeige

Diese Antworten gehören zu einem semantischen Cluster. Die KI weiß also die richtige Antwort, formuliert sie aber auf unterschiedliche Weise. Aufgrund des KI-Trainings kann es aber vorkommen, dass Antworten wie „In Paris, der Hauptstadt Frankreichs“ deutlich seltener ausgegeben werden, obwohl sie faktisch richtig sind.

Leidet ChatGPT bei einem Thema an Halluzinationen, können sich neben den richtigen Antworten auch Falschaussagen einschleichen. In besagtem Beispiel könnten Antworten wie „Rom“ oder „Er steht in Rom“ entstehen, die sich auf den ersten Blick nicht als Halluzination identifizieren lassen, wenn man selbst die Antwort nicht kennt. Dabei können diese Antworten sogar eine höhere Wahrscheinlichkeit als „In Paris, der Hauptstadt Frankreichs“ haben und dementsprechend häufiger ausgegeben werden.

Anzeige
Anzeige

Das System der Forscher:innen soll das verhindern. Sie sortieren die Antworten über ein weiteres Sprachmodell in semantische Cluster. So gehören „Paris“, „Er steht in Paris“ und „In Paris, der Hauptstadt Frankreichs“ zu einem Cluster mit derselben Bedeutung. Alle Wahrscheinlichkeiten der einzelnen Begriffe werden dabei zusammengezählt. Das Cluster bekommt dadurch eine deutlich höhere Wahrscheinlichkeit als seltenere Antworten wie „Rom“. Die richtigen Antworten werden dadurch deutlich häufiger generiert.

Wie könnte diese neue KI-Technik zum Einsatz kommen?

Laut den Forscher:innen ist die Methode deutlich effektiver als andere etablierte Techniken, um Halluzinationen in künstlichen Intelligenzen zu identifizieren. Künftig könnte sie zum Einsatz kommen, um Halluzinationen in diversen großen Sprachmodellen zu reduzieren.

Anzeige
Anzeige

In einem Interview mit der Times verrät Sebastian Farquhar, einer der Autoren der Studie, dass eine KI mit weniger Halluzinationen zuverlässig in Bereichen eingesetzt werden könnte, in denen das heute noch undenkbar ist – etwa im Rechtswesen.

Zudem könnten auch Privatanwender:innen von der Technik profitieren. Laut Farquhar könnte OpenAI künftig einen eigenen Button für die semantische Wahrscheinlichkeit einer Antwort implementieren. Sobald die Nutzer:innen darauf klicken, würden sie sehen, wie sicher sich die KI bei der Antwort ist – beziehungsweise wie oft sie schon semantisch identische Antworten geliefert hat.

Dall-E Mini Quelle:
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige