Weniger Halluzinationen: Wie Microsoft ein großes Problem von KI-Chatbots lösen will
Microsoft hat ein neues Tool namens Correction vorgestellt, das im Rahmen der Azure AI Plattform verfügbar ist. Es soll Fehlinformationen, also Halluzinationen, in KI-Antworten automatisch erkennen und korrigieren.
Solche falschen Antworten können KI-Chatbots schon auf sehr einfache Fragen geben. Zum Beispiel, wenn jemand auf einer Webseite zur Abfallentsorgung den Bot fragt, wann der Müll das nächste Mal abgeholt wird und dieser ein Datum in der fernen Zukunft ausspuckt.
Solche Fehler können das Vertrauen der Nutzer stark beeinträchtigen und in anderen Situationen möglicherweise schwerere Konsequenzen haben.
So funktioniert Correction
Correction soll solche KI-Antworten prüfen, bevor sie verschickt werden und möglicherweise falsche Antworten erkennen. Diese vergleicht das Tool dann mit den „Grounding”-Dokumenten, also denen, die vom Unternehmen zur Verfügung gestellt wurden.
Anschließend erklärt das Tool dem Entwickler, warum diese Inhalte als falsch markiert wurden und korrigiert sie anhand der Quellen. Soll die Anzahl der fehlerhaften Antworten deutlich reduziert werden.
Experten warnen, dass solche Tools nur bedingt helfen
Wie effektiv das Tool wirklich ist, ist momentan allerdings noch unklar. Experten warnen, dass Correction und ähnliche Lösungen nur bedingt bei Halluzinationen helfen können.
Os Keyes, Doktorand an der University of Washington, der die ethischen Auswirkungen neuer Technologien untersucht, meint gegenüber Tech Crunch, dass Halluzinationen ein Kernbestandteil der Funktionsweise von KI-Modellen sind.
KI-Chatbots besitzen kein tatsächliches Wissen, stattdessen basieren sie auf Wahrscheinlichkeiten und Vorhersagen. „Das Tool könnte einige Probleme reduzieren, aber auch neue schaffen“, sagt er weiter.
Eines der Hauptprobleme sei, dass Nutzer den KI-Outputs möglicherweise mehr Vertrauen schenken, obwohl diese weiterhin fehleranfällig sind. Ein Sprecher von Microsoft betont gegenüber Tech Crunch, dass solche Grounding-Technologien die Genauigkeit der KI-Antworten verbessern, sie aber trotzdem keine Garantie für absolute Genauigkeit bieten.