Wissenschaftler lassen KI inneren Monolog führen – mit erstaunlichem Effekt

Forscher:innen der Universität Stanford und einer Gruppe namens Notbad AI haben eine Studie vorgelegt, die in Hinblick auf die Zukunft von KI-Modellen vielversprechend ist. Demnach haben sie es geschafft, die KI deutlich schlauer zu machen.
Dafür forderten sie das KI-Modell dazu auf, zuerst einen inneren Monolog zu halten, bevor es auf bestimmte Fragen antwortete. Das Sprachmodell hielt also inne, um zu „denken“, wie die Wissenschaftler:innen es formulierten, und spielte verschiedene Antwortmöglichkeiten und Argumentationsstränge durch, die die Forscher:innen dann hinsichtlich ihrer Richtigkeit bewerten sollten.
Die Vorgehensweise der KI orientiert sich am menschlichen Denken
Dass die KI erst am Ende dieses Prozesses die bestmögliche Antwort ausspuckte, vergleichen die Expert:innen mit dem menschlichen Denkprozess. Denn im Idealfall denken auch wir erst einmal nach und prüfen gedanklich verschiedene Eventualitäten, bevor wir auf schwierige Fragen antworten.
Verwendet wurde dabei das Large Language Model (LLM) Mistral 7B, das mit sieben Millionen Parametern trainiert wurde und angeblich eine höhere Leistung als das neueste Llama-Modell von Meta erbringen soll. Trainiert mit dem Algorithmus des sogenannten Quiet Self-Taught Reasoners oder kurz Quiet-Star, wie die Wissenschaftler:innen ihn nennen, zeigte das KI-Sprachmodell deutlich bessere Leistungen.
Insgesamt waren die Ergebnisse nicht überragend, wurden aber deutlich besser
Ausgehend von anfangs 36,3 Prozent, schaffte die KI nach der Implementierung von Quiet-Star ein Ergebnis von 47,2 Prozent genauer Antworten. In einem Mathematiktest konnte die Leistung fast verdoppelt werden.
Trotz des insgesamt noch sehr ausbaufähigen Ergebnisses von 10,9 Prozent im Vergleich zu anfänglichen 5,9 Prozent im Mathematiktest werten die Wissenschaftler:innen das als großen Erfolg. Denn bisher ist keines der gängigen KI-Sprachmodelle in der Lage, Fragen zu kontextualisieren und Vorgänge nachzuahmen, wie sie sonst nur im menschlichen Gehirn stattfinden.
Dass derart trainierte KI-Modelle kritisch denken können und quasi von sich selbst lernen, könnte laut dem Onlinemagazin Futurism große Auswirkungen auf die Einsatzmöglichkeiten von KI in vielen Bereichen wie Datenanalyse oder Chatbots im Kund:innenservice haben.