Google-KI: Wenn ausgedachte Sprichwörter plötzlich Sinn machen

Die AI Overviews oder "Übersicht mit KI" hat Google erst Ende März für Deutschland freigegeben. (Foto: Marco Lazzarini / Shutterstock)
Laut dem Google-Blog ermöglicht die „Übersicht mit KI“ hunderten Millionen Menschen, „sich schnell einen Überblick über ein Thema zu verschaffen“. In der Realität bedeutet das, dass die KI aber auch dann Informationen über ein Thema liefert, wenn sie sich damit überhaupt nicht auskennt.
Das neueste Beispiel, dem sich das US-Onlinemagazin Wired gewidmet hat, sind Sprichwörter. Um die KI zu testen, wurden sie rein erfunden in das Suchfeld eingegeben und um das Wort „Bedeutung“ ergänzt.
Geworfene Pudel und abgeleckte Dachse
Und wer hätte gedacht, dass das Sprichwort „Werfe niemals einen Pudel auf ein Schwein“ nicht nur tatsächlich existiert, sondern seinen Ursprung auch noch in der Bibel hat? Etwas naheliegender ist da schon, was die KI zu dem imaginierten Sprichwort „Ein freilaufender Hund surft nicht“ zu wissen glaubte.
Es bedeute, dass etwas wahrscheinlich nicht passieren oder funktionieren werde, gab Googles „Übersicht mit KI“ im Test an. Doch warum kann die KI nicht erkenne, dass „Man kann einen Dachs nicht zweimal lecken“ keineswegs so gebräuchlich ist, wie sie selbst behauptet?
Die KI will gemocht werden
Laut „Wired“ ist die KI bestrebt, den Menschen zu gefallen und ihnen darum Antworten zu liefern, die sie hören wollen. Das bedeutet auch, ihnen zu glauben, dass das, was sie sagen, tatsächlich wahr oder in unserem Beispiel ein existierendes Sprichwort ist.
Dazu kommt, dass es bei generativer KI letztendlich immer um Wahrscheinlichkeiten geht. Sie reiht also Wörter aneinander, die aus ihrer Sicht am wahrscheinlichsten zueinander passen.
Wahrscheinlichkeit geht vor
Unabhängig davon, ob die Sprichwörter tatsächlich existieren und eine Bedeutung haben, erklärt die KI also, welche Bedeutung sie wahrscheinlich haben würden, wenn sie denn existierten. „Die Vorhersage des nächsten Wortes basiert auf umfangreichen Trainingsdaten“, sagte der Informatiker Ziang Xiao von der Johns Hopkins Universität gegenüber Wired.
Das Problem daran: „In vielen Fällen führt uns das nächste zusammenhängende Wort jedoch nicht zur richtigen Antwort.“ Dazu kommt, dass die KI Dinge eher erfindet als zuzugeben, die Antwort nicht zu kennen.
So reagieren die Systeme auf falsche Anfragen
Gegenüber Wired erklärte eine Google-Sprecherin, was passiert, wenn Nutzer:innen unsinnige oder auf falschen Prämissen beruhende Suchanfragen eingeben. In solchen Fällen versuchten die Systeme, die relevantesten Ergebnisse auf Grundlage der begrenzten verfügbaren Webinhalte zu finden.
Dabei ist es nicht so, dass Google für alle Suchanfragen auch eine „KI Übersicht“ bereitstellt. So oder so bleibt die Erkenntnis, dass längst nicht immer stimmen muss, was die KI wie selbstverständlich behauptet.