Anzeige
Anzeige
MIT Technology Review Kommentar

KI-Suchmaschine: SearchGPT ist auch nur ein Bluff

Nach Microsoft und Google hat auch OpenAI eine KI-Suchmaschine veröffentlicht. Die Erwartungen sind riesig, aber wesentliche technische Probleme sind nicht gelöst. Das Silicon Valley hat nichts auf der Hand.

Von Wolfgang Stieler
4 Min.
Artikel merken
Anzeige
Anzeige
OpenAI hat Probleme, an frische Datensätze zu Trainingszwecken zu gelangen. (Foto: TY Lim / Shutterstock)

So geht Hype: Seit Monaten sickern immer mal wieder Andeutungen durch, nach denen OpenAI Google Konkurrenz machen will. Jetzt ist es so weit. Zunächst eine „kleine Gruppe von Nutzern“ kann den Dienst mit dem Namen SearchGPT ausprobieren, der auf Fragen konkrete Antworten statt Links liefern soll.

Anzeige
Anzeige

Wir können das zwar nicht selbst probieren, liefern hier aber schon mal zwei Gründe, warum das vermutlich auch nicht der Durchbruch sein wird.

1. Halluzinationen

Wir sagen normalerweise, dass Sprachmodelle halluzinieren, wenn sie Dinge erzählen, die nicht wahr sind. Aber das ist ein Feature – kein Bug. Sprachmodelle sind dazu gemacht, Lücken in Texten zu füllen. Mit Wörtern, die so aussehen, als ob sie da möglichst gut reinpassen. Anders gesagt: Das Sprachmodell erfasst im Training die statistische Wahrscheinlichkeit, dass bestimmte Wörter zusammen mit bestimmten anderen Wörtern auftreten.

Anzeige
Anzeige

Wenn im Prompt steht: „Die Katze saß“, liefert das Sprachmodell zurück, dass „auf“ das beste nächste Wort ist. Diese neue Sequenz wird in das Modell zurückgespeist, das nun „einer“ liefert. Und so weiter. Und wenn die nächsten wahrscheinlichsten Wörter in einem Text Namen sind, dann schreibt das Sprachmodell da irgendwelche Namen hin. Der SF-Schriftsteller Ted Chiang hat in dem Zusammenhang mal gesagt, ChatGPT wäre eine „verschwommene, unscharfe JPEG-Version des Internets“.

Wenn es in den Trainingsdaten zu einem Thema viele Beispiele gibt, ist die Wahrscheinlichkeit höher, dass das Modell sich an die Trainingsdaten hält. Aber eigentlich soll es das gar nicht. Es soll neue, bisher unbekannte Texte erzeugen. Eigentlich ist der gesamte Output von Sprachmodellen eine einzige Halluzination, aber wir nennen es nur dann so, wenn wir bemerken, dass etwas daran falsch ist.

Anzeige
Anzeige

Es gibt ein paar Ideen, wie man Sprachmodelle dazu bringen kann, weniger zu halluzinieren. Man kann das Problem damit aber nur verkleinern, nicht beseitigen. Selbst wenn man die Wahrscheinlichkeit von Halluzinationen auf ein Prozent drücken könnte – und im Moment sind wir eher bei 10 bis 20 Prozent – wären das bei Milliarden von Suchanfragen immer noch Zig Millionen Halluzinationen.

2. Fact-Checking

Die gesamte Magie der KI-Suche besteht darin, dass das Sprachmodell die Suchergebnisse einer konventionellen Internet-Suche – zum Beispiel von Google – nimmt, und in einem kurzen Text das Wesentliche dieser Dokumente kurz zusammenfasst. Das klappt aber nur, wenn die Suchergebnisse sinnvoll sind.

Anzeige
Anzeige

Die vielzitierte Panne der Search Generative Experience von Google mit dem Leim auf der Pizza war kein technischer Fehler. Die Software hat genau das gemacht, was sie sollte. Das Problem war, dass in den Suchergebnissen relativ weit oben ein ironischer Reddit-Thread auftauchte. In dem ging es um Leim auf Pizzen. Weil das Sprachmodell keinen blassen Schimmer von Ironie und Humor hat, hat es die „Informationen“ in diesem Suchergebnissen einfach genommen, und in seine Antwort eingebaut.

Jetzt könnte man natürlich sagen: Ist doch ganz einfach! Dann berücksichtigen wir in unserer Suche Reddit einfach nicht mehr. Aber die Website enthält auch viele nützliche, wertvolle Informationen. Welche Quellen soll man dem Sprachmodell also weiterreichen und welche nicht? Nur die, die man für verlässlich hält? Aufgrund welcher Kriterien? Oder nur die, für die man Lizenzen bezahlt hat? Die Frage ist nicht geklärt. Jedenfalls nicht grundsätzlich.

Weil ein Sprachmodell den Sinn eines Satzes nicht erfassen kann. Wenn die KI-Suche also prüfen soll, ob Suchergebnisse wahr (und damit brauchbar) sind, könnte sie lediglich in verifizierten Quellen (zum Beispiel der Wikipedia) nach Sätzen suchen, die wichtige Schlüsselwörter und Aussagen aus dem Suchergebnis enthalten. Dann berechnet sie – in der Vektordarstellung – das Produkt der zu prüfenden Aussage und der Fundstelle aus den verifizierten Quellen. Es geht dabei nicht um die Bedeutung einer Aussage, es geht um ein mathematisch definiertes Maß für Ähnlichkeit. Für klare Fakten und überprüfte Quellen ist das halbwegs sinnvoll. Alles andere ist qualifiziertes Raten. Zumal die Quellenlage im Internet durch immer mehr KI-generierte Inhalte nicht besser wird.

Anzeige
Anzeige

Fazit

Wäre das ein Pokerspiel, bei dem ich mit am Kartentisch sitzen dürfte, würde ich laut sagen: „Ich will sehen“! Denn ich bin mir ziemlich sicher, dass weder Google, noch Meta oder OpenAI wirklich etwas auf der Hand haben. Die zwei wesentlichen Probleme der KI-Suche, Halluzination und Fact-Checking sind nicht gelöst und zumindest in der veröffentlichten Literatur zeichnet sich auch kein Durchbruch ab.

Kann natürlich immer sein, dass irgendjemand in den Entwicklungsabteilungen dieser Firmen eine geniale Idee hat. Viel wahrscheinlicher aber ist, dass auch die KI-Giganten des 21. Jahrhunderts auf das gute alte Konzept der Vapourware zurückgreifen. Schließlich hat schon Bill Gates Windows angekündigt, als er und seine Leute nicht die geringste Idee hatten, wie das funktionieren soll – geschweige denn laufenden Code. Aber das Produkt ist ja irgendwann doch auf den Markt gekommen. Hat nur acht Jahre länger gedauert, als versprochen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Alexander Ortweiler

Es geht dabei auch nicht nur um die Technik. Warum erwarten wir immer das Suchergebnisse und Trainingsdaten perfekt sind bzw. die (subjektive) Wahrheit (eines anderen Menschen). Dazu müsste neutrales Faktchecking das Ranking der Suchmaschinen und die Trainingsdaten bestimmten.

Übrigens machen auch Menschen ständig Fehler weil sie es nicht besser wissen und verhalten sich wie Papageien ;)

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige