Das passiert, wenn sich ChatGPT mit einem Chatbot von 1966 unterhält
Auch wenn ChatGPT viel zur Beliebtheit und zur Verbreitung von Chatbots beigetragen hat – das Prinzip ist deutlich älter. Bereits 1966 hat der deutsch-amerikanische Informatiker Joseph Weizenbaum Eliza entwickelt – ein Programm, über das Mensch und Computer in natürlicher Sprache kommunizieren können.
Diese Eliza hat ein:e Retro-Bastler:in mit dem Alias P-Lab jetzt mit dem ungleich mächtigeren „Nachfolger“ ChatGPT zusammengebracht – auf einer Replika eines Apple-1-Computers.
Das Resultat ist recht unterhaltsam: Beide Chatbots sind merkbar darauf ausgerichtet, ihrem Gegenüber – normalerweise ein Mensch – hilfreich zur Seite zu stehen und dessen Wünsche und Befindlichkeiten in den Mittelpunkt zu stellen.
Dementsprechend schnell manövrieren sich beide Chatbots in eine Art Endlosschleife, in der sie sich wechselseitig dafür entschuldigen, dass sie nicht richtig verstehen (!), was der jeweils andere meint.
Im zweiten Teil des Videos unterhält sich Eliza dann mit sich selbst – das Resultat ist erneut eine Endlosschleife, allerdings eine deutlich verwirrendere. Beide Elizas treiben sich – und vermutlich auch die Zuschauer:innen – mit Fragen zu den Beweggründen der jeweils anderen beinahe in den Wahnsinn. Ganz wie im echten Leben also, wenn man sich zum Beispiel mit einem Kundenservice-Bot herumschlagen muss.
Wie funktionieren Eliza und ChatGPT?
Tatsächlich sind die grundlegenden Prinzipien, nach denen Eliza und ChatGPT funktionieren, einander gar nicht so unähnlich.
Eliza basiert auf einem Thesaurus, einem Synonymwörterbuch. Gibt ein:e Nutzer:in einen Satz oder eine Frage ein, sucht das Programm nach ihm bekannten Wörtern – und gleicht sie mit dem Thesaurus ab. In der Antwort verwendet Eliza dann Synonyme oder Oberbegriffe. Wikipedia führt als Beispiel eine Unterhaltung an, in der ein:e Nutzer:in schreibt, ein Problem mit dem Vater zu haben. Getriggert durch das Wort „Vater“, reagiert Eliza mit: „Erzählen Sie mir mehr über Ihre Familie.“
An Grenzen stößt diese Methode jedoch, wenn Wörter in einem anderen Kontext oder beispielsweise in Metaphern verwendet werden. Auf die Eingabe „Krieg ist der Vater aller Dinge“ reagiert Eliza ebenfalls mit „Erzählen Sie mir mehr über Ihre Familie“ – was denkbar wenig Sinn ergibt.
Auch ChatGPT reiht Wörter unter Berücksichtigung ihres Kontextes und ihrer Bedeutung aneinander – allerdings unterstützt von maschinellem Lernen und den Sprachmodellen GPT‑3 und GPT‑4 – und mit deutlich mehr Weltwissen im Hintergrund. Nutzer:inneneingaben analysiert ChatGPT ebenfalls auf alle relevanten Informationen und Schlagwörter hin und generiert dann eine möglichst passende Antwort.
Doch auch das funktioniert nicht immer: Ein großes Manko der KI-Sprachmodelle ist, dass sie oft „halluzinieren“ und Fakten – beispielsweise Quellenangaben, Buchtitel oder Personen – erfinden. Nutzer:innen sollten ChatGPT und Co. deshalb auf keinen Fall als Suchmaschine oder zur Beantwortung von Fragen nutzen.
…Ein:e Bastler:in hat sich dieser Frage gewidmet – und wurde Zeug:in, wie sich zwei Bots gegenseitig verwirren…
Wer war das jetzt? Es liest sich wirklich schrecklich. Ich fand t3n mal wirklich klasse. Wenn ich allerdings über solche Verunstaltung der Sprache stolpere, habt ihr euch disqualifiziert und ich keine Lust mehr weiter zu lesen.
an der Stelle musste ich auch innerlich kotzen…
Mir ist auch übel
Ein:e Bastler:in <- ernsthaft, ihr habt sie doch nicht mehr alle, und tschüss
-und die die männliche Version von Zeugin ist jetzt „Zeug“ oder was ?
und wo sind die Protokolle und Videos dieser Unterhaltungen bzw. Debatten?
und tschüss