Psychologe im KI-Labor: Was passiert, wenn man ChatGPT mit Unsinn füttert?

Ein Psycholinguist hat genau das getan und die Ergebnisse liefern wertvolle Einblicke. Michael Vitevitch von der University of Kansas im US-amerikanischen Lawrence hat ChatGPT systematisch mit sogenanntem Nonsens gefüttert: bedeutungslose Wörter, wie sie die Psychologie seit Langem zur Erforschung des menschlichen Gehirns nutzt.
Seine in der Fachzeitschrift PLOS One veröffentlichte Studie zeigt: Auf den ersten Blick agiert das Sprachmodell erstaunlich menschenähnlich. In der Tiefe offenbaren sich jedoch fundamentale Unterschiede.
Menschliche Fassade, maschineller Kern
In einem der Experimente konfrontierte Vitevitch die KI mit englischen Wörtern, die seit Jahrhunderten ausgestorben sind. Für einen Menschen wären sie nicht von sinnlosen Buchstabenfolgen zu unterscheiden. ChatGPT konnte jedoch für fast 70 Prozent dieser Wörter die korrekte historische Definition liefern – eine Gedächtnisleistung, die die Grenzen des menschlichen kollektiven Gedächtnisses weit übersteigt.
In einem anderen Test sollte die KI neue Wörter für Konzepte erfinden, für die es keine Bezeichnung gibt. Für das Gefühl der Wut, wenn man geweckt wird, schlug sie „rousrage“ vor – ein sogenanntes Kofferwort aus den englischen Begriffen „rouse“ (wecken) und „rage“ (Wut). Dieses Vorgehen ähnelt menschlicher Kreativität bei Wortschöpfungen.
Doch die Experimente enthüllten auch ein zutiefst unmenschliches Verhalten. Als ChatGPT ein spanisches Wort erhielt und ein ähnlich klingendes Wort nennen sollte, antwortete es auf Spanisch. Erst die explizite Aufforderung, ein englisches Wort zu finden, führte zum Ziel.
Einem menschlichen Gesprächspartner wäre aus dem Kontext klar, in welcher Sprache die Konversation stattfindet. Der KI fehlt dieses implizite, ungeschriebene Regelverständnis menschlicher Interaktion.
Komplementär statt Konkurrenz
Genau hier liegt laut Vitevitch der entscheidende Punkt. Die KI verarbeitet Sprache nicht wie ein Mensch, sondern basiert auf statistischer Mustererkennung in ihren riesigen Trainingsdaten. „Wir tun die Dinge ganz anders als die KI“, zitiert ihn das Magazin Techxplore.
Das sei jedoch keine Schwäche, sondern eine Chance. Die Zukunft von KI liege nicht darin, menschliche Fähigkeiten perfekt zu duplizieren. Vielmehr sollte sie dort ansetzen, wo wir an unsere kognitiven Grenzen stoßen.
Vitevitch sieht KI als potenzielles „kognitives Sicherheitsnetz“. Sie kann unser fehlerhaftes Gedächtnis ergänzen oder uns helfen, Muster zu erkennen, die wir übersehen.
Die Kehrseite dieser andersartigen Funktionsweise sind die bekannten KI-Halluzinationen. In der Studie definierte ChatGPT nicht nur einige Wörter falsch, sondern erfand teils komplett neue Bedeutungen. Diese Tendenz, überzeugend klingende, aber faktisch falsche Informationen zu generieren, bleibt eine der größten Herausforderungen beim praktischen Einsatz der Technologie.
Die Studie unterstreicht: KI ist kein menschliches Pendant, sondern ein Werkzeug mit eigenem „Denkstil“ – potenziell revolutionär, wenn wir ihre Andersartigkeit nutzen, statt sie zu bekämpfen.