Intelligenztest: Wie viel Geist steckt in ChatGPT und Co.?

Wenn das Alan Turing noch erlebt hätte. In seinem Essay „Computing Machinery and Intelligence“ parierte der Informatik-Pionier bereits 1950 zahlreiche Einwände gegen die Vorstellung, dass Computer jemals denken könnten. Er war fest davon überzeugt, dass es keine prinzipiellen Argumente gibt, die gegen „denkende“ und „intelligente“ Maschinen sprechen.

Dieser Artikel wurde erstmals veröffentlicht in der Ausgabe 4/2023 von MIT Technology Review. Unter der Überschrift „Der Geist in der Maschine“ ist er Teil des Titelthemas „Alles wird KI“.
Damals war die Zahl der weltweit verfügbaren Computer erst an zwei Händen abzählbar – und die meisten wurden vom Militär betrieben. Erst 1951 brachten der Ingenieur John Presper Eckert und der Physiker John W. Mauchly mit dem Univac I in den USA den ersten kommerziell verfügbaren universellen Computer auf den Markt – ein technisches Wunderwerk mit 5.200 Röhren, 18.000 Kristall-Dioden und einem Arbeitsspeicher aus Quecksilber. Die Maschine benötigte 35 Quadratmeter Stellfläche und wog 13 Tonnen. Sie konnte damals schwindelerregende 1.905 Rechenoperationen pro Sekunde durchführen – ein moderner Mehrkern-Prozessor in einem heutigen Laptop kommt inzwischen auf einige hundert Milliarden Rechenoperationen pro Sekunde.
73 Jahre später berichten Microsoft-Mitarbeiter von Experimenten mit einer frühen Version des großen Sprachmodells GPT-4, das sich wie eine denkende Maschine verhält. Experimente, deren Ergebnisse „Funken allgemeiner Intelligenz“ zeigen sollen.
In dem vorab auf der Preprint-Plattform Arxiv veröffentlichten Aufsatz listen Sébastien Bubeck, Leiter der Arbeitsgruppe Machine Learning Foundations bei Microsoft Research, und seine Kolleg:innen zahlreiche erstaunliche Beispiele dafür auf: So ist das Sprachmodell nicht nur in der Lage, mathematische Beweise zu erstellen – und das in Form eines Theaterstücks im Stil Shakespeares („Consider this, my doubtful peer, A clever proof that will make clear: Assume that there’s a final prime, The largest one we’ll see in time …“). Es kann in fiktiven Situationen auch die Gefühle der handelnden Personen deuten, Logikrätsel lösen und dabei den Lösungsweg erklären oder in einem nur durch verschiedene Texte beschriebenen Labyrinth neue Wege finden.
Gespaltene Forschungscommunity
Skeptische Wissenschaftler:innen betonen, dass große Sprachmodelle nur Statistikautomaten sind. Doch warum, sagen andere, werden die Modelle dann immer besser, je größer sie werden? Warum können sie dann diese erstaunlichen Fähigkeiten entwickeln, ohne dass sie darauf trainiert worden sind? Könnte es nicht doch sein, dass in der undurchdringlichen Black Box der riesigen Modelle mehr steckt als nur Statistik? Und wenn ja, wie findet man das heraus?