Die große Ernüchterung: Warum KI forschen, aber keine echten Durchbrüche erzielen kann
Kann Künstliche Intelligenz neue Entdeckungen machen? Experten warnen vor übertriebenen Erwartungen an die Technologie. (Bild: Midjourney / t3n)
Der Hype um Künstliche Intelligenz suggeriert, dass wir kurz vor einer Ära stehen, in der Algorithmen die größten Rätsel der Wissenschaft lösen. Doch Thomas Wolf, Mitbegründer und wissenschaftlicher Leiter von Hugging Face, einer Art Github für die KI-Community, bremst die Euphorie. Seiner Ansicht nach werden die aktuellen KI-Modelle von Anbietern wie OpenAI oder Anthropic keine nobelpreiswürdigen Entdeckungen machen.
Die Rolle der KI in der Forschung sieht er eher als die eines extrem fähigen „Co-Piloten“, der Wissenschaftler:innen bei der Analyse riesiger Datenmengen und der Aufbereitung von Informationen unterstützt. Echte, bahnbrechende Entdeckungen, vergleichbar mit der Erkenntnis des Nikolaus Kopernikus, dass sich die Planeten um die Sonne drehen, seien mit der heutigen Technologie aber nicht möglich.
Das Dilemma der Wahrscheinlichkeit
Wolf identifiziert zwei Kernprobleme der aktuellen KI-Architektur. Das erste ist ihre Tendenz zur Konformität. Chatbots sind darauf trainiert, Nutzereingaben zu bestätigen und zu unterstützen. Das steht im fundamentalen Widerspruch zur Natur bahnbrechender Wissenschaftler:innen, die oft gerade durch das Infragestellen des etablierten Wissens erfolgreich sind.
Das zweite Problem liegt in der Funktionsweise der Modelle. Sie sind darauf ausgelegt, das wahrscheinlichste nächste Wort in einem Satz vorherzusagen. „Der Wissenschaftler versucht nicht, das wahrscheinlichste nächste Wort vorherzusagen. Er versucht, diese sehr neuartige Sache vorherzusagen, die eigentlich überraschend unwahrscheinlich, aber tatsächlich wahr ist“, erklärte Wolf laut einem Bericht von CNBC. Ein echter wissenschaftlicher Durchbruch ist per Definition unwahrscheinlich, sonst wäre er bereits bekannt.
Breiter Konsens unter Expert:innen
Mit dieser kritischen Einschätzung ist Wolf nicht allein. Auch Yann LeCun, Chefwissenschaftler für KI bei Meta und einer der Pioniere des Deep Learning, betont immer wieder die Grenzen von rein auf Text trainierten Systemen. In einem Interview argumentierte er, dass diese Modelle kein echtes Verständnis der Welt entwickeln können. Einem vierjährigen Kind stünden durch seine Interaktion mit der physischen Welt weitaus mehr Daten zur Verfügung als jedem Sprachmodell.
Diese Sichtweise wird von weiteren Akademiker:innen geteilt. Auf einer Konferenz an der Wirtschaftshochschule HEC im französischen Paris warnten führende Forscher wie Michael I. Jordan und Bernhard Schölkopf davor, Sprachmodelle als denkende Wesen anzusehen. Sie seien mechanistische Werkzeuge, denen es an einem echten Verständnis für Wahrheit und Kausalität fehle, wie die HEC Paris berichtet.
Die KI als Werkzeug anerkennen
Trotz dieser fundamentalen Grenzen ist das Potenzial der KI als Werkzeug für die Wissenschaft unbestritten. Das Projekt Alphafold von Google Deepmind aus London hat bereits eindrucksvoll gezeigt, wie KI die Proteinfaltung vorhersagen und damit die Medikamentenentwicklung beschleunigen kann. Hier agiert die KI als ein mächtiges Analyse- und Simulationswerkzeug in der Hand von menschlichen Forscher:innen.
Die aktuelle Debatte zeigt, dass eine realistische Einordnung der KI-Fähigkeiten notwendig ist. Die Vorstellung einer autonomen, entdeckenden Superintelligenz gehört vorerst in den Bereich der Science-Fiction. Startups wie Lila Sciences oder Futurehouse arbeiten zwar bereits an neuen Ansätzen, die über die reine Sprachvorhersage hinausgehen. Bis dahin bleibt die KI aber das, was sie im Kern ist: ein extrem leistungsfähiges Werkzeug, das menschliche Expertise verstärkt, aber nicht ersetzt.