KI mit Superintelligenz in fünf Jahren? “Eher nicht”, meint DFKI-Chef – und erklärt warum
Zum 20-jährigen Jubiläum von t3n (hier geht es zu unserem Jubiläums-Hub) haben wir Expert:innen gefragt, welche Trends und Technologien die Zukunft prägen werden. Einer von ihnen ist Antonio Krüger. Er ist Informatikprofessor und Geschäftsführer des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI).
t3n: Künstliche Intelligenz übernimmt immer komplexere Aufgaben. Wann wird sie in der Lage sein, sich selbst zu erforschen und weiterzuentwickeln?
Antonio Krüger: Es gibt unterschiedliche Lager: Manche erwarten Superintelligenz in fünf, andere in 50 Jahren. Ich rechne eher mit einem längeren Zeithorizont, weil dafür noch viele wissenschaftliche Durchbrüche nötig sind. Diese entstehen aktuell nur indirekt: indem Menschen KI als Werkzeug nutzen. Dass KI sich bald selbst erforschen kann, glaube ich eher nicht.
Was lernen wir gerade durch die Forschung an KI-Lösungen über den Menschen, wie er funktioniert und denkt?
Die Kognitionswissenschaft hat schon immer versucht, menschliche Intelligenz durch Modelle abzubilden; KI kann uns hier einen großen Schritt nach vorne bringen. Es gibt etwa spannende Forschungsinitiativen, die Gehirnaktivitäten per MRT erfassen und mit den Aktivitätsmustern künstlicher neuronaler Netze vergleichen. Auf diese Weise gewinnen wir neue Erkenntnisse über das menschliche Gehirn – wie es Sprache verarbeitet, Aufmerksamkeit steuert oder kognitive Prozesse organisiert.
Dieser Text ist in der Ausgabe t3n 81 erschienen – ein Heft über die Technologien und Trends der nächsten 20 Jahre. Ab sofort könnt ihr es hier bestellen.
Wie wirkt sich KI in Zukunft auf den Wissenschaftsbetrieb an sich aus?
KI wird den Wissenschaftsbetrieb massiv verändern – vermutlich sogar schneller als viele andere Bereiche der Arbeitswelt. In der Forschung gibt es unzählige repetitive Aufgaben, die sich durch leistungsfähige KI-Tools beschleunigen lassen.
Am DFKI arbeiten wir zum Beispiel mit der Firma Sartorius zusammen, die Labore mit Bioreaktoren ausstattet. Darin werden Zellkulturen für Wirkstofftests gezüchtet. Früher mussten hochqualifizierte Fachkräfte die Ergebnisse auswerten – heute übernehmen KI-gestützte Systeme diese Analyse automatisch. Die Modelle lernen kontinuierlich aus den dabei entstehenden Daten und verbessern dadurch auch die zugrunde liegenden Simulationen. Das macht die pharmakologische Forschung zielgerichteter, effizienter und kostengünstiger. Dadurch wird es zunehmend wirtschaftlich attraktiv, auch Medikamente für seltene Krankheiten zu entwickeln.
Wie wichtig ist dafür die Entwicklung von spezialisierten KI-Modellen, die gezielt für eine bestimmte Aufgabe oder ein eng abgegrenztes Fachgebiet trainiert werden?
Das ist schon sehr wichtig. Große Modelle werden mit riesigen Datenmengen trainiert, die aber oft nur durchschnittliche Qualität haben – da muss man gewisse Abstriche machen. Spezialisierte Modelle hingegen arbeiten mit hochqualitativen, domänenspezifischen Daten und benötigen dadurch auch weniger davon.
Der Trend geht dahin, beide Ansätze zu kombinieren: also allgemeine Modelle mit spezialisierten Modulen oder Agenten zu verknüpfen. Gerade agentenbasierte Systeme sind zurzeit sehr gefragt. Ich halte sie kurz- und mittelfristig für den vielversprechendsten Weg, um technologische und wissenschaftliche Fortschritte zu erzielen.
Die Welt der Zukunft wird auch eine Vielzahl globaler Krisen mit sich bringen. Wie kann die KI-Forschung dazu beitragen, diese zu meistern?
KI-Systeme spielen schon jetzt eine wichtige Rolle, etwa bei der Verbesserung von Vorhersagen. Klimamodelle haben heute eine viel bessere Datengrundlage und können Szenarien durchspielen, die uns zeigen, welche Handlungsoptionen wir als Menschheit haben. Wenn es uns gelingt, den Zugang zu KI zu demokratisieren – und das ist eine klare Verantwortung –, dann können große Teile der Weltbevölkerung davon profitieren. Besonders in Regionen mit junger Bevölkerung sehe ich enormes Potenzial.
„Wenn wir den Zugang zu KI demokratisieren, können große Teile der Weltbevölkerung davon profitieren.“
Inwiefern?
Die Fähigkeit, neue Technologien zu erlernen und anzuwenden, hängt mit der Flexibilität des jungen Gehirns zusammen. Wenn wir beispielsweise auf dem afrikanischen Kontinent den Zugang zu KI ermöglichen und dort Bildung und Infrastruktur fördern, kann das enorme Innovationskraft freisetzen. Das trägt nicht nur zur wirtschaftlichen Entwicklung bei, sondern kann langfristig auch helfen, globale Ungleichheiten zu verringern, Konflikte zu entschärfen und Migrationsdruck zu reduzieren.
Sollte künstliche Intelligenz stärker von der öffentlichen Hand entwickelt werden – und nicht nur von großen Unternehmen?
Ich glaube, das Wichtigste ist Vielfalt. Unternehmen haben ihre eigenen Interessen und stehen oft unter Druck, zum Beispiel durch Investoren. Es wäre gefährlich, wenn nur ein paar große Firmen bestimmen würden, wie KI aussieht und funktioniert. Das gilt für Europa genauso wie für Afrika, wo Menschen in anderen kulturellen Zusammenhängen leben. Wir brauchen unterschiedliche Perspektiven, um globale Herausforderungen zu bewältigen – und diese Vielfalt sollte sich auch in den KI-Systemen selbst widerspiegeln.
Warum ist das so wichtig?
Weil es hilft, Vorurteile in KI-Systemen zu vermeiden. Wie bei uns Menschen ist es auch bei KI wichtig, Dinge aus verschiedenen Blickwinkeln zu sehen. Wenn alle KI-Modelle auf denselben Daten und Sichtweisen beruhen, bekommen wir am Ende ein sehr einseitiges Bild. Und das ist problematisch – vor allem, wenn diese Systeme überall zum Einsatz kommen. Mehr Vielfalt bei Daten, Entwicklungsteams und kulturellen Hintergründen sorgt für fairere und ausgewogenere Ergebnisse.
Wenn wir in die nahe Zukunft blicken: Welcher KI-Bereich wird aus Ihrer Sicht besonders relevant?
Aus europäischer Sicht ist das vertrauenswürdige KI. Wenn der AI Act innovationsfreundlich umgesetzt wird und wir in Europa Systeme und Infrastrukturen anbieten können, denen man vertrauen kann, wäre das ein riesiger Vorteil – wirtschaftlich und gesellschaftlich.
Ein zweiter Bereich ist die Anwendung von KI in der realen, physischen Welt: in der Produktion, in der Robotik und in der Mensch-Maschine-Interaktion.
Und drittens sehe ich großes Potenzial in sogenannter Social Beneficial AI – also KI, die zur Lösung großer gesellschaftlicher Herausforderungen eingesetzt wird. Das ist ein Feld, in dem wir in Europa viel bewirken und sogar eine Vorreiterrolle einnehmen könnten.
Welche Entwicklungen in den nächsten Jahren für neue Quantensprünge in der KI sorgen werden, ist schwer zu bestimmen. Vielversprechend finde ich aber neuroexplizite Ansätze, die die Stärken neuronaler Netze mit anderen expliziten Modellierungsverfahren kombinieren. Ein Beispiel hierfür sind moderne Wettervorhersagemodelle, die heute sowohl auf der physikalischen Modellierung des Klimas als auch auf historischen Daten beruhen. Auch der Einsatz und die Möglichkeiten von agentischer KI haben großes Potenzial.
Dass selbst Forscher die LLMs „KI“ nennen, erstaunt mich. Er sagt ja selber, dass die nicht intelligent sind. Die sagen nur Wörter voraus und können Muster erkennen. „KI“ ist nur ein Marketing Buzzword, wie damals Hoverboards.
KIs sind nicht automatisch LLMs. Die spezialisierten Analysesemodule, die beispielsweise in der Biotechnologie Anwendung finden, haben sehr wenig mit den Standardvorstellungen von LLMs wie Chat GPT, Gemini et al zu tun. Aus philosophischer und kognitionswissenschaftlicher Sicht ist eine eindeutige Definition von Intelligenz (ob human oder künstlich) sowieso eher schwierig. Common Sense scheint zu sein, dass „man“ Intelligenz schon erkennt respektive begreift, wenn sie einem vor die Nase läuft. Diesbezüglich kann aber wohl einfach auf aktuelle gesellschaftspolitische Entwicklungen verwiesen werden, um das simpelst möglich zu widerlegen.
Viel bedenklicher finde ich die relative Unbedarftheit und Naivität sowie den realitätsfernen Optimismus den Herr Kröger in diesem Interview zum Ausdruck bringt. Die Integration von spezialisierten Modellen im Rahmen von GANs, systematischer Reflektion von Halluzinationen als mögliche Imaginationsprozesse sowie die Erweiterung der Standardmodelle um Quantum ML birgt ein unglaubliches Beschleunigungspotenzial, so dass jegliche ernstzunehmende Prognose durch den technologischen fog of war verunmöglicht wird. So sehr ich Herrn Kröger schätze, halte ich seine Einschätzung für eher blauäugig (insbesonders was potenzielle Gefahren betrifft).
Krüger nicht Kröger, sorry.