Führen aktuelle KI-Modelle wirklich zu AGI? Experten sind skeptisch

Münden gängige Modelle Künstlicher Intelligenz bald in eine Artificial General Intelligence (AGI)? Also in ein Computerprogramm, das dem menschlichen Intellekt in (fast) allen Bereichen mindestens ebenbürtig ist? Für Techunternehmen wie OpenAI oder Microsoft, die massiv in KI investieren, ist dies nur eine Frage der Zeit. Oder eine der Definition.
76 Prozent halten Skalierung hin zu AGI für „unwahrscheinlich“
Viele Expert:innen sind da weniger optimistisch. Dies zeigte gerade eine Umfrage unter 475 KI-Forscher:innen durch die Association for the Advancement of Artificial Intelligence, (AAAI) einer internationalen Wissenschaftsgesellschaft mit Sitz in Washington DC.
76 Prozent der Befragten glauben, dass sich aus den aktuellen KI-Modellen keine AGI skalieren lasse. Sie stuften die Möglichkeit, dass eine „Erweiterung der derzeitigen KI-Ansätze“ zu einer AGI führen könnte, als „unwahrscheinlich“ oder „sehr unwahrscheinlich“ ein.
82 Prozent wollen eine AGI als öffentliches Eigentum
Eine ähnliche Zahl der Expert:innen, nämlich 77 Prozent, votiert dafür, bei dem Streben nach einer AGI ein Nutzen-Risiko-Profil zu erstellen. 82 Prozent sind dafür, dass mit einer hypothetischen AGI ausgestattete Systeme in öffentlicher Hand liegen sollten und nicht in privater.
Trotz dieser Bedenken lehnen 70 Prozent der Befragten den Vorschlag ab, ein Moratorium bei der Entwicklung von AGI einzurichten, bis Kontrollmaßnahmen bereitstehen. Die Befragung war Teil einer großangelegten Studie, die sich neben AGI mit generellen Fragen zu Künstlicher Intelligenz und ihrer sozialen Implikationen befasste.
Googles neue KI-Suche geht nach hinten los
„Immer noch haarsträubende Fehler“
Gegenüber der Zeitschrift New Scientists äußerten sich an der Studie beteiligter Wissenschaftler:innen zu ihrer Einschätzung, warum es noch ein weiter Weg bis zu einer AGI ist. „Systeme, von denen behauptet wird, dass sie der menschlichen Leistung ebenbürtig sind – z. B. bei Codierungs- oder Mathematikproblemen – machen immer noch haarsträubende Fehler“, gab etwa Thomas Dietterich von der Oregon State University zu Protokoll.
„Diese Systeme können als Hilfsmittel für die Forschung und Programmierung sehr nützlich sein, aber sie werden keine menschlichen Arbeitskräfte ersetzen“, so Dietterich weiter.