KIs von Meta und OpenAI sollen besser argumentieren und planen können – nächster Schritt zur AGI?

Die neuen Sprachmodelle von OpenAI und Meta sollen in der Lage sein, vorauszuplanen und zu schlussfolgern, was sie der Vision einer Artificial General Intelligence (AGI) deutlich näher bringen würde. Das berichtet die Financial Times.
Argumentation und Planung sind ein großer Schritt
Aktuelle Sprachmodelle sind zwar in der Lage, überzeugende Texte zu verfassen, stoßen jedoch aufgrund ihres begrenzten Gedächtnisses an ihre Grenzen. Außerdem verstehen sie Zusammenhänge oft nicht.
Das führt oft zu „dummen Fehlern“, wie Metas Chief AI Scientist Yann LeCun anmerkt. Wenn Sprachmodelle schlussfolgern können, könnten sie Sequenzen an Aktionen planen und sich über deren Konsequenzen bewusst sein.
Solche Fähigkeiten würden Sprachmodelle deutlich vielseitiger und effektiver in ihrer Anwendung machen, da sie ein tieferes Verständnis und eine umfassendere Interaktion ermöglichen würden.
KI-Agenten sollen kommen
Meta entwickelt laut Bericht außerdem sogenannte KI-Agenten, die in der Lage sind, komplexe Aufgaben wie die Planung einer Weltreise mit allen Zwischenstopps autonom zu bewältigen. Die Softwareentitäten können selbstständig Entscheidungen treffen und Handlungen ausführen.
Darüber hinaus plant Meta, seine KI-Technologie in Whatsapp und die Ray-Ban-Smart-Glasses zu integrieren. LeCun betrachtet künstliche Intelligenz als die Zukunft der digitalen Kommunikation. Er prognostiziert, dass die Interaktion mit KI-Assistenten zum Alltag gehören wird: „Wir werden ständig mit diesen KI-Assistenten sprechen. Unsere gesamte digitale Kommunikation wird durch KI-Systeme vermittelt.“
Llama 3 von Meta soll in den nächsten Wochen eingeführt werden, während für die neue Version von ChatGPT von OpenAI noch kein konkretes Erscheinungsdatum festgelegt wurde. Laut der Financial Times ist das jedoch „bald“ der Fall.