
2,78-mal schneller als bisher und mit einem zu vernachlässigenden Genauigkeitsverlust sollen KI-Agenten untereinander kommunizieren können, wenn sie die von Microsoft Droidspeak genannte Sprache verwenden. Das berichtet ein Forschungsteam des Redmonder Softwareherstellers in einem auf dem Preprint-Server arXiv veröffentlichten Papier.
Bisher: KI-Agenten nutzen natürliche Sprache für die Kommunikation
KI-Agenten sind dabei nicht mit KI-Bots zu verwechseln. Vielmehr handelt es sich bei den Agenten um KI-Modelle, die komplexe, mehrstufige Aufgaben autonom ausführen. KI-Bots hingegen sind eher wie Werkzeuge, die auf Anfrage arbeiten, während KI-Agenten fast schon eigenständig denkende Systeme sind, die ohne weitere Interaktion Aufgaben priorisieren und erledigen können.
Da diese Agenten von großen Sprachmodellen (LLMs) angetrieben werden, kommunizieren sie in der Regel in natürlicher Sprache, oft Englisch, miteinander, wenn sie zur Zusammenarbeit eingesetzt werden. Für Maschinen sind menschliche Sprachen indes kein sonderlich geeignetes Kommunikationsmedium.
Neuer Ansatz: KI-Agenten kommunizieren in Maschinensprache
Forscher:innen von Microsoft haben daher eine neue Kommunikationsmethode entwickelt, die es Agenten ermöglicht, in der hochdimensionalen mathematischen Sprache, die LLMs zugrunde liegt, miteinander zu kommunizieren. Das hat folgenden Vorteil, so das Forschungsteam.
Während KI-Agenten in natürlicher Sprache kommunizieren, teilen sie in der Regel nicht nur das Ergebnis des aktuellen Arbeitsschritts mit, sondern auch den gesamten Gesprächsverlauf bis zu diesem Punkt. Das werde bei mehrfachem Hin und Her schnell zum größten Faktor für Kommunikationsverzögerungen und schränke die Skalierbarkeit und Reaktionsfähigkeit von Multi-Agenten-Systemen unnötig ein.
Deshalb haben die Forscher:innen einen Ansatz entwickelt, wie Modelle unter Verzicht auf natürliche Sprache die in den Berechnungsschritten vor der Sprachgenerierung erstellten Daten direkt gemeinsam nutzen können.
Droidspeak mit beschränktem Anwendungsgebiet
Der neue Ansatz hört auf die Bezeichnung Droidspeak. Dabei handelt es sich um eine Anspielung an die auf Pieptönen und Pfeifen basierende Sprache der Roboter in der Blockbuster-Reihe Star Wars.
Noch hat die neue Sprache Einschränkungen. Die größte dürfte sein, dass sie nur für die Kommunikation zwischen Versionen desselben zugrunde liegenden LLM funktioniert. Für die breite Praxistauglichkeit wäre es indes erforderlich, einen Ansatz zu finden, der erlaubt, dass Modelle unterschiedlicher Größe und Konfiguration miteinander kommunizieren können.
Laut Philip Feldman von der Universität von Maryland im gleichnamigen US-Bundesstaat, könnten die aus dem Verzicht natürlicher Sprache resultierenden Kommunikationsbeschleunigungen Multi-Agenten-Systemen dabei helfen, größere und komplexere Probleme zu lösen, als dies mit natürlicher Sprache möglich wäre. Ob dies gelingt, bleibt abzuwarten.