Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Das Claude-Kollektiv: So hat Anthropic seine Multi-Agenten-KI gebaut

Ein KI-Modell allein reicht nicht mehr: Anthropic zeigt, wie aus vielen Agenten ein System wird, das komplexe Probleme löst. Das KI-Unternehmen legt dafür eine erhellende Blaupause offen.

3 Min.
Artikel merken
Anzeige
Anzeige
Anthropic schickte seine Claude-KI jetzt im Team los. (Bild: Midjourney / t3n)

Der OpenAI-Wettbewerber Anthropic aus San Francisco im US-Bundesstaat Kalifornien hat einen bemerkenswert tiefen Einblick in die Architektur seines neuen „Research“-Features für das Sprachmodell Claude gewährt. In einem detaillierten Blogbeitrag erläutern die Entwickler:innen, wie sie ein System aus mehreren kooperierenden KI-Agenten konstruiert haben. Dieses soll Aufgaben lösen, an denen ein einzelner Agent scheitern würde.

Anzeige
Anzeige

Der Ansatz bricht mit der linearen Arbeitsweise bisheriger Systeme. Statt einer einzelnen Anfrage, die sequenziell abgearbeitet wird, nutzt Anthropic ein sogenanntes Orchestrator-Worker-Muster.

Ein Dirigent für viele kleine Experten

Stellt euch einen leitenden Agenten („Lead-Agent“) vor, der eine komplexe Nutzer:innenanfrage zunächst analysiert und in mehrere Teilaufgaben zerlegt. Für jede dieser Teilaufgaben erzeugt er dann spezialisierte Unter-Agenten („Sub-Agents“), die parallel und unabhängig voneinander an die Arbeit gehen.

Anzeige
Anzeige

Diese Sub-Agenten nutzen Werkzeuge wie die Websuche, um Informationen zu sammeln, filtern die Ergebnisse und fassen die Essenz für den Haupt-Agenten zusammen. Laut Anthropic führt diese Parallelisierung zu einer enormen Leistungssteigerung. In internen Evaluationen habe das Multi-Agenten-System ein einzelnes, ansonsten identisches Top-Modell um über 90 Prozent übertroffen.

Leistung hat ihren Preis

Der Grund für die höhere Leistung ist laut der Analyse von Anthropic vor allem auf einen Faktor zurückzuführen: die schiere Menge an Rechenleistung. Das System verbraucht ein Vielfaches an Tokens, der „Währung“ für die Nutzung von KI-Modellen.

Hier liegt auch die zentrale Schattenseite des Ansatzes. Ein Multi-Agenten-System verbraucht laut Anthropic etwa 15-mal mehr Tokens als eine gewöhnliche Chat-Interaktion. Damit seien solche Systeme nur für Aufgaben wirtschaftlich tragfähig, deren Wert den massiv erhöhten Aufwand rechtfertigt.

Die Entwickler räumen zudem ein, dass sich die Architektur nicht für alle Probleme eignet. Insbesondere Aufgaben, bei denen alle Arbeitsschritte voneinander abhängen, wie es oft beim Programmieren der Fall ist, seien für diesen parallelen Ansatz weniger passend.

Anzeige
Anzeige

Lektionen aus der Werkstatt

Der Weg vom Prototyp zum produktiven System war für die Entwickler:innen bei Anthropic lehrreich. Sie teilen einige ihrer wichtigsten Erkenntnisse, die für alle Teams, die an KI-Anwendungen arbeiten, von hohem Wert sein dürften.

Ein entscheidender Hebel sei das Prompt-Engineering. Der Haupt-Agent musste lernen, wie ein:e gute:r Manager:in zu delegieren: mit klaren Zielen, exakten Aufgabenbeschreibungen und definierten Grenzen für die Sub-Agenten. Andernfalls würden die Agenten die Arbeit ihrer Kollegen duplizieren oder sich in Details verlieren.

Ebenso kritisch sei das Design der Werkzeuge. Eine unklare Beschreibung eines Tools könne einen Agenten auf eine völlig falsche Fährte locken. Anthropic ging sogar so weit, einen eigenen KI-Agenten darauf anzusetzen, die Beschreibungen der Werkzeuge zu testen und zu optimieren. Dieser Prozess habe die Effizienz bei der Tool-Nutzung um 40 Prozent verbessert.

Anzeige
Anzeige

Evaluierung und Produktion im KI-Zeitalter

Die Bewertung der Ergebnisse stellt eine besondere Herausforderung dar. Da die Agenten nicht bei jedem Durchlauf den exakt gleichen Weg zum Ziel nehmen, kann man nicht den Prozess, sondern nur das Endergebnis bewerten. Hierfür setzt Anthropic ebenfalls auf eine KI, einen „LLM-as-a-Judge“, der die Resultate anhand einer festen Rubrik wie Fakten- und Zitatentreue benotet. Dennoch bleibe die manuelle Kontrolle durch Menschen unverzichtbar, um Fehler zu finden, die automatisierte Systeme übersehen.

Für den stabilen Betrieb solcher komplexen, zustandsbehafteten Systeme mussten neue technische Lösungen her. Da ein kleiner Fehler einen Agenten komplett aus der Bahn werfen kann, implementierte das Team robuste Wiederaufnahme-Mechanismen. Um bei Updates keine laufenden Prozesse zu unterbrechen, werden sogenannte „Rainbow Deployments“ eingesetzt, bei denen alte und neue Systemversionen für eine Übergangszeit parallel existieren.

Damit ist der offene Bericht von Anthropic weit mehr als nur eine Produktankündigung und sollte von KI-Interessierten jedenfalls gelesen werden. Er ist ein fundierter Leitfaden, der die erheblichen Hürden, aber auch das immense Potenzial auf dem Weg zu fähigeren, agentischen KI-Systemen aufzeigt. Er macht deutlich, dass der Fortschritt in der künstlichen Intelligenz zunehmend eine Frage der intelligenten Orchestrierung und nicht nur der Größe einzelner Modelle ist.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren