Sie finden Freunde und glauben an das Fliegende Spaghettimonster: Diese KI-Agenten in Minecraft sind fast menschlich
Das Experiment fand in der Open-World-Spieleplattform Minecraft statt, wo bis zu 1.000 Software-Agenten gleichzeitig große Sprachmodelle (LLMs) verwendeten, um miteinander zu interagieren. Ohne weitere Eingaben durch ihre menschlichen Schöpfer entwickelten sie eine bemerkenswerte Bandbreite an Persönlichkeitsmerkmalen, Vorlieben und speziellen Rollen, wenn man ihnen den Anstoß dazu durch einen Textprompt gab. Die Arbeit des KI-Startups Altera ist Teil eines breiteren Feldes, das simulierte Agenten einsetzen will, um zu modellieren, wie menschliche Gruppen auf neue wirtschaftspolitische Maßnahmen oder andere Eingriffe reagieren würden.
Erster Schritt zu „KI-Zivilisationen“
Für den Gründer von Altera, Robert Yang, der dafür seine Stelle als Assistenzprofessor für Computational Neuroscience am MIT aufgegeben hat, um das Unternehmen zu gründen, ist die Minecraft-Demo jedoch erst der Anfang. Er sieht darin einen ersten Schritt in Richtung großangelegter „KI-Zivilisationen“, die mit uns in digitalen Räumen koexistieren und zusammenarbeiten könnten. „Die wahre Macht der KI wird sich erst noch entfalten, wenn wir wirklich autonome Agenten haben, die in großem Maßstab zusammenarbeiten können“, sagt Yang.
Yang wurde von dem Forscher Joon Sung Park von der Stanford University inspiriert, der schon 2023 herausfand, dass eine Gruppe von 25 autonomen KI-Agenten, die in einer einfachen digitalen Welt interagieren sollten, erstaunlich menschenähnliche Verhaltensweisen zeigten. „Nachdem seine Arbeit veröffentlicht war, begannen wir in der nächsten Woche mit der Arbeit“, sagt Yang. „Sechs Monate später verließ ich das MIT.“
Yang wollte Parks Idee auf die Spitze treiben. „Wir wollten die Grenzen dessen ausloten, was Agenten in Gruppen selbstständig machen können.“ Altera sammelte dafür schnell mehr als elf Millionen US-Dollar an Finanzmitteln von Investoren, darunter A16Z und die VC-Firma des ehemaligen Google-CEO Eric Schmidt. Anfang des Jahres veröffentlichte Altera seine erste Demo: eine KI-gesteuerte Figur in Minecraft, die mit Nutzern spielt.
50 Agenten mit interessanten Verhaltensweisen
Das neue Experiment von Altera, Project Sid, verwendet nun simulierte KI-Agenten, die mit „Gehirnen“ ausgestattet sind, die aus mehreren Modulen bestehen. Einige Module werden von LLMs betrieben und sind auf bestimmte Aufgaben spezialisiert, zum Beispiel auf die Reaktion auf andere Agenten, das Kommunizieren oder die Planung des nächsten Zuges des Agenten.
Das Team begann klein und testete Gruppen von etwa 50 Agenten in Minecraft, um ihre Interaktionen zu beobachten. Im Laufe von zwölf Tagen im Spiel (vier Stunden in der realen Welt) begannen sie, einige interessante neue Verhaltensweisen zu zeigen. Einige wurden beispielsweise sehr kontaktfreudig und knüpften viele Verbindungen zu anderen Charakteren, während andere eher introvertiert wirkten. Die „Sympathie“-Bewertung jedes Agenten (gemessen von den Agenten selbst) änderte sich im Laufe der Zeit, während die Interaktionen fortgesetzt wurden. Die Agenten waren dabei in der Lage, sozialen Hinweisen zu folgen und zu reagieren. In einem Fall gab ein KI-Koch, der mit der Verteilung von Lebensmitteln an Hungernde beauftragt war, denjenigen mehr, von denen er das Gefühl hatte, dass sie ihn am meisten schätzten.
Agenten als Baumeister, Verteidiger, Händler und Entdecker
In einer Reihe von Simulationen mit 30 Agenten zeigten sich noch menschenähnlichere Verhaltensweisen. Obwohl alle Agenten mit derselben Persönlichkeit und demselben Gesamtziel begannen – ein effizientes Dorf zu schaffen und die Gemeinschaft vor Angriffen anderer Kreaturen im Spiel zu schützen – entwickelten sie spontan und ohne Aufforderung spezialisierte Rollen innerhalb der Gemeinschaft. Sie schlüpften in Rollen wie Baumeister, Verteidiger, Händler und Entdecker. Sobald ein Agent begonnen hatte, sich zu spezialisieren, begannen seine Handlungen im Spiel seine neue Rolle widerzuspiegeln. So verbrachte ein KI-Künstler beispielsweise mehr Zeit mit dem Pflücken von Blumen, Bauern sammelten Saatgut und Wächter bauten mehr Zäune.
„Wir waren überrascht zu sehen, dass die richtigen virtuellen Gehirne wirklich emergentes Verhalten zeigen können“, sagt Yang. Das sei etwas, was man von Menschen erwarte, von Maschinen aber nicht.
KI-Agenten ändern das Steuersystem
Yangs Team testete auch, ob Agenten gemeinschaftsweite Regeln befolgen können. Sie führten eine Welt mit grundlegenden Steuergesetzen ein und erlaubten den Agenten, über Änderungen des Steuersystems im Spiel abzustimmen. Agenten, die aufgefordert wurden, sich für oder gegen Steuern auszusprechen, waren in der Lage, das Verhalten anderer Agenten in ihrer Umgebung so weit zu beeinflussen, dass diese dann für eine Steuersenkung oder -erhöhung stimmten, je nachdem, mit wem sie interagiert hatten.
Das Team steigerte die Anzahl der Agenten in jeder Simulation auf das Maximum, das der Minecraft-Server noch ohne Störungen bewältigen konnte, in einigen Fällen bis zu 1.000 auf einmal. In einer der Simulationen mit 500 Agenten beobachtete Altera, wie die Agenten spontan kulturelle Memes (zum Beispiel eine Vorliebe für Streiche oder ein Interesse an Umweltthemen) entwickelten und unter ihren Mitagenten verbreiteten. Das Team setzte auch eine kleine Gruppe von Agenten ein, die versuchen sollten, die (parodierte) Religion Pastafarianismus in verschiedenen Städten und ländlichen Gegenden der Spielwelt zu verbreiten, und beobachtete, wie diese Pastafarianer-Priester viele der Agenten, mit denen sie interagierten, bekehrten. Die Bekehrten verbreiteten dann den Pastafarianismus (die Kirche des Fliegenden Spaghettimonsters) in den nahe gelegenen Städten der Spielwelt.
„LLMs verfügen über ein ausgefeiltes Modell der menschlichen sozialen Dynamik“
Die Art und Weise, wie die Agenten agierten, mag lebensecht erscheinen, aber ihr Verhalten kombiniert Muster, die von den LLMs aus von Menschen erstellten Daten erlernt wurden, mit dem System von Altera. Das übersetzt die Muster in kontextabhängige Aktionen, wie das Aufnehmen eines Werkzeugs oder die Interaktion mit einem anderen Agenten. „Das Ergebnis ist, dass die LLMs über ein ausreichend ausgefeiltes Modell der menschlichen sozialen Dynamik verfügen, um diese menschlichen Verhaltensweisen widerzuspiegeln“, sagt Altera-Mitbegründer Andrew Ahn. Mit anderen Worten: Die Daten machen sie zu hervorragenden Nachahmern menschlichen Verhaltens, aber sie sind keineswegs „lebendig“.
Aber Yang hat noch größere Pläne. Als Nächstes will Altera sein System in Roblox expandieren. Yang hofft, dass er irgendwann ganz über Spielewelten hinausgehen kann. Sein Ziel ist eine Welt, in der Menschen nicht nur mit KI-Charakteren spielen, sondern auch in ihrem täglichen Leben mit ihnen interagieren. Sein Traum ist es, eine große Anzahl „digitaler Menschen“ zu erschaffen, die sich tatsächlich um uns kümmern und mit uns zusammenarbeiten, um uns bei der Lösung von Problemen zu helfen und uns zu unterhalten. „Wir wollen Agenten schaffen, die Menschen wirklich „lieben“ können – wie zum Beispiel Hunde Menschen lieben“, sagt er.
Wie weit das Verhalten der Agenten geht
Diese Ansicht – dass KI uns lieben könnte – ist in der Branche ziemlich umstritten, da viele Experten argumentieren, dass es mit den derzeitigen Techniken nicht möglich ist, Emotionen in Maschinen nachzubilden. Der KI-Veteran Julian Togelius, der beispielsweise das Unternehmen Modl.ai leitet, das Spiele testet, sagt, dass ihm Alteras Arbeit gefällt, insbesondere weil sie es uns ermöglicht, menschliches Verhalten in einer Simulation zu untersuchen.
Aber könnten diese simulierten Agenten jemals lernen, sich um uns zu kümmern, uns zu lieben oder ein Selbstbewusstsein zu entwickeln? Togelius glaubt nicht daran. „Es gibt keinen Grund zu glauben, dass ein neuronales Netzwerk, das auf einer GPU läuft, überhaupt etwas erlebt“, sagt er.
Aber vielleicht muss KI uns nicht wirklich lieben, um nützlich zu sein. „Wenn die Frage lautet, ob eines dieser simulierten Wesen den Anschein erwecken könnte, sich um uns zu kümmern, und dies so gekonnt tun könnte, dass es für jemanden den gleichen Wert hätte, wie von einem Menschen umsorgt zu werden, dann ist das vielleicht nicht unmöglich“, fügt Togelius hinzu. „Man könnte eine Simulation der Pflege erstellen, die gut genug ist, um nützlich zu sein. Die Frage ist, ob es der Person, die gepflegt wird, etwas ausmachen würde, dass der Pfleger keine Erfahrung hat.“ Kurzum: Solange unsere KI-Charaktere überzeugend den Anschein erwecken, sich um uns zu kümmern, ist das vielleicht alles, worum wir uns wirklich kümmern müssen.