Anzeige
Anzeige
MIT Technology Review News

Sie finden Freunde und glauben an das Fliegende Spaghettimonster: Diese KI-Agenten in Minecraft sind fast menschlich

Das KI-Startup Altera hat sich auf simulierte Agenten spezialisiert, um wirtschaftliche Maßnahmen oder andere Eingriffe in Gesellschaften zu simulieren. Minecraft diente als Schauplatz seiner ersten Demo. Dort entwickelten die Agenten ein fast menschenähnliches Verhalten.

Von MIT Technology Review Online
6 Min.
Artikel merken
Anzeige
Anzeige

Minecraft, hier auf einem Mobiltelefon. (Foto: Mehaniq / Shutterstock)

Das Experiment fand in der Open-World-Spieleplattform Minecraft statt, wo bis zu 1.000 Software-Agenten gleichzeitig große Sprachmodelle (LLMs) verwendeten, um miteinander zu interagieren. Ohne weitere Eingaben durch ihre menschlichen Schöpfer entwickelten sie eine bemerkenswerte Bandbreite an Persönlichkeitsmerkmalen, Vorlieben und speziellen Rollen, wenn man ihnen den Anstoß dazu durch einen Textprompt gab. Die Arbeit des KI-Startups Altera ist Teil eines breiteren Feldes, das simulierte Agenten einsetzen will, um zu modellieren, wie menschliche Gruppen auf neue wirtschaftspolitische Maßnahmen oder andere Eingriffe reagieren würden.

Anzeige
Anzeige

Erster Schritt zu „KI-Zivilisationen“

Für den Gründer von Altera, Robert Yang, der dafür seine Stelle als Assistenzprofessor für Computational Neuroscience am MIT aufgegeben hat, um das Unternehmen zu gründen, ist die Minecraft-Demo jedoch erst der Anfang. Er sieht darin einen ersten Schritt in Richtung großangelegter „KI-Zivilisationen“, die mit uns in digitalen Räumen koexistieren und zusammenarbeiten könnten. „Die wahre Macht der KI wird sich erst noch entfalten, wenn wir wirklich autonome Agenten haben, die in großem Maßstab zusammenarbeiten können“, sagt Yang.

Yang wurde von dem Forscher Joon Sung Park von der Stanford University inspiriert, der schon 2023 herausfand, dass eine Gruppe von 25 autonomen KI-Agenten, die in einer einfachen digitalen Welt interagieren sollten, erstaunlich menschenähnliche Verhaltensweisen zeigten. „Nachdem seine Arbeit veröffentlicht war, begannen wir in der nächsten Woche mit der Arbeit“, sagt Yang. „Sechs Monate später verließ ich das MIT.“

Anzeige
Anzeige

Yang wollte Parks Idee auf die Spitze treiben. „Wir wollten die Grenzen dessen ausloten, was Agenten in Gruppen selbstständig machen können.“ Altera sammelte dafür schnell mehr als elf Millionen US-Dollar an Finanzmitteln von Investoren, darunter A16Z und die VC-Firma des ehemaligen Google-CEO Eric Schmidt. Anfang des Jahres veröffentlichte Altera seine erste Demo: eine KI-gesteuerte Figur in Minecraft, die mit Nutzern spielt.

50 Agenten mit interessanten Verhaltensweisen

Das neue Experiment von Altera, Project Sid, verwendet nun simulierte KI-Agenten, die mit „Gehirnen“ ausgestattet sind, die aus mehreren Modulen bestehen. Einige Module werden von LLMs betrieben und sind auf bestimmte Aufgaben spezialisiert, zum Beispiel auf die Reaktion auf andere Agenten, das Kommunizieren oder die Planung des nächsten Zuges des Agenten.

Anzeige
Anzeige

Das Team begann klein und testete Gruppen von etwa 50 Agenten in Minecraft, um ihre Interaktionen zu beobachten. Im Laufe von zwölf Tagen im Spiel (vier Stunden in der realen Welt) begannen sie, einige interessante neue Verhaltensweisen zu zeigen. Einige wurden beispielsweise sehr kontaktfreudig und knüpften viele Verbindungen zu anderen Charakteren, während andere eher introvertiert wirkten. Die „Sympathie“-Bewertung jedes Agenten (gemessen von den Agenten selbst) änderte sich im Laufe der Zeit, während die Interaktionen fortgesetzt wurden. Die Agenten waren dabei in der Lage, sozialen Hinweisen zu folgen und zu reagieren. In einem Fall gab ein KI-Koch, der mit der Verteilung von Lebensmitteln an Hungernde beauftragt war, denjenigen mehr, von denen er das Gefühl hatte, dass sie ihn am meisten schätzten.

Agenten als Baumeister, Verteidiger, Händler und Entdecker

In einer Reihe von Simulationen mit 30 Agenten zeigten sich noch menschenähnlichere Verhaltensweisen. Obwohl alle Agenten mit derselben Persönlichkeit und demselben Gesamtziel begannen – ein effizientes Dorf zu schaffen und die Gemeinschaft vor Angriffen anderer Kreaturen im Spiel zu schützen – entwickelten sie spontan und ohne Aufforderung spezialisierte Rollen innerhalb der Gemeinschaft. Sie schlüpften in Rollen wie Baumeister, Verteidiger, Händler und Entdecker. Sobald ein Agent begonnen hatte, sich zu spezialisieren, begannen seine Handlungen im Spiel seine neue Rolle widerzuspiegeln. So verbrachte ein KI-Künstler beispielsweise mehr Zeit mit dem Pflücken von Blumen, Bauern sammelten Saatgut und Wächter bauten mehr Zäune.

Anzeige
Anzeige

„Wir waren überrascht zu sehen, dass die richtigen virtuellen Gehirne wirklich emergentes Verhalten zeigen können“, sagt Yang. Das sei etwas, was man von Menschen erwarte, von Maschinen aber nicht.

KI-Agenten ändern das Steuersystem

Yangs Team testete auch, ob Agenten gemeinschaftsweite Regeln befolgen können. Sie führten eine Welt mit grundlegenden Steuergesetzen ein und erlaubten den Agenten, über Änderungen des Steuersystems im Spiel abzustimmen. Agenten, die aufgefordert wurden, sich für oder gegen Steuern auszusprechen, waren in der Lage, das Verhalten anderer Agenten in ihrer Umgebung so weit zu beeinflussen, dass diese dann für eine Steuersenkung oder -erhöhung stimmten, je nachdem, mit wem sie interagiert hatten.

Das Team steigerte die Anzahl der Agenten in jeder Simulation auf das Maximum, das der Minecraft-Server noch ohne Störungen bewältigen konnte, in einigen Fällen bis zu 1.000 auf einmal. In einer der Simulationen mit 500 Agenten beobachtete Altera, wie die Agenten spontan kulturelle Memes (zum Beispiel eine Vorliebe für Streiche oder ein Interesse an Umweltthemen) entwickelten und unter ihren Mitagenten verbreiteten. Das Team setzte auch eine kleine Gruppe von Agenten ein, die versuchen sollten, die (parodierte) Religion Pastafarianismus in verschiedenen Städten und ländlichen Gegenden der Spielwelt zu verbreiten, und beobachtete, wie diese Pastafarianer-Priester viele der Agenten, mit denen sie interagierten, bekehrten. Die Bekehrten verbreiteten dann den Pastafarianismus (die Kirche des Fliegenden Spaghettimonsters) in den nahe gelegenen Städten der Spielwelt.

Anzeige
Anzeige

„LLMs verfügen über ein ausgefeiltes Modell der menschlichen sozialen Dynamik“

Die Art und Weise, wie die Agenten agierten, mag lebensecht erscheinen, aber ihr Verhalten kombiniert Muster, die von den LLMs aus von Menschen erstellten Daten erlernt wurden, mit dem System von Altera. Das übersetzt die Muster in kontextabhängige Aktionen, wie das Aufnehmen eines Werkzeugs oder die Interaktion mit einem anderen Agenten. „Das Ergebnis ist, dass die LLMs über ein ausreichend ausgefeiltes Modell der menschlichen sozialen Dynamik verfügen, um diese menschlichen Verhaltensweisen widerzuspiegeln“, sagt Altera-Mitbegründer Andrew Ahn. Mit anderen Worten: Die Daten machen sie zu hervorragenden Nachahmern menschlichen Verhaltens, aber sie sind keineswegs „lebendig“.

Aber Yang hat noch größere Pläne. Als Nächstes will Altera sein System in Roblox expandieren. Yang hofft, dass er irgendwann ganz über Spielewelten hinausgehen kann. Sein Ziel ist eine Welt, in der Menschen nicht nur mit KI-Charakteren spielen, sondern auch in ihrem täglichen Leben mit ihnen interagieren. Sein Traum ist es, eine große Anzahl „digitaler Menschen“ zu erschaffen, die sich tatsächlich um uns kümmern und mit uns zusammenarbeiten, um uns bei der Lösung von Problemen zu helfen und uns zu unterhalten. „Wir wollen Agenten schaffen, die Menschen wirklich „lieben“ können – wie zum Beispiel Hunde Menschen lieben“, sagt er.

Wie weit das Verhalten der Agenten geht

Diese Ansicht – dass KI uns lieben könnte – ist in der Branche ziemlich umstritten, da viele Experten argumentieren, dass es mit den derzeitigen Techniken nicht möglich ist, Emotionen in Maschinen nachzubilden. Der KI-Veteran Julian Togelius, der beispielsweise das Unternehmen Modl.ai leitet, das Spiele testet, sagt, dass ihm Alteras Arbeit gefällt, insbesondere weil sie es uns ermöglicht, menschliches Verhalten in einer Simulation zu untersuchen.

Anzeige
Anzeige

Aber könnten diese simulierten Agenten jemals lernen, sich um uns zu kümmern, uns zu lieben oder ein Selbstbewusstsein zu entwickeln? Togelius glaubt nicht daran. „Es gibt keinen Grund zu glauben, dass ein neuronales Netzwerk, das auf einer GPU läuft, überhaupt etwas erlebt“, sagt er.

Aber vielleicht muss KI uns nicht wirklich lieben, um nützlich zu sein. „Wenn die Frage lautet, ob eines dieser simulierten Wesen den Anschein erwecken könnte, sich um uns zu kümmern, und dies so gekonnt tun könnte, dass es für jemanden den gleichen Wert hätte, wie von einem Menschen umsorgt zu werden, dann ist das vielleicht nicht unmöglich“, fügt Togelius hinzu. „Man könnte eine Simulation der Pflege erstellen, die gut genug ist, um nützlich zu sein. Die Frage ist, ob es der Person, die gepflegt wird, etwas ausmachen würde, dass der Pfleger keine Erfahrung hat.“ Kurzum: Solange unsere KI-Charaktere überzeugend den Anschein erwecken, sich um uns zu kümmern, ist das vielleicht alles, worum wir uns wirklich kümmern müssen.

Dieser Artikel stammt von Niall Firth. Er ist Executive Editor im Newsroom der US-amerikanischen Ausgabe von MIT Technology Review und leitet die gesamte Online-Berichterstattung.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige