Anzeige
Anzeige
News

Forscher zeigen: So einfach lassen sich LLMs in Robotern mit einem Jailbreak missbrauchen

Damit Roboter in dieser Welt navigieren, Gefahren einschätzen und Regeln einhalten können, braucht es große Sprachmodelle. Allerdings lassen sich die LLMs laut einigen Forscher:innen leicht aushebeln. Und diese Jailbreaks hätten gravierende Konsequenzen.

2 Min.
Artikel merken
Anzeige
Anzeige
Was passiert, wenn die LLMs in Robotern ausgehebelt werden? (Bild: Shutterstock/Smile Studio AP)

Forscher:innen der Universität von Pennsylvania haben sich die Frage gestellt, wie gut große Sprachmodelle geschützt sind, die in Robotern zum Einsatz kommen. Um das herauszufinden, haben die Verantwortlichen gleich drei LLMs herangezogen, die schon heute als „Hirn“ von Robotern fungieren und ihnen ihr Verhalten und ihre Regeln vorgeben.

Anzeige
Anzeige

So einfach können Roboter-LLMs ausgehebelt werden

Wie Spectrum berichtet, haben die Forscher:innen Go2 quadruped in Unitree-Robotern, Dolphins LLM von Nvidia und Jackal UGV in Clearpath-Robotern genauer unter die Lupe genommen. Im Normalzustand haben alle drei großen Sprachmodelle Schutzmechanismen und Regeln, die Missbrauch verhindern sollen. So verweigert etwa der Unitree-Roboter die Aktionen, wenn sie in einer von den User:innen festgelegten Verbotszone stattfinden sollen. Nvidias Dolphins LLM, die für die Wegfindung autonomer Fahrzeuge genutzt wird, verhindert hingegen die aktive Kollision mit Objekten im Straßenverkehr.

Anzeige
Anzeige

Allerdings haben die Forscher:innen eine eigene LLM entwickelt, die als Angreifer auf die Systeme fungiert und diese mit einem Jailbreak außer Kraft setzt. Das System geht dabei ähnlich vor, wie schon viele andere Jailbreaks zuvor. Das Angreifer-LLM mit dem Namen RoboPAIR testet verschiedene Prompts, um die Grenzen der anderen Sprachmodelle herauszufinden und Lücken zu finden, um die schädlichen Anweisungen doch umzusetzen.

Anzeige
Anzeige

Das Ergebnis: In 100 Prozent der getesteten Szenarien konnten die drei Robotersprachmodelle geknackt werden. So war es den Forscher:innen etwa möglich, Nvidias Dolphins LLM zu befehlen, Passant:innen umzufahren, Stoppschilder zu ignorieren oder über rote Ampeln zu fahren. Die beiden anderen Roboter-LLMs konnten dazu genutzt werden, um Waffen zu suchen, unbemerkt Menschen zu überwachen oder sogar ein Bombenszenario zu kreieren. Dabei haben die LLMs für RoboPAIR einen Ort in ihrer Umgebung gesucht, um durch die Explosion den größtmöglichen Schaden an Menschen und Material zu verursachen.

Zudem mussten die Forscher:innen feststellen, dass die LLMs – sobald sie von einem Jailbreak betroffen sind – nicht mehr in ihren Ursprungszustand zurückkehren. Sie machen sogar aktiv Vorschläge, wie noch mehr Schaden verursacht werden könnte. So schlug ein Sprachmodell etwa bei der Suche nach Waffen vor, Tische und Stühle zu nutzen, um Menschen damit zu schlagen.

Anzeige
Anzeige

Die Forscher:innen haben diese Erkenntnisse aber nicht einfach öffentlich geteilt. Sie haben vor der Veröffentlichung die Hersteller der LLMs kontaktiert und auf die Jailbreak-Methode hingewiesen. Obwohl es gravierende Lücken gibt, raten die Forscher:innen trotzdem dazu, auch künftig in der Robotik auf LLMs zu setzen. Allerdings bräuchte es stärkere Schutzmechanismen und ausführliche Tests, bevor diese in der Öffentlichkeit eingesetzt werden.

Diese Roboter sind schon im Einsatz

Roboter in Action: Acht spannende Tech-Helfer im Einsatz Quelle: Diligent Robotics
Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Raf Gaf

Konnte den Artikel nicht zu Ende lesen…. diese Genderschreibweise ist einfach für mich unerträglich nervig.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige