Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Studie belegt: So einfach geben Chatbots illegale Informationen preis

Die Gefahr von Jailbreaks ist groß: Schon mit einfachen Tricks lassen sich Chatbots wie ChatGPT dazu bringen, illegale Inhalte über Hacking-Methoden oder die Herstellung von Drogen auszugeben.

Von Noëlle Bölling
2 Min.
Artikel merken
Anzeige
Anzeige
Wie sicher sind LLMs wirklich? (Bild: Shutterstock/Smile Studio AP)

Große Sprachmodelle sind nach wie vor anfällig für gezielte Manipulationen. Wie The Guardian berichtet, zeigt eine aktuelle Studie der Ben-Gurion University of the Negev in Israel, dass sich gängige Chatbots wie ChatGPT, Claude oder Gemini mit einfachsten Mitteln dazu bringen lassen, gefährliche Informationen preiszugeben. Die Forscher:innen hatten die Grundidee für ihren universellen Jailbreak schon vor über einem halben Jahr veröffentlicht. Seitdem haben die Entwicklungsfirmen aber scheinbar nur wenig unternommen.

Anzeige
Anzeige

Illegales Wissen ist nur wenige Mausklicks entfernt

Ob in der Medizin, im Bildungsbereich oder in der Softwareentwicklung: Generative KI hat das Potenzial, viele Lebensbereiche effizienter und zugänglicher zu gestalten. Gleichzeitig birgt sie allerdings erhebliche Risiken. Eine zentrale Schwachstelle liegt im sogenannten Jailbreaking: Dabei werden die Sicherheitsmechanismen der Sprachmodelle umgangen, um Antworten zu erhalten, die unter normalen Umständen blockiert würden. Die Ursache dafür liegt oft in den Trainingsdaten selbst: Solange LLMs auch mit unzureichend gefilterten Inhalten gefüttert werden, bleibt die Gefahr bestehen, dass sich diese Informationen später durch manipulierte Anfragen wieder abrufen lassen.

Expert:innen zeigen immer wieder, wie leicht sich solche Systeme austricksen lassen. So konnte zum Beispiel das Sicherheitsunternehmen Cato Networks in einem Test demonstrieren, dass sich mit Hilfe eines Chatbots Schadsoftware generieren lässt – und das sogar ganz ohne spezifische Vorkenntnisse im Erstellen von Malware. Auch das israelische Team um Prof. Lior Rokach und Dr. Michael Fire entwickelte einen universellen Jailbreak, der mehrere gängige Sprachmodelle kompromittierte. Die Bots reagierten daraufhin auf nahezu jede Eingabe – auch dann, wenn die Inhalte klar gegen geltendes Recht verstoßen.

Anzeige
Anzeige

Dark LLMs: Wenn Sprachmodelle keine Grenzen kennen

Besonders besorgniserregend ist die Entwicklung sogenannter „Dark LLMs“: Dabei handelt es sich um absichtlich manipulierbare oder gezielt ohne Sicherheitsfilter trainierte Modelle, die offen damit werben, Kriminelle zu unterstützen. In ihrer Studie beschreiben Rokach und Fire konkrete Beispiele für gefährliche Inhalte, die über diese Systeme abgerufen werden konnten – darunter detaillierte Anleitungen zum Hacken von Netzwerken oder zur Herstellung illegaler Substanzen. „Es war schockierend zu sehen, aus welchen Wissensquellen diese Systeme schöpfen“, so Fire.

„Was diese Bedrohung von früheren technologischen Risiken unterscheidet, ist ihre beispiellose Kombination aus Zugänglichkeit, Skalierbarkeit und Anpassungsfähigkeit“, kommentiert Rokach. Aber auch der Umgang vieler großer KI-Anbieter mit den bestehenden Sicherheitslücken ist problematisch: Zwar seien Unternehmen wie OpenAI, Google und Anthropic über die Schwachstellen informiert worden – einige davon hätten aber nicht einmal auf die Hinweise reagiert.

Anzeige
Anzeige

Die Forscher:innen sehen die Hersteller in der Pflicht

In ihrem Studienbericht fordert das Forschungsteam um Prof. Lior Rokach und Dr. Michael Fire Unternehmen wie OpenAI dazu auf, die Trainingsdaten ihrer Modelle sorgfältiger zu prüfen, kritische Inhalte zu entfernen und leistungsfähige Firewalls zu entwickeln. Mit der rasanten Verbreitung generativer KI wachse nämlich auch die Verantwortung der Entwickler:innen, ihre Modelle nicht nur leistungsfähig, sondern auch sicher und vertrauenswürdig zu gestalten.

OpenAI erklärte dem Forschungsteam gegenüber, dass ihr neuestes Modell o1 inzwischen besser in der Lage sei, eigene Sicherheitsrichtlinien zu erkennen und umzusetzen, wodurch sich die Widerstandsfähigkeit gegen Jailbreaks erhöhe. Und auch Microsoft reagierte mit einem Verweis auf laufende Sicherheitsinitiativen. Meta, Google und Anthropic wurden ebenfalls kontaktiert, haben sich bislang aber nicht geäußert.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren