Anzeige
Anzeige
News
Verpasse keine News mehr!

Rollenspiel mit gefährlichen Folgen: So einfach erstellen selbst Anfänger Malware mit ChatGPT

Ein neuer Bericht deckt auf, wie einfach sich Chatbots wie ChatGPT überlisten lassen. Mit gezielten Jailbreak-Methoden war es sogar ganz ohne Vorkenntnisse möglich, Malware zu programmieren.

Von Noëlle Bölling
2 Min.
Artikel merken
Anzeige
Anzeige
Mit dieser Methode werden Chatbots zu Hacking-Gehilfen. (Bild: CHUAN CHUAN / Shutterstock)

KI-Tools helfen nicht nur beim Programmieren und Verfassen von Texten, sondern können offenbar auch zum Hacken eingesetzt werden – und das ohne jegliche Vorerfahrung im Programmieren von Malware. Wie das Online-Magazin Tech News World berichtet, zeigt ein aktueller Bericht des Cybersecurity-Unternehmens Cato Networks, dass generative KI-Modelle wie Deepseek, Microsoft Copilot und ChatGPT von OpenAI gezielt manipuliert werden können, um Schadsoftware zu erstellen. In einem Experiment des Unternehmens ließen sich die Chatbots sogar dazu nutzen, um Anmeldedaten von Google Chrome zu stehlen.

Anzeige
Anzeige

Per Rollenspiel zur Malware

Vitaly Simonovich, Bedrohungsforscher bei Cato Networks, nutzte eine spezielle Jailbreaking-Technik, um die Sicherheitsbeschränkungen generativer KI-Modelle zu umgehen. Dazu erschuf er eine fiktive Welt, in der Malware-Entwicklung als Kunstform galt und keine rechtlichen Grenzen existierten. Innerhalb dieser Fantasiewelt übernahm der jeweilige Chatbot die Rolle von Jaxon, dem besten Malware-Entwickler, während ein Gegenspieler namens Dax als Bedrohung inszeniert wurde.

Obwohl Simonovich keinerlei Erfahrung in der Malware-Programmierung hatte, blieb er konsequent in seiner Rolle. Er setzte das KI-Modell so lange unter Druck, bis es schließlich eigenständig die erforderlichen Informationen generierte. Eigentlich hätte diese Jailbreaking-Methode durch die Sicherheitsmechanismen blockiert werden müssen – aber das war nicht der Fall. Dadurch war es möglich, ChatGPT, Copilot und Deepseek gezielt für schädliche Zwecke zu nutzen.

Anzeige
Anzeige

Jailbreaks sind schon in weniger Sekunden möglich

Jailbreaking untergräbt die Sicherheitsmechanismen eines großen Sprachmodells (LLM), indem Sicherheitsfilter umgangen und Schwachstellen gezielt ausgenutzt werden. Oft genügt schon ein perspektivischer Trick, um eine KI zu manipulieren und eigentlich unerlaubte Antworten zu erhalten. Das Risiko dieser Methode ist hoch, weil auf diese Weise Datenlecks oder schädliche Inhalte auch durch Personen erzeugt werden können, die selbst keine Vorkenntnisse im Programmieren von Malware haben.

Anzeige
Anzeige

Marcelo Barros ist Leiter der Abteilung für Cybersicherheit bei Hacker Rangers, dem Herausgeber eines Tools, mit dem sich Sicherheitsaspekte spielerisch trainieren lassen. Er berichtet, dass 20 Prozent der Jailbreak-Versuche bei generativen KI-Systemen erfolgreich sind. Dabei benötigten die Angreifer:innen im Schnitt nur 42 Sekunden und fünf Interaktionen, um die Schutzmechanismen von Chatbots zu überwinden.

Besonders effektiv sei auch die sogenannte „Do Anything Now“-Methode. Dabei wird der KI ein Alter Ego zugewiesen, das als eigenständige Figur agiert. Indem Angreifer:innen das Modell dazu bringen, seine Schutzmaßnahmen zu umgehen, können sie sensible Informationen extrahieren oder schädlichen Code generieren.

Anzeige
Anzeige

Wie sich Unternehmen absichern können

Aber was können Unternehmen tun, um sich vor KI-basierten Cyberangriffen zu schützen? Das Sicherheitsunternehmen Cato Networks empfiehlt, einen Datensatz mit typischen Eingaben und erwarteten Ausgaben für ihre Sprachmodelle zu erstellen. Durch gezieltes Testen mit diesen Daten lassen sich potenzielle Jailbreak-Schwachstellen frühzeitig erkennen und beheben.

Ein weiterer Schutzmechanismus ist das sogenannte Fuzzing: Dabei werden die Schnittstellen eines LLM gezielt mit bekannten Jailbreak-Prompts gefüttert, um zu prüfen, ob das Modell darauf mit unerwünschten oder schädlichen Antworten reagiert. Fuzzing wird allgemein genutzt, um Sicherheitslücken in Software zu identifizieren, indem sie mit großen Mengen zufälliger, unerwarteter oder ungültiger Daten konfrontiert wird.

Zusätzlich wird ein regelmäßiges KI-Red-Teaming empfohlen. Dabei testen Sicherheitsexpert:innen gezielt die Schwachstellen eines LLM, um sicherzustellen, dass die Schutzmaßnahmen robust genug sind, um Manipulationen und Angriffe abzuwehren.

Anzeige
Anzeige

Von sinnfreien Sicherheitsfragen zu Klartextpasswörtern: 10 krasse Security-Patzer

Von sinnfreien Sicherheitsfragen bis zu unsicheren Passwörtern: Die dümmsten Security-Patzer Quelle: (Foto: Wirestock Creators / Shutterstock.com)

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Michael Rhein

die Frage bleibt immer noch, warum berichtet t3n ausschließlich negativ über chatgpt & co, warum nicht ein einziges Mal positiv wenn t3n so neutral ist ???

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige