Anzeige
Anzeige
News

Forschungsteam kreiert KI-Wurm, der sich durch KI-Tools bewegen und Daten stehlen kann

Wissenschaftler:innen zeigen mit einem Experiment, welche Risiken es in großen KI-Systemen gibt. Ein dafür erstellter KI-Wurm kann sogar Daten stehlen. Google und OpenAI wissen Bescheid.

Von Christian Bernhard
2 Min.
Artikel merken
Anzeige
Anzeige
Ein von Forscher:innen kreierter KI-Wurm will auf Sicherheitslücken aufmerksam machen. (Bild: t3n/ Midjourney)

Generative KI-Systeme wie ChatGPT von OpenAI oder Googles Gemini werden immer häufiger eingesetzt, zahlreiche Startups und Technologieunternehmen bauen fest auf sie. Doch je mehr Freiheit den KI-Tools eingeräumt wird, desto größer werden auch die potenziellen Angriffsmöglichkeiten.

Anzeige
Anzeige

Mit dem KI-Wurm sei „eine neue Art von Cyberangriff“ möglich

Um die Risiken vernetzter, autonomer KI-Systeme aufzuzeigen, hat eine Gruppe von Forscher:innen einen der ersten generativen KI-Würmer geschaffen, der sich von einem System auf ein anderes ausbreiten und dabei Daten stehlen oder Malware darin einsetzen kann.

Damit sei jetzt die Möglichkeit gegeben, „eine neue Art von Cyberangriff durchzuführen, die es noch nie zuvor gegeben hat“, sagt Ben Nassi gegenüber der Computerzeitschrift Wired. Der Forscher der Cornell Tech in New York ist einer der Hauptautoren der Studie.

Anzeige
Anzeige

Eingabeaufforderungen auf Textbasis als Einfallstor

Im Forschungsbericht heißt es, der KI-Wurm könne einen generativen KI-Email-Assistenten angreifen, um Daten aus Emails zu stehlen und Spam-Nachrichten zu versenden – und dabei Sicherheitsmaßnahmen in ChatGPT und Gemini außer Kraft setzen.

Die meisten generativen KI-Systeme basieren auf Text-Eingabeaufforderungen, mit denen die Tools angewiesen werden, eine Frage zu beantworten oder ein Bild zu erstellen. Laut Wired können diese Aufforderungen allerdings auch als Waffe gegen das System eingesetzt werden. Sogenannte Jailbreaks können dazu führen, dass ein System seine Sicherheitsregeln missachtet und hasserfüllte Inhalte ausspuckt, während sogenannte Prompt-Injection-Angriffe einem Chatbot geheime Anweisungen geben können.

Anzeige
Anzeige

Erschaffer:innen des KI-Wurms wollen sich mit OpenAI und Google treffen

In einem Forschungsvideo ist zu sehen, wie das manipulierte Email-System eine Nachricht mehrmals weiterleitet. Die Forscher:innen erklären auch, dass sie Daten aus Emails extrahieren könnten. „Es können Namen sein, es können Telefonnummern, Kreditkartennummern und alles sein, was als vertraulich gilt“, sagt Nassi.

Die Wissenschaftler:innen sehen den KI-Wurm als eine Warnung vor „schlechtem Architekturdesign“ von KI-Systemen – und stellten ihre Ergebnisse Google und OpenAI zur Verfügung. Ein Sprecher von OpenAI sagte gegenüber Wired, dass das Unternehmen daran arbeite, seine Systeme „widerstandsfähiger“ zu machen. Google äußerte sich nicht dazu. Nassis Team hat ein Treffen mit OpenAI und Google beantragt, um über das Thema zu sprechen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
2 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Thomas Davies

bitte hört auf zu gendern. die Effekte vom gendern sind wissenschaftlich nicht erwiesen. mich macht es mittlerweile traurig zu sehen, dass es immer mehr einzug findet. es ist so gesehen sprachesoterik.

Antworten
mojo

Die Effekte von Gendern sind mittlerweile gut belegt:
https://de.wikipedia.org/wiki/Studien_und_Umfragen_zu_geschlechtergerechter_Sprache
Auf welche wissenschaftliche Quelle beziehst Du Dich denn?
Der persönliche Geschmack ist natürlich eine andere Sache, aber der generische Gemininum ist ja auch nicht so dolle, oder ;-)

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige