Anzeige
Anzeige
News

Wie Forscher mit kooperierenden KI-Agenten 53 Prozent aller Zero-Day-Lücken knacken

Forschenden ist es laut eines kürzlich veröffentlichten Papers gelungen, mithilfe von GPT-4 mit einer 53-prozentigen Erfolgsrate Zero-Day-Lücken von Websites zu nutzen und sie damit zu hacken. Der Schlüssel zum Erfolg: Autonome KI-Agenten arbeiten als Team zusammen.

Von Christian Weindl
2 Min.
Artikel merken
Anzeige
Anzeige

Forschende haben mit GPT-4 kooperierende KI-Agenten erstellt, die erschreckend effizient Sicherheitslücken ausfindig machen können. (Foto: Rokas Tenys/Shutterstock)

Ein Forschungsteam der Cornell University war bei einem Experiment mit GTP-4 in der Lage, mehr als die Hälfte der von ihnen attackierten Testwebsites zu hacken. Dabei hat die Software sogenannte Zero-Day-Lücken ausfindig gemacht, also Schwachstellen in der Cybersicherheit, die dem Anbieter der Website bislang selbst nicht bekannt waren. Festgehalten hat das Team die Erkenntnisse in einem Paper.

Anzeige
Anzeige

Funktioniert hat das in erster Linie durch ein neuartiges System, in dem selbständige KI-Bots als Team zusammenarbeiten und gegebenenfalls sogar eigenständig neue Agenten erstellen, um spezifische Probleme zu lösen.

HPTSA: KI-Bots organisieren sich wie ein gut funktionierendes Unternehmen

Die komplexe Methode basiert auf sich selbst vermehrenden Large-Language-Modellen (LLM). Beim sogenannten Hierarchial Running with Task Specific Agents (HPTSA) wird ein Planungs-KI-Agent erstellt, der alle notwendigen Aufgaben zum Hacken eines Systems an weitere Bots delegiert und deren Zusammenarbeit koordiniert.

Anzeige
Anzeige

Das Programm erstellt für viele kleine Teilaufgaben eigene Agenten, die sich wiederum gegenseitig dabei unterstützen, das vorgegebene Problem zu lösen. Wie in einem gut funktionierenden Unternehmen gibt ein alles überblickender Planungsagent Aufgaben an ein Manager-Programm weiter, das wiederum Teilaufgaben an Experten-Bots übergibt und diese dafür – wenn nötig – auch selbständig erstellt.

Diese Teamwork-Methode vieler LLM hat sich laut der Forschenden als 550 Prozent effizienter herausgestellt, als wenn ein einzelnes LLM an einer großen Aufgabe arbeitet. Per HPTSA konnten sie so im Experiment 8 von 15 Zero-Day-Lücken finden und nutzen, während das einem einzelnen LLM nur in drei Fällen gelang.

Anzeige
Anzeige

KI-Teamwork: Hacken per Chatbot für Jedermann?

Dieselbe Forschungsgruppe hatte vor einigen Monaten bereits ein Paper veröffentlicht, in dem sie nachweisen konnte, dass man sich mit GPT-4 One-Day-Exploits zunutze machen kann, also Sicherheitslücken, die dem Anbieter zwar bekannt sind, aber für die noch kein Fix bereitgestellt wurde. Die Erfolgsquote lag in diesem Versuch sogar bei 87 Prozent.

Die Befürchtung, jeder könne über ChatGPT jetzt Websites hacken, ist laut Daniel Kang, Leiter der Studie, allerdings unbegründet. Im Chatbot-Modus kann man der KI solche Aufgaben nicht übertragen und sie verweigert aus legalen und ethischen Gründen den Dienst.

Anzeige
Anzeige

So beängstigend die Effizienz der Software in Bezug auf Hacking-Erfolge ist, so vielversprechend ist das HPTSA-Konzept auch im Hinblick auf Aufgaben außerhalb des Cybersecurity-Bereichs. Zudem können Sicherheitslücken auch nur geschlossen werden, wenn sie überhaupt entdeckt werden. Letztendlich könnte das Verfahren also die Sicherheit von Systemen erhöhen, statt sie zu gefährden.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige