Wie Forscher mit kooperierenden KI-Agenten 53 Prozent aller Zero-Day-Lücken knacken
Ein Forschungsteam der Cornell University war bei einem Experiment mit GTP-4 in der Lage, mehr als die Hälfte der von ihnen attackierten Testwebsites zu hacken. Dabei hat die Software sogenannte Zero-Day-Lücken ausfindig gemacht, also Schwachstellen in der Cybersicherheit, die dem Anbieter der Website bislang selbst nicht bekannt waren. Festgehalten hat das Team die Erkenntnisse in einem Paper.
Funktioniert hat das in erster Linie durch ein neuartiges System, in dem selbständige KI-Bots als Team zusammenarbeiten und gegebenenfalls sogar eigenständig neue Agenten erstellen, um spezifische Probleme zu lösen.
HPTSA: KI-Bots organisieren sich wie ein gut funktionierendes Unternehmen
Die komplexe Methode basiert auf sich selbst vermehrenden Large-Language-Modellen (LLM). Beim sogenannten Hierarchial Running with Task Specific Agents (HPTSA) wird ein Planungs-KI-Agent erstellt, der alle notwendigen Aufgaben zum Hacken eines Systems an weitere Bots delegiert und deren Zusammenarbeit koordiniert.
Das Programm erstellt für viele kleine Teilaufgaben eigene Agenten, die sich wiederum gegenseitig dabei unterstützen, das vorgegebene Problem zu lösen. Wie in einem gut funktionierenden Unternehmen gibt ein alles überblickender Planungsagent Aufgaben an ein Manager-Programm weiter, das wiederum Teilaufgaben an Experten-Bots übergibt und diese dafür – wenn nötig – auch selbständig erstellt.
Diese Teamwork-Methode vieler LLM hat sich laut der Forschenden als 550 Prozent effizienter herausgestellt, als wenn ein einzelnes LLM an einer großen Aufgabe arbeitet. Per HPTSA konnten sie so im Experiment 8 von 15 Zero-Day-Lücken finden und nutzen, während das einem einzelnen LLM nur in drei Fällen gelang.
KI-Teamwork: Hacken per Chatbot für Jedermann?
Dieselbe Forschungsgruppe hatte vor einigen Monaten bereits ein Paper veröffentlicht, in dem sie nachweisen konnte, dass man sich mit GPT-4 One-Day-Exploits zunutze machen kann, also Sicherheitslücken, die dem Anbieter zwar bekannt sind, aber für die noch kein Fix bereitgestellt wurde. Die Erfolgsquote lag in diesem Versuch sogar bei 87 Prozent.
Die Befürchtung, jeder könne über ChatGPT jetzt Websites hacken, ist laut Daniel Kang, Leiter der Studie, allerdings unbegründet. Im Chatbot-Modus kann man der KI solche Aufgaben nicht übertragen und sie verweigert aus legalen und ethischen Gründen den Dienst.
So beängstigend die Effizienz der Software in Bezug auf Hacking-Erfolge ist, so vielversprechend ist das HPTSA-Konzept auch im Hinblick auf Aufgaben außerhalb des Cybersecurity-Bereichs. Zudem können Sicherheitslücken auch nur geschlossen werden, wenn sie überhaupt entdeckt werden. Letztendlich könnte das Verfahren also die Sicherheit von Systemen erhöhen, statt sie zu gefährden.