
ChatGPT scheint sogar Hacker:innen helfen zu können. (Foto: Shutterstock/ThomasAFink)
Mit KI-Chatbots auf Basis etwa des vielfach gepriesenen ChatGPT ergeben sich für Cyberkriminelle ganz neue und für die Opfer bedrohliche Möglichkeiten. Angriffe können wesentlich schneller ablaufen, weil die generative KI die Variation des Malware-Codes automatisiert vornehmen oder Tausende von Varianten für Social-Engineering-Angriffe erstellen kann.
Damit sind Hackerangriffe nun direkt an den Fortschritt in der KI-Entwicklung gekoppelt und werden an Quantität, aber eben auch Qualität deutlich zunehmen, wie Sicherheitsexperte Patrick Harr für Dark Reading erläutert.
Besonders bedrohlich stellt sich für Harr der Umstand dar, dass es einen sich beschleunigenden Wettlauf um die Entwicklung neuer KI-Technologien gibt, wie ChatGPT von OpenAI, Bard von Google und das KI-gestützte Bing von Microsoft zeigen. Auch wenn ChatGPT als das am schnellsten wachsende Tool der KI-Geschichte derzeit die Nase vorn habe, sollten die Möglichkeiten Googles nicht unterschätzt werden, warnt er.
Aktuell sei es indes so, dass ChatGPT „eine echte Bereicherung für die Entwicklung von Malware, BEC (Business Email Compromise) und Ransomware“ ist. Zu bedenken sei dabei, dass Cyberangriffe am gefährlichsten sind, wenn sie schnell und häufig auf ihre Ziele einwirken.
Bei Malware ermöglicht ChatGPT den Cyberkriminellen, unendlich viele Code-Variationen zu erstellen, um den Malware-Erkennungsprogrammen immer einen Schritt voraus zu sein, erläutert Harr. Aber auch BEC-Angriffe würden deutlich von der KI-Nutzung „profitieren“.
Dabei handelt es sich um gezielte Versuche, Opfer durch Social Engineering dazu zu bringen, finanzielle Informationen oder Daten preiszugeben. Diese Angriffe erfordern personalisierte Nachrichten, um erfolgreich zu sein.
ChatGPT könne hier genutzt werden, um „massenhaft gut geschriebene, persönliche E-Mails mit unendlich vielen Variationen erstellen“. Allein die dadurch gewonnene Geschwindigkeit und zunehmende Häufigkeit dieser Angriffe werde zu einer höheren Erfolgsquote führen.
Mit herkömmlichen Abwehrmethoden sei dieser Art von Angriffen nicht beizukommen. Daher gebe es bereits erste Ansätze, die KI zu nutzen, um KI-Angriffe abzuwehren. Hier müsse indes künftig deutlich mehr passieren.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team