Das sind die 5 größten Gefahren durch KI – laut Cybersicherheitsexperte
Künstliche Intelligenz nimmt uns unliebsame Aufgaben ab oder wird es in Zukunft tun, sie kann eintönige Tätigkeiten schneller und fehlerfreier erledigen als ein:e gelangweilte:r Praktikant:in und im Erkennen von Mustern in großen Datenmengen ist sie praktisch ungeschlagen. Das ist die positive Seite.
Andererseits lassen sich KI-Chatbots wie ChatGPT immer noch verhältnismäßig einfach zweckentfremden und liefern dann bereitwillig Anleitungen zum Bombenbau oder für giftige Substanzen. Von den zahlreichen Blackboxes, bei denen nicht einmal ihren Erfindern klar ist, warum sie ausspucken, was sie ausspucken, mal ganz abgesehen.
Fakt ist aber auch: Die KI geht nicht mehr weg. Neben Regulierungen von staatlicher Seite wie dem AI Act, an dem die Europäische Union noch im Dezember 2023 gearbeitet hat, braucht es auch bei den Bürger:innen und Endanwender:innen das entsprechende Bewusstsein für die Chancen, aber eben auch für die Risiken der KI.
Damit kennt sich Mikko Hyppönen aus. Der 54-jährige Finne hat nicht nur den Urheber des weltweit ersten Computervirus ausfindig gemacht und besucht (und darüber einen sehenswerten Film gedreht), sondern auch die nach ihm benannte Hyppönen-Gesetzmäßigkeit zur Internet-of-Things-Sicherheit begründet. Sie lautet: Alles, was als smart bezeichnet wird, ist anfällig.
Die 5 größten Gefahren von KI
The Next Web hat sich zum Jahreswechsel nun mit Hyppönen unterhalten und ihn nach den fünf größten Gefahren gefragt, die derzeit von KI ausgehen. Eine bestimmte Rangfolge gibt es dabei nicht – aber dafür einen Ausblick in eine Zukunft, der nur bedingt hoffen lässt.
Deepfakes
Es gibt nichts, was es nicht gibt: der Papst im feschen Hip-Hop-Outfit, Olaf Scholz, der vor der AfD warnt, oder einfach ein guter Freund in vermeintlicher Geldnot. Deepfakes sind im Jahr 2023 noch mehr zu einem Problem geworden, als sie es zuvor schon waren. Um 3.000 Prozent sollen sie in den vergangenen zwölf Monaten zugenommen haben.
Das macht auch dem Cybersicherheitsexperten Hyppönen Sorgen. Zwar verzeichne man noch verhältnismäßig geringe finanzielle Schäden durch Deepfake-Scams. Aber je besser die Technik wird, desto ausgefeilter werden auch die Betrugsversuche. Um auf Nummer sicher zu gehen, empfiehlt Hyppönen, Safewords zu vereinbaren. „Es mag sich im Moment etwas albern anhören, aber wir sollten es trotzdem tun“, erklärt er. Wenn Cousin Tobias dann anruft und nach Geld fragt, muss er erst „Luftpumpe“ sagen, bevor der Rubel rollt. Sicher ist sicher.
Deep Scams
Auch wenn der Name ähnlich klingt: Deep Scams unterscheiden sich von Deepfakes insofern, dass sie nicht zwangsläufig auf manipulierte Bild-, Audio- oder Videodateien angewiesen sind. Stattdessen werfen die Täter:innen ihre Fangnetze im ganz großen Stil aus, indem sie automatisieren, was nur geht.
So wird bei Lovescams auf ChatGPT zurückgegriffen, bei falschen Airbnb-Listings mit generierten „Fotos“ der Unterkunft gearbeitet – und anstelle von einer Handvoll Opfern, die schließlich alle individuell „betreut“ werden müssen, übernimmt die KI und kümmert sich um eine viel größere Anzahl, so Hyppönen.
LLM-basierte Malware
Computerviren, die sich eines Large Language Models (LLM) bedienen und jedes Mal, wenn sie sich verbreiten, ihren Code neu schreiben – bereits drei Fälle solcher Malware hat Hyppönens Team entdeckt. Mithilfe einer OpenAI-API schreibt der Virus für jedes Ziel seinen Code neu und macht es so ungleich schwerer, ihn ausfindig zu machen.
„Das funktioniert mit den mächtigsten generativen KI, die Code schreiben können, weil es geschlossene Systeme sind“, erklärt Hyppönen. Dass sich Unternehmen wie OpenAI nicht weiter öffnen, hängt mit ihren Geschäftsmodellen zusammen: Offene Systeme kann jede:r einfach kopieren.
Zero-Day-Exploits
Zero-Day-Exploits sind Lücken in einem System, die Angreifer:innen ausnutzen, bevor sie geschlossen werden können. KI ist gut darin, solche Lücken zu finden – kann sie aber auch schaffen.
„Das funktioniert noch nicht ganz so einfach“, erklärt Hyppönen, „aber ich glaube, dass das Realität sein wird – und zwar in nicht allzu ferner Zukunft.“ Bereits jetzt, so Hyppönen weiter, sei es mithilfe von KI-Assistenz möglich, unter Windows 11 mit einfachen Benutzerrechten für die Kommandozeile automatisiert nach Schwachstellen zu suchen und sich zum lokalen Admin zu machen.
Automatisierte Malware
Geht es darum, ein System vor Angriffen von außen zu schützen und Schwachstellen zu eliminieren, sind automatisierte Prozesse kaum wegzudenken. Wer in fremde Systeme eindringen will, musste bisher vieles händisch erledigen. Hyppönen hält es nur für logisch, dass Hacker:innen hier nachziehen und ebenfalls daran arbeiten, ihre Strategien zu automatisieren.
„Dann würde gute KI gegen böse KI kämpfen“, so der Experte, der dann doch eine Art Ranking vornimmt: In voll automatisierter Malware sieht er die größte Gefahr für 2024.
Der Blick in die Zukunft: Artifical General Intelligence
Wir erinnern uns: Hyppönens Gesetz besagt, dass alles, was „smart“ ist, anfällig ist. Sollte das auch auf superintelligente Maschinen, sogenannte Artificial General Intelligence, zutreffen, könnte es brenzlig werden für die Menschheit. Um hier die Oberhand zu behalten, brauche es eine enge Abstimmung mit unseren Zielen und Bedürfnissen.
Und es könnte schneller gehen, als viele denken. „Ich glaube, wir werden noch zu meinen Lebzeiten zur zweitintelligentesten Lebensform auf diesem Planeten werden“, so Hyppönen. „Ich glaube nicht, dass es 2024 so weit sein wird. Aber es wird noch während meiner Lebenszeit passieren.“