Wie ein Hacker mit ChatGPT eine Sicherheitslücke gefunden hat
ChatGPT ist vom amerikanischen Unternehmen OpenAI entwickelt worden und basiert auf dem Sprachmodell GPT-3. Stellt man der Künstlichen Intelligenz Fragen, gibt sie darauf direkte Antworten – keine Auswahl von Links, wie Beispielsweise die Google-Suchmaschine.
Das Anwendungsfeld von ChatGPT ist sehr groß – und kann anscheinend sogar im digitalen Sicherheits-Sektor behilflich sein.
ChatGPT war Hacker doppelt behilflich
Der französische White-Hat-Hacker Lupin hat auf ChatGPT gebaut, als er ein Softwaresystem eines Krankenhauses geprüft hat.
White-Hat-Hacker:innen agieren als mietbare Hacker:innen und testen ständig die Informationsinfrastruktur von Unternehmen, um sicherzustellen, dass keine Sicherheitslücken vorhanden sind. Damit helfen sie den Unternehmen, sich vor den schädlichen Black-Hat-Hacker:innen zu schützen.
Lupin hat den Programmcode des zu untersuchenden Softwaresystems bei ChatGPT eingegeben – und davon profitiert. Denn der Chatbot erklärte ihm nicht nur den Code, sondern wies ihn auch auch auf potentielle Angriffsstellen hin und half so, Schwachstellen in System zu identifizieren, wie Gamestar berichtet. In einem französischen Youtube-Video erklärte Lupin sein Vorgehen:
Auch Facebook-Sicherheitslücke entdeckt
In dem Video erläutert der Hacker auch, wie er ChatGPT mit dem Programmcode von Facebook gefüttert hat und die KI dort eine Sicherheitslücke gefunden hat, die vergangenes Jahr entdeckt worden war. ChatGPT lieferte sogar den Programmcode, der die Lücke durchbrechen konnte.
Für die Entdeckung der Facebook-Sicherheitslücke hatte der White-Hat-Hacker Youssef Sammouda 38.000 Euro vom US-Konzern erhalten. Ob auch Lupin vom Krankenhaus für seine Entdeckung bezahlt wurde, blieb unbeantwortet.
ChatGPT-Aussagen seien manchmal „falsch und unsinnig“
ChatGPT werde die „Art der Arbeit“ verändern, sagte Nicolas Flores-Herr vom Fraunhofer Institut gegenüber dem WDR. Er findet, KI sei eine ähnlich weitreichende Revolution wie das Internet. Allerdings warnen er und andere Wissenschaftler:innen auch davor, dass ChatGPT nicht immer einwandfrei funktioniere.
„ChatGPT liefert plausibel klingende Aussagen. Sie sind aber manchmal, wenn man näher hineinschaut, falsch und unsinnig“, warnte etwa Christian Schlereth, der Leiter des Lehrstuhls für Digitales Marketing an der WHU in Düsseldorf, im Gespräch mit dem WDR.
Früher hießen die Bösen mal Cracker? Die Guten entsprechend Hacker (vom Hackbrett). Irgendwann sind die Definitionen dann in einander geflossen.