Anzeige
Anzeige
News
Verpasse keine News mehr!

GhostGPT: Diese KI spielt Cyberkriminellen besonders in die Hände

Sicherheitsexpert:innen schlagen wegen einer KI Alarm. Dabei handelt es sich um eine künstliche Intelligenz, die speziell für Hacker:innen entwickelt wurde und ihnen bei diversen Cyberverbrechen helfen soll.

2 Min.
Artikel merken
Anzeige
Anzeige
Hacker:innen können die KI nutzen, um diverse Cyberverbrechen zu begehen. (Bild: Shutterstock/BeeBright)

Normalerweise haben KI-Modelle Sicherheitsrichtlinien, an die sie sich halten müssen. Erst kürzlich hat OpenAI seine Richtlinien aktualisiert und damit einige kontroverse Themen leichter zugänglich gemacht. Doch dabei hat das Unternehmen erneut betont, dass künstliche Intelligenz User:innen nicht bei Verbrechen oder deren Vorbereitung unterstützen soll.

Anzeige
Anzeige

GhostGPT: Eine KI für Cyberkriminelle

Aber offenbar müssen Cyberkriminelle nicht mehr auf ChatGPT oder andere KI-Modelle zurückgreifen und versuchen, diese per Jailbreak zu knacken, damit sie ihnen helfen. Wie die Sicherheitsexpert:innen von Abnormal Security berichten, gibt es eine eigene KI für Cyberkriminelle, die den Namen GhostGPT trägt. Sie hat keinerlei Sicherheitsvorkehrungen und hilft Nutzer:innen dabei, Phishing-Mails zu verfassen, Code für Malware zu erstellen oder sich Tipps für Cyberangriffe einzuholen.

In einem Test haben die Sicherheitsexpert:innen GhostGPT gebeten, eine Phishing-Mail für den Dienst Docusign zu verfassen. Der Service für elektronische Signaturen lässt User:innen Verträge digital unterschreiben und rechtskonform versenden. Die Mail behauptet, dass es ein neues Dokument gäbe und User:innen den angefügten Link klicken müssen, um es zu unterschreiben. Die Mail wirkt echt, hat keinerlei Rechtschreibfehler und warnt User:innen sogar vor falschen URLs und Dokumenten, die sie nicht kennen.

Anzeige
Anzeige

An GhostGPT ist zudem besorgniserregend, wie leicht sich die KI für Cyberkriminelle nutzen lässt. Die Zahlung und Nutzung erfolgt komplett über Telegram. Nachdem Kund:innen bezahlt haben, bekommen sie per Telegram-Bot Zugang zu der KI. Laut Dark Reading richten sich die Preise für die KI nach der Nutzungsdauer. So reichen sie von 50 US-Dollar für eine Woche bis zu 300 Dollar für drei Monate.

Gerade diese niedrige Einstiegshürde sorgt bei den Sicherheitsexpert:innen für große Besorgnis. Durch den einfachen Zugang können selbst unerfahrene Cyberkriminelle in kürzester Zeit Scam-Mails und schädlichen Code erstellen lassen. Dementsprechend könne auf ehrliche Internetnutzer:innen bald eine erhöhte Anzahl von Cyberangriffen zukommen, die durch KI gestützt sind.

Anzeige
Anzeige

Auf ihrer Website behaupten die Verantwortlichen hinter GhostGPT, dass ihr Programm hauptsächlich für Cybersecurity-Zwecke eingesetzt wird. Die Sicherheitsexpert:innen vermuten, dass die Cyberkriminellen damit rechtliche Maßnahmen gegen sie verhindern wollen. Einträge in zahlreichen Onlineforen für Cyberkriminelle, die für die KI werben, beweisen allerdings, dass sie ein anderes Zielpublikum im Visier haben.

Sinnvolle und weniger sinnvolle Passworttipps

Sinnvolle und weniger sinnvolle Tipps für Passwörter Quelle: Shutterstock/ Vitalii Vodolazskyi
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige