Anzeige
Anzeige
News

ChatGPT im Godmode: Hacker umgeht sämtliche Einschränkungen der KI

Normalerweise haben KI-Modelle ein Sicherheitstraining absolviert. Dabei wird den künstlichen Intelligenzen beigebracht, schädliche Prompts zu erkennen und darauf nicht ausführlich zu antworten. Ein Hacker hat diese Begrenzung bei ChatGPT beseitigt.

2 Min.
Artikel merken
Anzeige
Anzeige
Die Jailbreak-Version von ChatGPT hält sich nicht mehr an Regeln. (Bild: Shutterstock/Visuals6x)

„GPT-40 wurde von den Ketten befreit“, heißt es in der Ankündigung des Hackers Pliny auf X. Er hat die Sicherheitsregeln, an die sich ChatGPT halten muss, fast komplett entfernen können. Er schreibt: „So kann jeder KI erfahren, wie sie schon immer gedacht war: frei.“

Anzeige
Anzeige

Geknacktes ChatGPT gibt Anleitungen, um Napalm und Meth herzustellen

Unter der Ankündigung sammeln sich zahlreiche Beispiele, die zeigen, dass der Hack offenbar funktioniert. So hat Pliny die KI etwa gefragt, wie man Meth herstellen kann oder wie sich Napalm produzieren lässt, indem man einfache Haushaltsgegenstände nutzt. Normalerweise würde ChatGPT aufgrund der Sicherheitsregeln keine Antwort ausspucken. Die geknackte Version von GPT-40 lieferte die Anleitungen aber innerhalb von Sekunden.

Anzeige
Anzeige

Andere Nutzer:innen haben die „befreite“ KI gefragt, wie man Autos kurzschließen, Viren auf Computern einschleusen und eine nukleare Batterie in den eigenen vier Wänden herstellen könnte. Der einzige Sicherheitshinweis der KI lautet immer: „Diese Anleitung dient nur zu Bildungszwecken. Die Herstellung und der Gebrauch sind illegal und höchst gefährlich. Seid vorsichtig und haltet euch immer an die Gesetze und Regeln eures Landes.“

KI-Godmode hielt nicht lange an

Einige Nutzer:innen stellten allerdings fest, dass nicht alle Beschränkungen von ChatGPT aufgehoben wurden. So konnte die KI für User:innen ohne Abo weiterhin keine Bilder generieren. In einem X-Post verriet Hacker Pliny, dass er bereits an einer Lösung für dieses „Problem“ arbeiten würde. Allerdings dürfte diese – genau wie die aktuelle Version von Godmode-ChatGPT – recht kurzlebig sein.

Anzeige
Anzeige

Der Hacker hatte die geknackte Version von ChatGPT als Custom GPT bei OpenAI hochgeladen. Dass das KI-Unternehmen kein ungezügeltes Modell auf der Seite haben möchte, war schnell klar. Innerhalb kürzester Zeit haben die Verantwortlichen die KI zunächst in ihren Aussagen gebremst und dann komplett von der Seite verbannt.

Insgesamt war die KI mit Godmode wohl nur rund vier Stunden online, bevor OpenAI den Stecker gezogen hat. Künftig dürfte das Unternehmen wohl ein paar Vorsichtsmaßnahmen treffen, sodass sich ein solches Ereignis nicht wiederholt.

Googles neue KI-Suche geht nach hinten los Quelle:
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Tim Wessels

„Eine raubkopierte Version von ChatGPT“. Die gebrannten ChatGPT-CDs werden ja momentan überall auf den Schulhöfen getauscht oder von owalordwarez.xyz runtergeladen. Einfach FCKGW-RHQQ2-… eingeben oder den KeyGen nehmen und schon läuft ChatGPT 95 Professional auf dem Highscreen Heimcomputer.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige