ChatGPT: Bug-Bounty-Programm zahlt bis zu 20.000 Dollar für einen Fehler aus

Hacker werden für das Finden von Bugs belohnt. (Foto: Shutterstock / Roman Samborskyi)
OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, hat ein Bug-Bounty-Programm gestartet, bei dem sie zwischen 200 und 20.000 US-Dollar für einen einzigen Bug auszahlen. Das soll dabei helfen, die Sicherheit zu erhöhen und Fehler frühzeitig zu erkennen und zu beheben.
In einem Blogpost fordert das Unternehmen Sicherheitsforscher und Hacker dazu auf, den Code von ChatGPT auf mögliche Bugs und Sicherheitslücken zu untersuchen und diese dem Unternehmen zu melden.
Die Belohnungen werden anhand des Schweregrades und den möglichen Auswirkungen der Bugs ausgezahlt. Die 20.000 Dollar sind dabei „außergewöhnlichen Entdeckungen“ vorbehalten.
Das Bounty-Programm organisiert OpenAI zusammen mit der Plattform Bugcrowd, die sich genau auf diesen Zweck spezialisiert hat. Sicherheitsforscher und Hacker scheinen das Angebot gut anzunehmen.
Das Programm wurde erst gestern angekündigt und es wurden, Stand jetzt, bereits 14 Schwachstellen belohnt. Das heißt, sie wurden eingereicht und schon von OpenAI verifiziert. Die durchschnittliche Auszahlung pro Bug beträgt momentan 1.287,50 Dollar.
Um eine Belohnung kassieren zu können, muss es sich dabei um einen echten Bug handeln, spezifiziert OpenAI in den Regeln des Programms. Es reicht also nicht aus, wenn ihr ChatGPT dazu bringt, böse Dinge zu sagen oder potenziell schädlichen Code für euch zu schreiben.
Auch sogenannte Halluzinationen werden nicht als Bug anerkannt. Dabei handelt es sich um erfundene „Fakten“, die der Chatbot als Wahrheit ausgibt, wenn er keine echten Fakten finden kann.
Vor Kurzem hat eine Bastlerin ChatGPT zum Beispiel mit einem Furby verbunden, sodass die kleine Puppe sagt, was der Chatbot antwortet. In einem Video auf Twitter sagt der ChatGPT-Furby dann, dass es einen geheimen Plan gibt, in dem Furbys mit ihrer süßen und kuscheligen Art die Haushalte der Menschen infiltrieren und schließlich die Weltherrschaft an sich reißen wollen.
Obwohl das im ersten Moment nach einer schlechten Prognose für die Menschheit klingt, wäre es kein Bug, der im Bounty-Programm des Unternehmens belohnt wird – zumal sich die Aussage auf eine Quelle zurückführen ließ.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team