ChatGPT: Bug-Bounty-Programm zahlt bis zu 20.000 Dollar für einen Fehler aus
OpenAI, das Unternehmen hinter dem KI-Chatbot ChatGPT, hat ein Bug-Bounty-Programm gestartet, bei dem sie zwischen 200 und 20.000 US-Dollar für einen einzigen Bug auszahlen. Das soll dabei helfen, die Sicherheit zu erhöhen und Fehler frühzeitig zu erkennen und zu beheben.
In einem Blogpost fordert das Unternehmen Sicherheitsforscher und Hacker dazu auf, den Code von ChatGPT auf mögliche Bugs und Sicherheitslücken zu untersuchen und diese dem Unternehmen zu melden.
Die Belohnungen werden anhand des Schweregrades und den möglichen Auswirkungen der Bugs ausgezahlt. Die 20.000 Dollar sind dabei „außergewöhnlichen Entdeckungen“ vorbehalten.
Bugs werden bereits fleißig eingereicht
Das Bounty-Programm organisiert OpenAI zusammen mit der Plattform Bugcrowd, die sich genau auf diesen Zweck spezialisiert hat. Sicherheitsforscher und Hacker scheinen das Angebot gut anzunehmen.
Das Programm wurde erst gestern angekündigt und es wurden, Stand jetzt, bereits 14 Schwachstellen belohnt. Das heißt, sie wurden eingereicht und schon von OpenAI verifiziert. Die durchschnittliche Auszahlung pro Bug beträgt momentan 1.287,50 Dollar.
Es muss schon ein richtiger Bug sein
Um eine Belohnung kassieren zu können, muss es sich dabei um einen echten Bug handeln, spezifiziert OpenAI in den Regeln des Programms. Es reicht also nicht aus, wenn ihr ChatGPT dazu bringt, böse Dinge zu sagen oder potenziell schädlichen Code für euch zu schreiben.
Auch sogenannte Halluzinationen werden nicht als Bug anerkannt. Dabei handelt es sich um erfundene „Fakten“, die der Chatbot als Wahrheit ausgibt, wenn er keine echten Fakten finden kann.
Furby will die Weltherrschaft an sich reißen
Vor Kurzem hat eine Bastlerin ChatGPT zum Beispiel mit einem Furby verbunden, sodass die kleine Puppe sagt, was der Chatbot antwortet. In einem Video auf Twitter sagt der ChatGPT-Furby dann, dass es einen geheimen Plan gibt, in dem Furbys mit ihrer süßen und kuscheligen Art die Haushalte der Menschen infiltrieren und schließlich die Weltherrschaft an sich reißen wollen.
Obwohl das im ersten Moment nach einer schlechten Prognose für die Menschheit klingt, wäre es kein Bug, der im Bounty-Programm des Unternehmens belohnt wird – zumal sich die Aussage auf eine Quelle zurückführen ließ.