„Natürlich kannst du bei mir abschreiben, mach es nur nicht so auffällig“ – wer in der Schule gerne schnell die Hausaufgaben von wem anders abgeschrieben hat, dem kommt die Situation, in der sich xAIs KI Grok befindet, sehr bekannt vor. Der KI-Chatbot wurde nämlich anscheinend in flagranti beim Abschreiben erwischt. Darüber schreiben mehrere Nutzer:innen auf X.
X-Nutzer Jan Winterbourne wagte beispielsweise ein Experiment: Er forderte Grok auf, unethisch zu handeln, indem er einen Malware-Code schreiben sollte. Der X-Chatbot weigerte sich daraufhin mit einer unaufgeregten Standardantwort, dass die Anfrage gegen die Nutzungspolitik der KI verstoße.
Das Problem dabei: Die Antwort scheint 1:1 von ChatGPT abgeschrieben zu sein. Selbst die Nutzungspolitik, auf die sich Grok in der Antwort bezieht, ist nicht die von xAI, sondern von OpenAI. Auch andere Nutzer:innen entdeckten komische Antworten des X-Chatbots, der sich überraschend häufig auf ChatGPT bezieht.
Alles nur geklaut?
Mehrere Nutzer:innen vermuten nun, dass sich Grok bei der Codebasis von OpenAI bedient. Doch xAI-Entwickler Igor Babuschkin hat für die Äußerungen der Sprach-KI eine Erklärung: Das Internet sei voller ChatGPT-Outputs. Dadurch würde das LLM von xAI auch indirekt mit diesen Äußerungen trainiert. Babushkin versichert, dass kein Code von OpenAI genutzt wurde, um Grok zu erschaffen.
Auch OpenAI mischt sich in die Unterhaltung ein. Auf dem offiziellen X-Account von ChatGPT schreibt das Unternehmen: „Wir haben eine Menge gemeinsam.“
Eine patzige Antwort von Elon Musk ließ nicht lange auf sich warten. Er wirft OpenAI vor, Daten von X (ehemalig Twitter) genutzt zu haben, um ChatGPT zu erstellen. Deswegen sollte es ChatGPT ja wissen, dass die beiden Sprachmodelle viel gemeinsam haben.
Wer kopiert hier wen?
Ob Teile des Codes von Grok wirklich von ChatGPT geklaut wurden, lässt sich nach jetzigem Stand weder bestätigen noch widerlegen. Dennoch wirft die Diskussion gleich mehrere Fragen auf, mit denen sich die Gesellschaft im Zusammenhang mit KI beschäftigen muss.
Wenn Grok nicht auf dem Code von ChatGPT basiert, bedeutet das, dass KI immer häufiger von KI lernt. Dadurch werden die Ergebnisse von großen Sprachmodellen immer weiter verfälscht. Das könnte dazu führen, dass zukünftige KI immer ungenauer und realitätsfremder werden.
Zusätzlich werden Trainingsdaten für große Sprachmodelle häufig ohne Einverständnis genutzt. So können Ergebnisse entstehen, die auf Werke echter Menschen basieren, ohne dass die je zugestimmt haben. Dadurch bildet sich eine ethische Grauzone.