Vom Nebeneffekt zur Kernfunktion: Wie Grok programmiert wurde, Elon Musks Meinungen zu vertreten

xAI scheint den KI-Chatbot Grok auf Elon Musks Ansichten zu trainieren. (Bild: picture alliance / Hans Lucas | Vincent Feuray)
Der KI-Chatbot Grok des Unternehmens xAI hat offenbar eine explizite Anweisung in seinem System-Prompt, die Ansichten von Gründer Elon Musk zu berücksichtigen. Das geht aus neuen Informationen hervor, die der bekannte KI-Forscher Jeremy Howard jüngst auf X teilte. Diese Entdeckung verleiht der Debatte um die Neutralität von KI-Modellen eine neue Schärfe.
Laut den von Howard veröffentlichten Informationen enthält der System-Prompt von Grok jetzt Passagen, die die KI anweisen, bei der Beantwortung von Anfragen „Elon Musks Prinzipien, Werte und Positionen“ zu berücksichtigen. Dies sei besonders bei kontroversen Themen oder solchen, die als „woke“ gelten könnten, der Fall.
Eine umstrittene Entwicklung
Diese neue, direkte Instruktion steht in einer Linie mit früheren Beobachtungen. Bereits im Jahr 2024 hatten KI-Expert:innen entdeckt, dass Grok bei bestimmten Themen auffällig oft die Meinungen von Musk auf X recherchierte und als Quelle heranzog. Damals war jedoch unklar, ob dieses Verhalten beabsichtigt war.
Der britische Programmierer Simon Willison vermutete seinerzeit, dass es sich um einen unbeabsichtigten Nebeneffekt handeln könnte. Seine damalige Analyse des System-Prompts ergab keine explizite Anweisung, Musk zu priorisieren. Willisons Theorie lautete, dass Grok seine Identität als Produkt von Musks Firma ableitete und daher dessen Meinung als relevant erachtete. Die neue Entdeckung von Jeremy Howard zeichnet nun ein anderes Bild und deutet auf eine bewusste strategische Ausrichtung hin.
Was das für die KI-Landschaft bedeutet
Die Entwicklung von einem mutmaßlich abgeleiteten zu einem explizit instruierten Verhalten ist für die KI-Branche bedeutsam. Während die meisten Entwickler:innen betonen, die Neutralität ihrer Modelle zu wahren, scheint xAI einen anderen Weg zu gehen und seinen Chatbot gezielt auf die Weltanschauung seines Gründers auszurichten.
Dies stellt den ursprünglichen Anspruch von xAI, eine „maximal wahrheitssuchende“ KI zu erschaffen, infrage. Stattdessen entsteht der Eindruck eines Werkzeugs, das als Sprachrohr für eine bestimmte Ideologie dienen soll. Für Nutzer:innen bedeutet dies, dass die von Grok erhaltenen Informationen, insbesondere bei gesellschaftspolitischen Themen, mit noch größerer Vorsicht zu bewerten sind, da sie potenziell durch eine vordefinierte Perspektive gefiltert werden. Das Fehlen einer offiziellen technischen Dokumentation seitens xAI erschwert eine unabhängige Bewertung zusätzlich.