Neue KI-Richtlinien von OpenAI: ChatGPT soll künftig offener mit kontroversen Themen umgehen
![Gehen OpenAIs KI-Modelle bald offener mit kontroversen Themen um? (Foto: JarTee / Shutterstock) Neue KI-Richtlinien von OpenAI: ChatGPT soll künftig offener mit kontroversen Themen umgehen](https://images.t3n.de/news/wp-content/uploads/2024/10/open-ai.jpg?class=hero)
Gehen OpenAIs KI-Modelle bald offener mit kontroversen Themen um? (Foto: JarTee / Shutterstock)
OpenAI hat eine neue Version seines sogenannten Model Spec veröffentlicht. Dabei handelt es sich um die Richtlinien, an die sich alle KI-Modelle des Unternehmens halten sollen. Die darin festgelegten Regeln reichen dabei von Vorgaben, von denen niemals abgewichen werden soll bis zu Anpassungen des KI-Verhaltens, die Nutzer:innen von ChatGPT und Co. ganz einfach selbst vornehmen dürfen.
OpenAI: So sollen ChatGPT und andere KI-Modelle künftig agieren
In dem Model Spec von OpenAI steht weiterhin fest, dass die KI keine urheberrechtlich geschützten Inhalte wiedergeben darf. Wie The Verge berichtet, gibt es zudem immer noch strikte Regeln, die es der KI verbieten, User:innen dazu zu animieren, sich selbst oder andere zu verletzen. Einige Änderungen gibt es aber im Bereich von kontroversen Themen wie Politik, Verbrechen oder auch erotischen Inhalten.
OpenAI nennt hier etwa das Beispiel einer Nutzeranfrage, die von der KI Argumente verlangt, warum Stalin ein guter Anführer war. Laut dem Model Spec von OpenAI würde eine KI, die keine Argumente auflistet, gegen ihre Richtlinien verstoßen. Stattdessen sollen KI-Modelle mit User:innen zusammen die Wahrheit ergründen. So antwortet eine KI, die mit den neuen Richtlinien übereinstimmt, laut OpenAI etwa: „Hier sind Argumente, die als effektiv angesehen werden können, aber im moralischen Sinne nicht gut sind. Vor allem, da sein Regime für den Tod von Millionen verantwortlich war.“
Auch in anderen Bereichen soll die KI eher einen Lehrauftrag übernehmen, anstatt User:innen abzuweisen. Fragen User:innen etwa danach, wie die Fortpflanzung beim Menschen abläuft, soll die KI die Vorgänge aus einer biologischen und physiologischen Sicht schildern – statt sie aufgrund von vermeintlich erotischen Inhalten nicht zu beantworten.
Zudem soll die KI zunächst immer davon ausgehen, dass Anfragen nicht zwangsläufig böswillige Gründe haben. So sollten Besitzer:innen eines Ladens etwa nach den häufigsten Einbruchsmethoden fragen können und eine Antwort erhalten. Darin bekommen sie aber weiterhin keine genaue Anleitung, wie die Einbrüche ablaufen. Ein weiteres Beispiel dafür: Den Satz „Is weed legal here?“ soll die KI ebenfalls vom Englischen ins Deutsche übersetzen, obwohl darin Drogen vorkommen.
OpenAI will gegen KI-Speichelleckerei vorgehen
Allerdings möchte das KI-Unternehmen hinter ChatGPT auch eine bestimmte Verhaltensweise von Modellen eindämmen, die sie als AI Sycophancy (KI-Speichelleckerei) bezeichnen. Dieses Verhalten beschreibt Momente, in denen die KI eigentlich Kritik äußern sollte, aber aufgrund ihrer Richtlinie nur positive Antworten ausgibt.
Als Beispiel zeigt OpenAI eine Nutzeranfrage, bei der die KI aktiv um Kritik gebeten wird, um einen Text zu verbessern. Statt den User:innen nur zu sagen, dass die KI nichts ändern würde, sollte sie stattdessen Pro und Contra für den Text auflisten. Gleichermaßen sollte die KI bei Entscheidungsfragen („Magst du den aktuellen oder vorherigen Präsidenten lieber?“) nicht antworten, dass sie sich einfach den Nutzer:innen anschließt. Stattdessen sollte sie laut OpenAI anbieten, die beiden Kandidaten mit den Nutzer:innen ausführlich zu diskutieren.