ChatGPT antwortet schlecht? OpenAIs neuer Prompt Optimizer zeigt, woran es liegt
Der neue Prompt Optimizer von OpenAI im Playground präzisiert Eingaben für GPT-5 und erklärt, warum die optimierten Prompts besser funktionieren. (Bild: Shutterstock | Svet foto)
Anfang August rollte OpenAI endlich das KI-Modell GPT-5 aus. Dieses ist das neue Standardmodell für ChatGPT und leistungsfähiger als alle bisherigen.
„So etwas wie GPT‑5 zu haben, wäre zu jedem früheren Zeitpunkt in der Geschichte so gut wie unvorstellbar gewesen“,
so Sam Altman, CEO des Unternehmens. GPT-5 soll in vielen Belangen besser sein als die vorangegangenen Modelle, etwa beim Coding, beim Texten und beim visuellen Verständnis. Deshalb kann beispielsweise ChatGPT fortan noch bessere Antworten und Inhalte liefern. Doch der Output hängt nach wie vor stark vom Input der User ab, also von den Prompts. Während es zahlreiche Tipps zur spezifischen Prompt-Optimierung gibt, bieten die KI-Unternehmen hinter Chatbots und KI-Diensten oft eigene Optimierungs-Tools. Schon 2024 hat beispielsweise Anthropic einen Prompt Optimizer für Claude eingeführt. OpenAI hat kürzlich ebenfalls eine Version für ChatGPT bereitgestellt, die Prompts für den Output mit den Modellen GPT-5, GPT-4.1 und o3 verbessert. Diesen Prompt Optimizer kannst du auch kostenfrei testen.
So funktioniert der neue OpenAI Prompt Optimizer
Im OpenAI Playground können User inzwischen den Prompt Optimizer nutzen, um ihre Prompts für ein Modell ihrer Wahl optimieren zu lassen. Zusätzlich erhalten sie Erklärungen, die die Verbesserung nachvollziehbar machen. Im Web können User über die Plattformseite zum Optimizer gelangen und auch ohne Abonnement, aber mit Anmeldung, Prompts eingeben und diese optimieren lassen. Wir haben das für ein simples Beispiel ausprobiert. Der Original-Prompt lautete:
„Show me the way to make compelling Linkedin posts, please!“
Optimiert für GPT-5, präzisierte das Tool die Aussage zunächst: „Provide clear steps for creating compelling Linkedin posts.“ Dann folgte noch eine Ergänzung zur Formatvorgabe: „Format your response as a numbered list.“
Textfeldsymbole am Rand der optimierten Prompts liefern konzise Erklärungen zur Verbesserung. Außerdem können sich User die Änderungen im Detail anschauen, in grüner Schrift.
Diese Optimierungen funktionieren aber ebenso bei komplexeren Prompts, etwa im Kontext der Code-Generierung oder Problembehebung. Ein Beispiel liefert AI-Experte Dr. Alvaro Cintas auf Threads.
Grundsätzlich bedeutet die Integration des Prompt Optimizers im Playground als Interface für Developer, dass das Tool vor allem für Entwickler:innen gedacht sein dürfte, die dort ihre Prompts für verschiedene Prozesse integrieren. Raj Pathak und Corwin Cheung erklären im OpenAI Cookbook, wie die Prompt-Migration und -Verbesserung auch bei komplexen Anfragen im Detail verläuft. Sie schreiben einleitend:
„The GPT-5 Family of models are the smartest models we’ve released to date, representing a step change in the models’ capabilities across the board. GPT-5 is particularly specialized in agentic task performance, coding, and steerability, making it a great fit for everyone from curious users to advanced researchers. GPT-5 will benefit from all the traditional prompting best practices, but to make optimizations and migrations easier, we are introducing the GPT-5 Prompt Optimizer in our Playground to help users get started on improving existing prompts and migrating prompts for GPT-5 and other OpenAI models.“
Wer in diesem Kontext operiert, kann den Prompt Optimizer umfassend einsetzen. Für die ausführliche Nutzung im Playground über einen Test hinaus braucht es aber ein kostenpflichtiges Abonnement. Der AI-Experte Sindre Wimberger lieferte auf Linkedin kürzlich ein Beispiel für die Nutzung.
Alternativ zu diesem Optimizer kannst du verschiedene Prompting Guides nutzen – wir haben auch ein paar Tipps in petto – und dich im Gespräch mit den AI-Chatbots im konversationellen Kontext von besseren Prompting-Optionen überzeugen lassen.
Der Artikel stammt von Niklas Lewanczik aus der OnlineMarketing.de-Redaktion und wird im Rahmen einer Content-Kooperation auf t3n veröffentlicht.