Anzeige
Anzeige
News

KI-Hype: Dieser Zukunftsjob könnte bald schon wieder Geschichte sein

Mit dem Aufstieg von KI-Tools wie ChatGPT sind Prompt-Engineers plötzlich heiß begehrt. Ihre Aufforderungen sollen die besten Ergebnisse aus den Chatbots herausholen – doch erfolgreicher ist jemand anders.

Von Ann-Catherin Karg
2 Min.
Artikel merken
Anzeige
Anzeige
Laut einer neuen Studie könnten es Prompt-Engineers künftig schwer haben. (Foto: Gorodenkoff/Shutterstock)

Prompt-Engineering heißt ein noch ziemlich junges Berufsbild, das der Boom der KI-Technologie hervorgebracht hat. Die KI-Expert:innen schreiben die Eingabeaufforderungen für Chatbots wie ChatGPT, die auf dieser Grundlage die bestmöglichen Ergebnisse liefern sollen.

Anzeige
Anzeige

Ein Job mit idealen Zukunftsaussichten, dachten Branchenkenner:innen und Headhunter:innen eine Zeit lang – und könnten mit ihrer Einschätzung genau falsch gelegen haben.

Sprachmodelle können besser funktionieren, wenn sie sich erklären müssen

Genau das legt eine Studie mit dem Titel „The Unreasonable Effectiveness of Eccentric Automatic Prompts“ („Die unerklärliche Wirksamkeit exzentrischer automatischer Prompts“) des Cloud-Computing-Unternehmens VMware aus Kalifornien nahe. Darin widmeten sich die Wissenschaftler:innen um Teja Gollapudi und Rick Battle der Frage, wie sich die Antworten der großen Sprachmodelle (LLM) optimieren lassen.

Anzeige
Anzeige

Dabei fielen ihnen zunächst zwei Dinge auf. Erstens: Die Leistung verbesserte sich in manchen Fällen nach der an das Modell gerichteten Bitte, die Überlegungen nach der Chain of Thought genannten Technik Schritt für Schritt zu erklären.

Die KI kann sich selbst am besten optimieren

Und zweitens: Die generativen KI-Tools reagierten besonders gut auf positiv formulierte Aufforderungen. Konkret zeigte die KI bessere Leistungen, nachdem die Eingabeaufforderung mit einem Satz wie „Das wird lustig“ eingeleitet worden war.

Anzeige
Anzeige

Das Ergebnis, das vor allem Prompt-Engineers aber am meisten umtreiben dürfte, war ein ganz anderes. Denn tatsächlich waren die Ergebnisse dann am besten, wenn das Sprachmodell aufgefordert wurde, sich selbst eine optimale Aufforderung auszudenken.

Ganz ohne Menschen geht es nicht

Die von der KI automatisch generierten Prompts funktionierten besser und ließen sich auch besser verallgemeinern, so die Forscher:innen, die zudem die Schnelligkeit dieses Prozesses betonten. Laut Rick Battle lässt das nur den Schluss zu, dass Prompts künftig nicht mehr von Menschen optimiert werden sollten.

Anzeige
Anzeige

Allerdings bedeutet das nicht, dass KI-Tools künftig ganz ohne Menschen auskommen würden. Gegenüber der Zeitschrift IEEE Spectrum gab Battle KI-Expert:innen den Tipp: „Entwickeln Sie einfach eine Bewertungsmetrik, damit das System selbst erkennen kann, ob eine Aufforderung besser ist als eine andere, und lassen Sie das Modell sich selbst optimieren.“

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (8)

Community-Richtlinien

NanoPolymer

Ein Prompt-Engineer steht irgendwie im Widerspruch zu den einfach zu bedienenden KI Tools die aus natürlichen Texteingaben Inhalte erzeugen.

Wenn ich erst einen „Experten“ brauche um das ganze zu Bedienen stimmt halt entweder das Marketing nicht oder der Job war halt von Anfang an reiner Quatsch.

DocF

Prompt-Engineering ist ja eigentlich nicht das „Ausprobieren verschiedener Formulierungen derselben Frage, bis die beste gefunden ist“. Dazu braucht es kein Engineering.

Vielmehr ist Prompt-Engineering eine Technik, um vortrainierte Modelle nicht bei jeder veränderten Sachlage neu trainieren zu müssen. Dummes Beispiel: Man hat ein Modell trainiert, um grinsende Katzen zu erkennen. Jetzt will man grinsende Hunde erkennen, aber das Neu-Trainieren wäre zu teuer. Stattdessen wandelt man im Kamerabild auftretende Hunde „in Katzen um“ und nutzt das bereits vorhandene Modell. Viel billiger – zwar nicht in diesem Beispiel, aber bei aufwändigen Modellen durchaus.

Prompt-Engineering hieße hier, mit minimalem Aufwand „Hunde in Katzen umwandeln“, wobei die nicht für Menschen realistisch aussehen müssen, sondern nur hinreichend für das vortrainierte Grinsekatzenmodell. Dito sinngemäß bei LLMs.

Michi

Genauso schnell wird der Blödsinn mit dem „:innen“ wieder verschwinden …

Daniel C

Danke, das dachte ich mir auch gerade. Der Lesefluß leidet enorm darunter; hatte keine Lust den Artikel durchzulesen.

Peter

wird leider noch etwas dauern, aber zum Glück gibt es schon KI – in diesem Fall eher Algorithmen – die diesen Quatsch vor dem Anzeigen rausfiltert und wieder normalisiert. Absurd wird das Ganze dann, wenn Autoren ihre Texte per KI genderisieren und die Leser die Artikel per KI dann wieder de-genderisieren. Brave New World.

Barney

Data Scientist, Prompt Engineer und wie sie auch alle heißen…, vom Grunde auf alles Bullshit-Jobs.

Thomas

werde gegenderte Artikel nicht mehr lesen

man sollte sich mal fragen, warum man das macht und ob es seinem zweck erfüllt

nach dem ersten :innen aufgehört zu lesen

Peter

Muss diese dumme Genderkacke wirklich sein? Habe t3n nun abbestellt.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige