KI-Hype: Dieser Zukunftsjob könnte bald schon wieder Geschichte sein
Prompt-Engineering heißt ein noch ziemlich junges Berufsbild, das der Boom der KI-Technologie hervorgebracht hat. Die KI-Expert:innen schreiben die Eingabeaufforderungen für Chatbots wie ChatGPT, die auf dieser Grundlage die bestmöglichen Ergebnisse liefern sollen.
Ein Job mit idealen Zukunftsaussichten, dachten Branchenkenner:innen und Headhunter:innen eine Zeit lang – und könnten mit ihrer Einschätzung genau falsch gelegen haben.
Sprachmodelle können besser funktionieren, wenn sie sich erklären müssen
Genau das legt eine Studie mit dem Titel „The Unreasonable Effectiveness of Eccentric Automatic Prompts“ („Die unerklärliche Wirksamkeit exzentrischer automatischer Prompts“) des Cloud-Computing-Unternehmens VMware aus Kalifornien nahe. Darin widmeten sich die Wissenschaftler:innen um Teja Gollapudi und Rick Battle der Frage, wie sich die Antworten der großen Sprachmodelle (LLM) optimieren lassen.
Dabei fielen ihnen zunächst zwei Dinge auf. Erstens: Die Leistung verbesserte sich in manchen Fällen nach der an das Modell gerichteten Bitte, die Überlegungen nach der Chain of Thought genannten Technik Schritt für Schritt zu erklären.
Die KI kann sich selbst am besten optimieren
Und zweitens: Die generativen KI-Tools reagierten besonders gut auf positiv formulierte Aufforderungen. Konkret zeigte die KI bessere Leistungen, nachdem die Eingabeaufforderung mit einem Satz wie „Das wird lustig“ eingeleitet worden war.
Das Ergebnis, das vor allem Prompt-Engineers aber am meisten umtreiben dürfte, war ein ganz anderes. Denn tatsächlich waren die Ergebnisse dann am besten, wenn das Sprachmodell aufgefordert wurde, sich selbst eine optimale Aufforderung auszudenken.
Ganz ohne Menschen geht es nicht
Die von der KI automatisch generierten Prompts funktionierten besser und ließen sich auch besser verallgemeinern, so die Forscher:innen, die zudem die Schnelligkeit dieses Prozesses betonten. Laut Rick Battle lässt das nur den Schluss zu, dass Prompts künftig nicht mehr von Menschen optimiert werden sollten.
Allerdings bedeutet das nicht, dass KI-Tools künftig ganz ohne Menschen auskommen würden. Gegenüber der Zeitschrift IEEE Spectrum gab Battle KI-Expert:innen den Tipp: „Entwickeln Sie einfach eine Bewertungsmetrik, damit das System selbst erkennen kann, ob eine Aufforderung besser ist als eine andere, und lassen Sie das Modell sich selbst optimieren.“
Ein Prompt-Engineer steht irgendwie im Widerspruch zu den einfach zu bedienenden KI Tools die aus natürlichen Texteingaben Inhalte erzeugen.
Wenn ich erst einen „Experten“ brauche um das ganze zu Bedienen stimmt halt entweder das Marketing nicht oder der Job war halt von Anfang an reiner Quatsch.
Prompt-Engineering ist ja eigentlich nicht das „Ausprobieren verschiedener Formulierungen derselben Frage, bis die beste gefunden ist“. Dazu braucht es kein Engineering.
Vielmehr ist Prompt-Engineering eine Technik, um vortrainierte Modelle nicht bei jeder veränderten Sachlage neu trainieren zu müssen. Dummes Beispiel: Man hat ein Modell trainiert, um grinsende Katzen zu erkennen. Jetzt will man grinsende Hunde erkennen, aber das Neu-Trainieren wäre zu teuer. Stattdessen wandelt man im Kamerabild auftretende Hunde „in Katzen um“ und nutzt das bereits vorhandene Modell. Viel billiger – zwar nicht in diesem Beispiel, aber bei aufwändigen Modellen durchaus.
Prompt-Engineering hieße hier, mit minimalem Aufwand „Hunde in Katzen umwandeln“, wobei die nicht für Menschen realistisch aussehen müssen, sondern nur hinreichend für das vortrainierte Grinsekatzenmodell. Dito sinngemäß bei LLMs.
Genauso schnell wird der Blödsinn mit dem „:innen“ wieder verschwinden …
Danke, das dachte ich mir auch gerade. Der Lesefluß leidet enorm darunter; hatte keine Lust den Artikel durchzulesen.
wird leider noch etwas dauern, aber zum Glück gibt es schon KI – in diesem Fall eher Algorithmen – die diesen Quatsch vor dem Anzeigen rausfiltert und wieder normalisiert. Absurd wird das Ganze dann, wenn Autoren ihre Texte per KI genderisieren und die Leser die Artikel per KI dann wieder de-genderisieren. Brave New World.
Data Scientist, Prompt Engineer und wie sie auch alle heißen…, vom Grunde auf alles Bullshit-Jobs.
werde gegenderte Artikel nicht mehr lesen
man sollte sich mal fragen, warum man das macht und ob es seinem zweck erfüllt
nach dem ersten :innen aufgehört zu lesen
Muss diese dumme Genderkacke wirklich sein? Habe t3n nun abbestellt.