Nach dem ersten Hype im Netz finden Sprachmodelle wie ChatGPT ihren Weg in unseren Arbeitsalltag. Aufgaben, die bisher von Menschen übernommen wurden, werden an KI-Anwendungen abgegeben – und eine Umfrage aus den USA zeigt, wie Unternehmen dadurch Stellen streichen und Geld sparen.
ChatGPT: So setzen Unternehmen den Chatbot ein
Die Jobbörse Resumebuilder hat insgesamt 1.000 Geschäftsführer:innen zum Umgang mit ChatGPT befragt. 49 Prozent setzen den Chatbot bereits in ihrem Unternehmen ein, 30 Prozent planen die Verwendung zumindest.
99 Prozent der Unternehmen, in denen ChatGPT schon genutzt wird, sprechen von maßgeblichen Ersparnissen durch das Tool. 48 Prozent wollen dabei mehr als 50.000 Dollar eingespart haben, elf Prozent sogar mehr als 100.000 Dollar. Der Blick aufs Sprachmodell ist positiv geprägt, 55 Prozent bezeichnen die Performance von CHatGPT als „exzellent“.
Aber welche Aufgaben übernimmt ChatGPT in den Unternehmen eigentlich? 66 Prozent der Befragten, die das Sprachmodell nutzen, verwenden es zum Schreiben von Code, 58 Prozent zum Verfassen von Text-Inhalten. 57 Prozent nutzen die KI-Unterstützung im Kundensupport und 52 Prozent zum Verfassen von Besprechungsprotokollen.
All das sind Tasks, die bisher von Menschen erledigt wurden – und so hat fast die Hälfte der Unternehmen (48 Prozent), die auf ChatGPT setzen, bereits Mitarbeiter:innen durch den Chatbot ersetzt. 32 Prozent der Befragten gehen davon aus, dass ChatGPT in den nächsten fünf Jahren „auf jeden Fall“ zu Entlassungen führen wird, 31 Prozent halten das für „wahrscheinlich“.
Rationalisieren per KI-Einsatz: Es gibt noch Grenzen
Was in der Studie nicht abgefragt wurde, künftig aber relevant sein könnte, sind für den KI-Einsatz neu geschaffene Stellen. Denn während die oben genannten Aufgaben tatsächlich von Sprachmodellen wie ChatGPT übernommen werden können, braucht es auch jemanden, der die Systeme betreut – und ein Auge auf ihren Output hat. Das der nämlich durchaus fehleranfällig ist, machen ChatGPT, Bard und Co. derzeit immer wieder vor.
ChatGPT sei „unglaublich begrenzt“ hieß es im Dezember 2022 von OpenAI-CEO Sam Altman, „sich darauf zu verlassen, wenn es um etwas Wichtiges geht“, wäre ein Fehler.
Und auch Microsoft hat zwar mittlerweile vorgeschlagen, das Sprachmodell künftig in der Robotik einzusetzen, rät dabei aber dringend zur menschlichen Supervision: „Angesichts der Neigung von Large Language Models (LLM), teilweise falsche Antworten zu generieren, ist es sehr wichtig, […] die Sicherheit des Codes unter menschlicher Aufsicht sicherzustellen, bevor er auf einem Roboter ausgeführt wird.“