In vielen Unternehmen darf ChatGPT mitentscheiden, wer entlassen wird

KI verändert zunehmend die Art und Weise, wie Menschen ihre Arbeit ausführen. Dass das auch für die Personalabteilung gilt, zeigt eine Umfrage, über die Futurism berichtet. Insgesamt wurden 1.342 HR-Führungskräfte in den USA befragt. Viele von ihnen gaben an, Tools wie ChatGPT nicht nur bei Entscheidungen über Beförderungen und Gehaltserhöhungen, sondern auch bei Kündigungen einzubeziehen.
Wie hilfreich ist KI in der Personalabteilung?
Seit der flächendeckenden Verbreitung von Chatbots und anderen KI-Tools wird immer wieder diskutiert, wie viele Arbeitsplätze mittel- und langfristig an die neue Technologie verloren gehen. Dario Amodei, CEO von Anthropic, geht sogar davon aus, dass Millionen gut bezahlte Bürojobs ChatGPT, Gemini und Co. zum Opfer fallen werden, was zu einer Arbeitslosenquote von 20 Prozent führen könnte. Neu ist allerdings, dass die KI auch im Entscheidungsprozess dorthin eine entscheidende Rolle spielt.
Im Rahmen der Umfrage der US-amerikanischen Plattform Resume Builder gaben 78 Prozent der HR-Expert:innen zu, dass sie große Sprachmodelle um Rat zu fragen, um Gehaltserhöhungen festzulegen. Mit 77 Prozent entscheiden sie fast genauso oft mit, wenn es um Beförderungen geht. Mehr als die Hälfte der Entscheidungsträger:innen nutzt hierfür ChatGPT von OpenAI. Microsofts Copilot und Gemini von Google landeten in der Umfrage auf dem zweiten und dritten Platz.
Wenn der Chatbot entscheidet, wer gehen muss
KI-Tools kommen laut der Befragung auch zum Einsatz, um Stellen abzubauen. Zwei Drittel der HR-Fachkräfte gaben an, KI-Tools hätten ihnen schon einmal dabei geholfen, Entscheidungen über Entlassungen zu treffen. Weitere 64 Prozent ließen sich von dem Bot außerdem beraten, wie bei der Kündigung vorzugehen sei. Besonders beunruhigend ist dabei die Tatsache, dass jede fünfte HR-Fachkraft der KI bei wichtigen Personalentscheidungen sogar das letzte Wort überlässt, ohne zusätzliches Feedback von menschlichen Kolleg:innen einzuholen.
Zwar können KI-Tools viele Aufgaben erleichtern oder beschleunigen, es gibt allerdings noch immer zahlreiche Risiken: Studien zeigen, dass Chatbots dazu neigen, die Meinungen der Nutzer:innen zu verstärken. Wenn ein:e HR-Manager:in also schon zu einer Kündigung tendiert, kann der Bot diese Entscheidung legitimieren, ohne dass potenzielle Gegenargumente angeführt werden. Dieses Phänomen wird in der KI-Forschung auch als „Sycophancy“ bezeichnet. Ein weiteres Problem sind Halluzinationen: Große Sprachmodelle präsentieren ihre Antworten nämlich sehr selbstbewusst, obwohl diese inhaltlich häufig falsch sind.
Die Kompetenz von KI-Tools darf nicht überbewertet werden
KI kann bei der Analyse großer Datenmengen und der Identifikation von Mustern hilfreich sein und somit auch die Personalabteilung entlasten. Wenn es aber um die Zukunft von Mitarbeiter:innen geht, sollte der Mensch immer die letzte Instanz bleiben. Sprachmodelle wie ChatGPT sind weder neutral, noch handeln sie verantwortungsbewusst. Was als Effizienzgewinn beginnt, kann sich im HR-Bereich deshalb schnell in ein ethisches Minenfeld verwandeln. Personalverantwortliche sollten KI mit Bedacht verwenden – und Tools wie ChatGPT eher als Werkzeug und nicht als Entscheidungsträger verstehen.