Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

In vielen Unternehmen darf ChatGPT mitentscheiden, wer entlassen wird

Laut einer Umfrage aus den USA nutzen zwei Drittel der Personalverantwortlichen Chatbots, um über Kündigungen zu entscheiden. Ist der Einsatz von KI im HR-Bereich legitim – oder ethisch fragwürdig?

Von Noëlle Bölling
2 Min.
Artikel merken
Anzeige
Anzeige
Sollten KI-Tools bei Personalentscheidungen einbezogen werden dürfen? (Bild: 4 PM production/ Shutterstock)

KI verändert zunehmend die Art und Weise, wie Menschen ihre Arbeit ausführen. Dass das auch für die Personalabteilung gilt, zeigt eine Umfrage, über die Futurism berichtet. Insgesamt wurden 1.342 HR-Führungskräfte in den USA befragt. Viele von ihnen gaben an, Tools wie ChatGPT nicht nur bei Entscheidungen über Beförderungen und Gehaltserhöhungen, sondern auch bei Kündigungen einzubeziehen.

Anzeige
Anzeige

Wie hilfreich ist KI in der Personalabteilung?

Seit der flächendeckenden Verbreitung von Chatbots und anderen KI-Tools wird immer wieder diskutiert, wie viele Arbeitsplätze mittel- und langfristig an die neue Technologie verloren gehen. Dario Amodei, CEO von Anthropic, geht sogar davon aus, dass Millionen gut bezahlte Bürojobs ChatGPT, Gemini und Co. zum Opfer fallen werden, was zu einer Arbeitslosenquote von 20 Prozent führen könnte. Neu ist allerdings, dass die KI auch im Entscheidungsprozess dorthin eine entscheidende Rolle spielt.

Im Rahmen der Umfrage der US-amerikanischen Plattform Resume Builder gaben 78 Prozent der HR-Expert:innen zu, dass sie große Sprachmodelle um Rat zu fragen, um Gehaltserhöhungen festzulegen. Mit 77 Prozent entscheiden sie fast genauso oft mit, wenn es um Beförderungen geht. Mehr als die Hälfte der Entscheidungsträger:innen nutzt hierfür ChatGPT von OpenAI. Microsofts Copilot und Gemini von Google landeten in der Umfrage auf dem zweiten und dritten Platz.

Anzeige
Anzeige

Wenn der Chatbot entscheidet, wer gehen muss

KI-Tools kommen laut der Befragung auch zum Einsatz, um Stellen abzubauen. Zwei Drittel der HR-Fachkräfte gaben an, KI-Tools hätten ihnen schon einmal dabei geholfen, Entscheidungen über Entlassungen zu treffen. Weitere 64 Prozent ließen sich von dem Bot außerdem beraten, wie bei der Kündigung vorzugehen sei. Besonders beunruhigend ist dabei die Tatsache, dass jede fünfte HR-Fachkraft der KI bei wichtigen Personalentscheidungen sogar das letzte Wort überlässt, ohne zusätzliches Feedback von menschlichen Kolleg:innen einzuholen.

Zwar können KI-Tools viele Aufgaben erleichtern oder beschleunigen, es gibt allerdings noch immer zahlreiche Risiken: Studien zeigen, dass Chatbots dazu neigen, die Meinungen der Nutzer:innen zu verstärken. Wenn ein:e HR-Manager:in also schon zu einer Kündigung tendiert, kann der Bot diese Entscheidung legitimieren, ohne dass potenzielle Gegenargumente angeführt werden. Dieses Phänomen wird in der KI-Forschung auch als „Sycophancy“ bezeichnet. Ein weiteres Problem sind Halluzinationen: Große Sprachmodelle präsentieren ihre Antworten nämlich sehr selbstbewusst, obwohl diese inhaltlich häufig falsch sind.

Die Kompetenz von KI-Tools darf nicht überbewertet werden

KI kann bei der Analyse großer Datenmengen und der Identifikation von Mustern hilfreich sein und somit auch die Personalabteilung entlasten. Wenn es aber um die Zukunft von Mitarbeiter:innen geht, sollte der Mensch immer die letzte Instanz bleiben. Sprachmodelle wie ChatGPT sind weder neutral, noch handeln sie verantwortungsbewusst. Was als Effizienzgewinn beginnt, kann sich im HR-Bereich deshalb schnell in ein ethisches Minenfeld verwandeln. Personalverantwortliche sollten KI mit Bedacht verwenden – und Tools wie ChatGPT eher als Werkzeug und nicht als Entscheidungsträger verstehen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren