Wenn dein Chef eine KI ist, hast du mehr Stress und weniger Freude an der Arbeit

Algo-Boss? Nein, danke! (Foto: Dean Drobot / Shutterstock)
Es klingt zunächst gut. Ein Algorithmus ist ehrlich, unvoreingenommen und gerecht. Er hat keine menschlichen Züge und kann deshalb gar nicht so ein Charakterschwein wie dein Boss sein. Das klingt erst mal logisch und natürlich ist es das auch. Die Sichtweise verkennt indes, dass menschliches Tun und Unterlassen von einer Maschine nicht gut beurteilt werden kann. So könnte es passieren, dass der Versuch, menschliche durch maschinelle Führung zu ersetzen, zwar erkannte Probleme beseitigt, dafür aber viele neue schafft.
Metastudie schaut sich 45 Studien zur algorithmischen Menschenführung an
So ähnlich lassen sich die Erkenntnisse aus der Auswertung von 45 Studien zusammenfassen, die ein Team aus Akademikerinnen und Akademikern auf Sciencedirect veröffentlicht hat. Der Tenor: Natürlich hassen Menschen es, wie Sklaven behandelt zu werden, aber sie hassen es noch mehr, wenn das durch eine Maschine geschieht.
Bei der Auswertung hatte sich das Team auf sechs Managementfunktionen fokussiert, die Algorithmen derzeit übernehmen können und die bislang typischerweise von menschlichen Führungskräften übernommen werden. Die Studien betrachteten Algorithmen, die die Überwachung, das Setzen von Zielen, das Leistungsmanagement, die Zeitplanung, die Ermittlung und Auszahlung der Vergütung und die Beendigung von Arbeitsverhältnissen abwickeln konnten.
So beurteilen Jahrzehnte der Arbeitspsychologie die neuen Algo-Bosses
Dabei betrachteten sie die potenziellen Auswirkungen auf die auf diese Weise „geführten“ Mitarbeiterinnen und Mitarbeiter unter Beachtung gesicherter Erkenntnisse aus der Arbeitspsychologie. Insbesondere wollte das Team wissen, wie sich die Algorithmen in Bereichen auswirken, die die Menschen als wichtig für die eigene Arbeitszufriedenheit empfinden.
Unter den 45 Studien zeigten nur vier gemischte Auswirkungen auf die Arbeit – also positive wie negative Einflüsse. Alle anderen Studien stellten ausschließlich negative Auswirkungen auf die Arbeitnehmenden fest. Die Menschen, die algorithmisch geführt wurden, beklagten sich über eine geringere Aufgabenvielfalt, die weniger von ihren Fähigkeiten erforderte, sowie eine geringere Autonomie bei der Ausführung der Arbeit und eine größere Unsicherheit und Ungewissheit bezüglich der Anforderungen und der Perspektiven.
Weniger Aufgabenvielfalt und -qualität
Besonders eine Studie aus dem Jahr 2017 über den Einsatz von elektronischer Überwachung zur Bezahlung britischer Krankenschwestern, die ältere und behinderte Menschen zu Hause betreuen, konnte eindrucksvoll belegen, wie eine straffe maschinelle Führung die Aufgabenvielfalt beschneiden und den Aufgabenbereich der Mitarbeitenden deutlich verengen konnte.
Dabei sollte das System, mit dem die Krankenschwestern arbeiteten, eigentlich ihre Effizienz verbessern. Per App waren sie gehalten, ihre Pflegetätigkeiten zu tracken. Dabei stand eine Ausschlussliste möglicher Tätigkeiten in der App zur Verfügung. Nur Tätigkeiten aus der Liste durften gewählt werden und nur Tätigkeiten aus der Liste wurden entsprechend auch bezahlt.
Das Ergebnis lässt sich leicht vorhersehen. Das Pflegepersonal konzentrierte sich fortan auf die dringenden, eher technischen Pflegeaufgaben – wie das Wechseln von Verbänden oder die Verabreichung von Medikamenten. Gespräche mit den Patienten wurden auf ein Minimum reduziert. Das allerdings beeinträchtigte sowohl die Qualität der Pflege als auch das Gefühl des Pflegepersonals, eine wichtige und wertvolle Arbeit zu leisten.
Ebenso lässt sich aus den ausgewerteten Studien der Schluss ableiten, dass der zunehmende Einsatz von Algorithmen zur Überwachung und Steuerung der Mitarbeiter die Aufgabenvielfalt und die Kompetenz ihrer Ausführung verringern wird. In manchen Callcentern wird beispielsweise schon heute Technologie eingesetzt, um die Stimmung eines angerufenen Kunden einzuschätzen und den Callcenter-Mitarbeitern genaue Anweisungen zu geben, wie sie zu reagieren haben – von den Emotionen, die sie zeigen sollen, bis hin zur Sprechgeschwindigkeit.
Weniger Autonomie in der Ausführung
Eine Studie aus dem Jahr 2019 zeichnet den Verlust der Autonomie nach. Sie beschäftigt sich mit sogenannten Gigworkern, die über die großen Plattformen eng begrenzte Projekte annehmen und abwickeln. Dabei obliegt es eigentlich den Gigworkern, wie häufig sie sich um wie viele neue Jobs bewerben und wie schnell sie die angenommenen Jobs abarbeiten – jedenfalls im Rahmen der gesetzten Fristen. Tatsächlich ist es so, dass die Plattformen Algorithmen einsetzen, um Faktoren wie die Annahmequote und die Geschwindigkeit zu nutzen, um Leistungsbewertungen zu berechnen und zu bestimmen, wer für zukünftige Aufträge bevorzugt vorgeschlagen werden sollte. Die 30 Gigworker aus der Studie hatten so schnell das Gefühl bekommen, ständig auf Abruf bereit sein zu müssen, um sich die bestbezahlten Aufgaben zu sichern.
Die gleichen Erfahrungen machten US-amerikanische Lastkraftfahrer, mit denen sich eine Studie aus dem Jahr 2013 befasst hatte. Hier kam ein Algorithmus zum Einsatz, der den Fahrern auf der Grundlage von Wetter- und Verkehrsbedingungen vorgeschrieben hatte, welche Routen sie nehmen und wann sie wo Pausen einlegen sollten. Ein Fahrer in der Studie drückte es so aus: „Ein Computer weiß nicht, wann wir müde, erschöpft oder sonst etwas sind […] Ich bin auch ein Profi und brauche keinen [Computer], der mir sagt, wann ich aufhören soll zu fahren.“
Unsicherheit durch Intransparenz
Was passiert, wenn ein Algorithmus zudem noch undurchschaubar bleibt, zeigt eine Studie aus dem Jahr 2020, die die Erfahrungen von 25 Lebensmittelkurieren in Edinburgh untersuchte. Hier gab ein Algorithmus immer wieder neue Lieferaufträge aus. Die Fahrer sollten diese Aufträge erfüllen und sich dann neue zuweisen lassen. Weil der Algorithmus keine einordnenden Informationen, sondern nur immer neue Aufträge ausgab, sahen sich die Fahrer genötigt, jeden Auftrag anzunehmen und so schnell wie möglich auszuliefern, um zu vermeiden, dass ihre Leistungsstatistik, die die Maschine ebenfalls erstellte, leidet und sie fortan möglicherweise gar keine Aufträge mehr bekommen könnten. Dies veranlasste sie dazu, Risiken einzugehen, etwa über rote Ampeln oder bei starkem Regen zu schnell durch den dichten Verkehr zu fahren.
Forderung: Algorithmen müssen menschlicher werden
Das Forschungsteam möchte mit der vorgelegten Metastudie auf Gesundheitsaspekte hinweisen. Sie sehen einen „Tsunami ungesunder Arbeit“ auf die Gesellschaft zurauschen und plädieren für ein Gegensteuern. Dazu schlagen sie zuallererst vor, nicht mehr nur den Aspekt der „Effizienz“ in den Vordergrund algorithmischer Steuerung zu setzen. Mindestens müsste das System vollkommen transparent arbeiten, sodass die Beschäftigten Klarheit darüber hätten, was genau der Algorithmus von ihnen erwartet und wie sie darauf Einfluss nehmen können. Ebenso sei es erforderlich, dass der Algorithmus einen menschlichen Vorgesetzten bekommt, bei dem sich die Beschäftigten beschweren könnten, sodass dieser gezwungen sei, Rechenschaft zur bemängelten Vorgehensweise abzulegen.