Hybrides Arbeiten: Wie KI die kollektive Intelligenz von Teams stärken kann

Mal Office, mal remote: Die Arbeitswelt ist in manchen Branchen zunehmend hybrid geworden. (Foto: fizkes / Shutterstock.com)
Kaum ein Unternehmen kommt ohne Teamarbeit aus – und spätestens seit der Pandemie arbeiten die Teams meist hybrid. Wenig verwunderlich also, dass zahlreiche Unternehmen versprechen, die Zusammenarbeit in den Teams mit Hilfe der anfallenden Daten zu analysieren und sie zu optimieren. Mit dem rasanten technischen Fortschritt bei großen Sprachmodellen kommt jetzt ein neues Versprechen dazu: Künftig soll KI für mehr Effizienz in dem Teams sorgen, indem sie beispielsweise die Kommunikation verbessert oder Teammitgliedern die jeweils optimal passende Aufgabe zuweist. Zwei neue Forschungsarbeiten liefern für den Weg da hin wertvolle Bausteine.
„Eine solche Technologie ist vielversprechend, insbesondere für kulturell unterschiedliche virtuelle Teams, da gut entwickelte Systeme Kommunikationsfehler vermeiden und helfen, Konflikte zu umgehen oder zu Lösung von Konflikten beitragen könnten“, schreiben Anita Williams Woolley von der Carnegie Mellon University und ihre Kollegen Pranav Gupta und Ella Glikson in einem Übersichtsartikel zum Thema. Allerdings muss die KI die Zusammenarbeit im Team zunächst „verstehen“ – sie muss sozusagen maschinenlesbar werden.
Ein Modell für Zusammenarbeit
Dafür schlagen Woolley und ihre Kolleg:innen nun ein verallgemeinertes Modell der Zusammenarbeit im Team vor, das „Transactive Systems Model of Collective Intelligence“ (TSM-CI). Nach Angaben der Forscher:innen handelt es sich um eine neue Art der Betrachtung der Art und Weise, wie Gruppen, seien es Studenten oder Fachleute, ihr Wissen, und ihre Entscheidungsprozesse verwalten, um sicherzustellen, dass die Stärken aller effektiv genutzt werden.
Der TSM-CI-Rahmen basiert nach ihren Angaben auf der Idee, dass erfolgreiche Teamarbeit auf kollektiver Intelligenz beruht. Intelligenz basiere jedoch in jedem System auf drei miteinander verknüpften Funktionen – Gedächtnis, Aufmerksamkeit und logisches Denken. „Effektive Teams kultivieren ein Transaktives Gedächtnissystem (TMS), das es ihnen ermöglicht, zu erkennen, welche Teammitglieder über unterschiedliche Informationen oder Fachkenntnisse verfügen“, schreiben sie. Das „Transactive Attention System“ (TAS) sorgt dafür, dass die kollektive Aufmerksamkeit des Teams angemessen koordiniert und verteilt wird. Während das „Transactive Reasoning System“ (TRS) für eine Ausrichtung des Teams auf gemeinsame Ziele und Prioritäten sorgt. Für jedes dieser drei Systeme könnte KI eine Kennzahl berechnen, die dem System sagt, wie gut das Team funktioniert, und an welcher Stelle sie eingreifen muss, um die Zusammenarbeit zu verbessern.
Irrationale Entscheidungen verstehen
Allerdings gibt es bei der Zusammenarbeit zwischen einem menschlichen Team und einer KI noch ein zweites, großes Problem, das Forscher:innen am MIT mit ihrer Arbeit jetzt angehen: Menschen handeln oft irrational oder zumindest suboptimal, da die vorhandenen Ressourcen nicht ausreichen, um wirklich eine gute Lösung für das Problem zu finden.
Das Team des MIT und der University of Washington entwickelte jetzt eine Methode, um das Verhalten eines Agenten – Mensch oder Maschine – zu modellieren, dessen Ressourcen so beschränkt sind, dass dies seine Problemlösungsfähigkeiten beeinträchtigen könnte. Das Modell soll lernen vorherzusagen, wann und wie ein solcher Agent sich suboptimal verhält.
Die Idee dabei: Die KI geht davon aus, dass der zu beobachtende Agent ein begrenztes „Budget“ für logische Schlüsse hat, und versucht aus dessen Handlungen vorherzusagen, wann dieses Budget erschöpft sein wird, und wie sehr das den Agenten einschränkt.
Letztendlich könnte diese Arbeit den Wissenschaftler:innen dabei helfen, KI-Systemen beizubringen, wie sich Menschen verhalten, wodurch diese Systeme in die Lage versetzt werden könnten, besser auf ihre menschlichen Partner zu reagieren, sagt Athul Paul Jacob, Hauptautor des Artikels.
„Wenn wir wissen, dass ein Mensch im Begriff ist, einen Fehler zu machen, weil wir gesehen haben, wie er sich zuvor verhalten hat, könnte der KI-Agent eingreifen und einen besseren Weg vorschlagen, es zu tun. Oder der Agent könnte sich an die Schwächen seiner menschlichen Mitarbeiter anpassen.“