Hybrides Arbeiten: Wie KI die kollektive Intelligenz von Teams stärken kann
Kaum ein Unternehmen kommt ohne Teamarbeit aus – und spätestens seit der Pandemie arbeiten die Teams meist hybrid. Wenig verwunderlich also, dass zahlreiche Unternehmen versprechen, die Zusammenarbeit in den Teams mit Hilfe der anfallenden Daten zu analysieren und sie zu optimieren. Mit dem rasanten technischen Fortschritt bei großen Sprachmodellen kommt jetzt ein neues Versprechen dazu: Künftig soll KI für mehr Effizienz in dem Teams sorgen, indem sie beispielsweise die Kommunikation verbessert oder Teammitgliedern die jeweils optimal passende Aufgabe zuweist. Zwei neue Forschungsarbeiten liefern für den Weg da hin wertvolle Bausteine.
„Eine solche Technologie ist vielversprechend, insbesondere für kulturell unterschiedliche virtuelle Teams, da gut entwickelte Systeme Kommunikationsfehler vermeiden und helfen, Konflikte zu umgehen oder zu Lösung von Konflikten beitragen könnten“, schreiben Anita Williams Woolley von der Carnegie Mellon University und ihre Kollegen Pranav Gupta und Ella Glikson in einem Übersichtsartikel zum Thema. Allerdings muss die KI die Zusammenarbeit im Team zunächst „verstehen“ – sie muss sozusagen maschinenlesbar werden.
Ein Modell für Zusammenarbeit
Dafür schlagen Woolley und ihre Kolleg:innen nun ein verallgemeinertes Modell der Zusammenarbeit im Team vor, das „Transactive Systems Model of Collective Intelligence“ (TSM-CI). Nach Angaben der Forscher:innen handelt es sich um eine neue Art der Betrachtung der Art und Weise, wie Gruppen, seien es Studenten oder Fachleute, ihr Wissen, und ihre Entscheidungsprozesse verwalten, um sicherzustellen, dass die Stärken aller effektiv genutzt werden.
Der TSM-CI-Rahmen basiert nach ihren Angaben auf der Idee, dass erfolgreiche Teamarbeit auf kollektiver Intelligenz beruht. Intelligenz basiere jedoch in jedem System auf drei miteinander verknüpften Funktionen – Gedächtnis, Aufmerksamkeit und logisches Denken. „Effektive Teams kultivieren ein Transaktives Gedächtnissystem (TMS), das es ihnen ermöglicht, zu erkennen, welche Teammitglieder über unterschiedliche Informationen oder Fachkenntnisse verfügen“, schreiben sie. Das „Transactive Attention System“ (TAS) sorgt dafür, dass die kollektive Aufmerksamkeit des Teams angemessen koordiniert und verteilt wird. Während das „Transactive Reasoning System“ (TRS) für eine Ausrichtung des Teams auf gemeinsame Ziele und Prioritäten sorgt. Für jedes dieser drei Systeme könnte KI eine Kennzahl berechnen, die dem System sagt, wie gut das Team funktioniert, und an welcher Stelle sie eingreifen muss, um die Zusammenarbeit zu verbessern.
Irrationale Entscheidungen verstehen
Allerdings gibt es bei der Zusammenarbeit zwischen einem menschlichen Team und einer KI noch ein zweites, großes Problem, das Forscher:innen am MIT mit ihrer Arbeit jetzt angehen: Menschen handeln oft irrational oder zumindest suboptimal, da die vorhandenen Ressourcen nicht ausreichen, um wirklich eine gute Lösung für das Problem zu finden.
Das Team des MIT und der University of Washington entwickelte jetzt eine Methode, um das Verhalten eines Agenten – Mensch oder Maschine – zu modellieren, dessen Ressourcen so beschränkt sind, dass dies seine Problemlösungsfähigkeiten beeinträchtigen könnte. Das Modell soll lernen vorherzusagen, wann und wie ein solcher Agent sich suboptimal verhält.
Die Idee dabei: Die KI geht davon aus, dass der zu beobachtende Agent ein begrenztes „Budget“ für logische Schlüsse hat, und versucht aus dessen Handlungen vorherzusagen, wann dieses Budget erschöpft sein wird, und wie sehr das den Agenten einschränkt.
Letztendlich könnte diese Arbeit den Wissenschaftler:innen dabei helfen, KI-Systemen beizubringen, wie sich Menschen verhalten, wodurch diese Systeme in die Lage versetzt werden könnten, besser auf ihre menschlichen Partner zu reagieren, sagt Athul Paul Jacob, Hauptautor des Artikels.
„Wenn wir wissen, dass ein Mensch im Begriff ist, einen Fehler zu machen, weil wir gesehen haben, wie er sich zuvor verhalten hat, könnte der KI-Agent eingreifen und einen besseren Weg vorschlagen, es zu tun. Oder der Agent könnte sich an die Schwächen seiner menschlichen Mitarbeiter anpassen.“
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team