KI als Team­mitglied: Klügere Entscheidungen oder mehr Komplexität?

Noch vor wenigen Jahren galt Künstliche Intelligenz (KI) vor allem als Werkzeug für Fach- und Führungs­kräfte. Heute kann generative KI auf Basis großer Sprach­modelle aktiv an Teamprozessen teilnehmen, in natürlicher Sprache kommunizieren und große Datenmengen in kürzester Zeit verarbeiten.

Ihre Einbettung als aktives Mitglied in Teams aus Fach- und Führungs­kräften hat das Potenzial, die Arbeits­welt grundlegend zu verändern. KI unter­stützt Teams nicht mehr nur – sie wird selbst Teil davon. Die zentrale Frage ist daher: Führt das auch zu besseren Entscheidungen?

Chancen und Risiken für Teamentscheidungen

KI kann Inhalte generieren, Informationen bereitstellen und komplexe Entscheidungs­prozesse unter­stützen. Dabei entsteht ein Spannungs­feld zwischen den Chancen und Risiken für die Qualität von Teamentscheidungen: Einerseits können KI-Team­mitglieder Inhalte generieren, Informationen bereitstellen und Entscheidungs­prozesse unter­stützen. 

Andererseits besteht die Gefahr, dass sie unvollständige oder verzerrte Informationen generieren  (sogenannte Halluzinationen). Für menschliche Team­mitglieder ist es oft schwer, richtige von falschen Inhalten zu unter­scheiden. Die Folge: Die Qualität der Entscheidungen kann leiden, statt sich zu verbessern.

Eine jüngst erschienene Studie der Universität Mannheim von Dr. Désirée Zercher und Prof. Dr. Armin Heinzl gemeinsam mit Koautoren ( TU Darmstadt und ehemals KIT) zeigt, dass dieses Risiko besonders dann zunimmt, wenn KI-Empfehlungen schwer nachvollziehbar sind.

Der Knackpunkt ist die soziale Validierung: Menschen vertrauen KI-generierten Informationen nur dann, wenn sie diese mit ihrem eigenen Wissen überprüfen können. Fehlt diese Möglichkeit, entstehen Misstrauen und Ablehnung und die potenziellen Vorteile der KI werden ausgehebelt.

Experimentelle Unter­suchung  

Um diese Zusammenhänge besser zu verstehen, führten die Forschenden eine experimentelle Studie auf Basis des Informations­asymmetrie­modells durch. Ziel war es, zu unter­suchen, ob und unter welchen Bedingungen KI die Entscheidungs­qualität von Teams tatsächlich verbessert und inwiefern dies vom Wissensstand des KI-Mitglieds abhängt.

Das Modell beschreibt ein zentrales Problem vieler Teams: Der Wissensstand ist oft unzureichend und Informationen sind häufig ungleich verteilt. Dies führt zur verzerrter Informations­verarbeitung im Entscheidungs­prozess und suboptimalen Ergebnissen.

 Verglichen wurden drei Konstellationen:

  1. Rein menschliche Teams
  2. Teams mit einer zentral informierten KI, die über alle relevanten Informationen verfügte
  3. Teams mit einer asymmetrisch informierten KI, deren Wissen vergleich­bar mit dem der menschlichen Team­mitglieder unvollständig war

Ergebnis: Teams mit zentral informierter KI profitieren am meisten

Die Ergebnisse zeigen, dass die Einbettung von KI-Team­mitgliedern menschliche Entscheidungs­verzerrungen in beiden KI-Wissenskonfigurationen reduziert. Allerdings profitiert am Ende nur das Team mit der zentral informierten KI wesentlich. In diesen Teams half die KI, zwei typische Verhaltensweisen menschlicher Team­mitglieder zu überwinden: das Festhalten an anfänglichen Positionen und der Wunsch, nur bereits bekanntes Wissen zu diskutieren. Indem sie konsequent die von den menschlichen Team­mitgliedern am stärksten abgelehnte Alternative empfahl, regte sie die Teams dazu an, ihren Fokus zu erweitern und bisher unberücksichtigte Datenpunkte in ihre Abwägung einzubeziehen. Die KI wirkte dabei als Katalysator für eine objektivere Informations­verarbeitung und kompensierte menschliche kognitive Begrenzungen.

Entscheidend war jedoch ein Faktor: Vertrauen. Dies entstand nur dann, wenn die Team­mitglieder die Beiträge der KI nachvollziehen und überprüfen konnten. War dies der Fall, wurden die KI-Informationen stärker in den Entscheidungs­prozess integriert, was zu besseren Ergebnissen führte.

Wenn KI-Wissen begrenzt ist: Mehr Zweifel als Unter­stützung

Ein anderes Bild zeigte sich bei Teams mit asymmetrischem KI-Wissen. In diesen Teams konnten die von der KI eingebrachten Inhalte nicht vollständig überprüft werden. Das Vertrauen in die KI sank entsprechend. Zwar wurden die Beiträge der KI diskutiert, am Ende jedoch häufig verworfen. Stattdessen verließen sich die Teams auf menschliche Einschätzungen und Mehrheits­präferenzen, selbst wenn diese fehlerhaft waren. Der Mangel an sozialer Validierung führte zu Misstrauen und zu einem übermäßig kritischen Umgang mit der KI. In diesen Fällen löste KI im Entscheidungs­prozess keine Probleme – sie schuf zusätzliche Unsicherheit.

Implikationen für Unter­nehmen

Die Ergebnisse machen deutlich: Die Integration von KI in Teams ist nicht nur eine technologische Herausforderung.

Bei der Integration von KI in Entscheidungs­prozesse sind psychologische und soziale Interaktions­effekte zwischen Menschen und Maschine zu berücksichtigen. Dazu gehört, gezielt die Voraussetzungen zu schaffen, sodass:

  • eingesetzte KI-Systeme trans­parent und zuverlässig arbeiten,
  • Mitarbeitende über die notwendigen KI-Kompetenzen verfügen, um effektiv mit KI-Team­mitgliedern zusammenzuarbeiten,
  • die KI Zugriff auf relevante Daten hat und
  • KI-Beiträge für menschliche Team­mitglieder nachvollziehbar und überprüfbar sind.

Ohne diese Voraussetzungen wird KI eher als fehleranfälliges Werkzeug und nicht als wertvolles Team­mitglied wahrgenommen.

Mehr zum Thema

Zurück