KI als Teammitglied: Klügere Entscheidungen oder mehr Komplexität?

Ihre Einbettung als aktives Mitglied in Teams aus Fach- und Führungskräften hat das Potenzial, die Arbeitswelt grundlegend zu verändern. KI unterstützt Teams nicht mehr nur – sie wird selbst Teil davon. Die zentrale Frage ist daher: Führt das auch zu besseren Entscheidungen?
Chancen und Risiken für Teamentscheidungen
KI kann Inhalte generieren, Informationen bereitstellen und komplexe Entscheidungsprozesse unterstützen. Dabei entsteht ein Spannungsfeld zwischen den Chancen und Risiken für die Qualität von Teamentscheidungen: Einerseits können KI-Teammitglieder Inhalte generieren, Informationen bereitstellen und Entscheidungsprozesse unterstützen.
Andererseits besteht die Gefahr, dass sie unvollständige oder verzerrte Informationen generieren (sogenannte Halluzinationen). Für menschliche Teammitglieder ist es oft schwer, richtige von falschen Inhalten zu unterscheiden. Die Folge: Die Qualität der Entscheidungen kann leiden, statt sich zu verbessern.
Eine jüngst erschienene Studie der Universität Mannheim von Dr. Désirée Zercher und Prof. Dr. Armin Heinzl gemeinsam mit Koautoren ( TU Darmstadt und ehemals KIT) zeigt, dass dieses Risiko besonders dann zunimmt, wenn KI-Empfehlungen schwer nachvollziehbar sind.
Der Knackpunkt ist die soziale Validierung: Menschen vertrauen KI-generierten Informationen nur dann, wenn sie diese mit ihrem eigenen Wissen überprüfen können. Fehlt diese Möglichkeit, entstehen Misstrauen und Ablehnung und die potenziellen Vorteile der KI werden ausgehebelt.
Experimentelle Untersuchung
Um diese Zusammenhänge besser zu verstehen, führten die Forschenden eine experimentelle Studie auf Basis des Informationsasymmetriemodells durch. Ziel war es, zu untersuchen, ob und unter welchen Bedingungen KI die Entscheidungsqualität von Teams tatsächlich verbessert und inwiefern dies vom Wissensstand des KI-Mitglieds abhängt.
Das Modell beschreibt ein zentrales Problem vieler Teams: Der Wissensstand ist oft unzureichend und Informationen sind häufig ungleich verteilt. Dies führt zur verzerrter Informationsverarbeitung im Entscheidungsprozess und suboptimalen Ergebnissen.
Verglichen wurden drei Konstellationen:
- Rein menschliche Teams
- Teams mit einer zentral informierten KI, die über alle relevanten Informationen verfügte
- Teams mit einer asymmetrisch informierten KI, deren Wissen vergleichbar mit dem der menschlichen Teammitglieder unvollständig war
Ergebnis: Teams mit zentral informierter KI profitieren am meisten
Die Ergebnisse zeigen, dass die Einbettung von KI-Teammitgliedern menschliche Entscheidungsverzerrungen in beiden KI-Wissenskonfigurationen reduziert. Allerdings profitiert am Ende nur das Team mit der zentral informierten KI wesentlich. In diesen Teams half die KI, zwei typische Verhaltensweisen menschlicher Teammitglieder zu überwinden: das Festhalten an anfänglichen Positionen und der Wunsch, nur bereits bekanntes Wissen zu diskutieren. Indem sie konsequent die von den menschlichen Teammitgliedern am stärksten abgelehnte Alternative empfahl, regte sie die Teams dazu an, ihren Fokus zu erweitern und bisher unberücksichtigte Datenpunkte in ihre Abwägung einzubeziehen. Die KI wirkte dabei als Katalysator für eine objektivere Informationsverarbeitung und kompensierte menschliche kognitive Begrenzungen.
Entscheidend war jedoch ein Faktor: Vertrauen. Dies entstand nur dann, wenn die Teammitglieder die Beiträge der KI nachvollziehen und überprüfen konnten. War dies der Fall, wurden die KI-Informationen stärker in den Entscheidungsprozess integriert, was zu besseren Ergebnissen führte.
Wenn KI-Wissen begrenzt ist: Mehr Zweifel als Unterstützung
Ein anderes Bild zeigte sich bei Teams mit asymmetrischem KI-Wissen. In diesen Teams konnten die von der KI eingebrachten Inhalte nicht vollständig überprüft werden. Das Vertrauen in die KI sank entsprechend. Zwar wurden die Beiträge der KI diskutiert, am Ende jedoch häufig verworfen. Stattdessen verließen sich die Teams auf menschliche Einschätzungen und Mehrheitspräferenzen, selbst wenn diese fehlerhaft waren. Der Mangel an sozialer Validierung führte zu Misstrauen und zu einem übermäßig kritischen Umgang mit der KI. In diesen Fällen löste KI im Entscheidungsprozess keine Probleme – sie schuf zusätzliche Unsicherheit.
Implikationen für Unternehmen
Die Ergebnisse machen deutlich: Die Integration von KI in Teams ist nicht nur eine technologische Herausforderung.
Bei der Integration von KI in Entscheidungsprozesse sind psychologische und soziale Interaktionseffekte zwischen Menschen und Maschine zu berücksichtigen. Dazu gehört, gezielt die Voraussetzungen zu schaffen, sodass:
- eingesetzte KI-Systeme transparent und zuverlässig arbeiten,
- Mitarbeitende über die notwendigen KI-Kompetenzen verfügen, um effektiv mit KI-Teammitgliedern zusammenzuarbeiten,
- die KI Zugriff auf relevante Daten hat und
- KI-Beiträge für menschliche Teammitglieder nachvollziehbar und überprüfbar sind.
Ohne diese Voraussetzungen wird KI eher als fehleranfälliges Werkzeug und nicht als wertvolles Teammitglied wahrgenommen.
- Den vollständigen Forschungsbericht können Sie hier lesen.
- Dr. Désirée Zerchers Forschung zu KI-Teammitgliedern wird mit dem renommierten Südwestmetall-Dissertationspreis ausgezeichnet.
Sehen Sie sich das Video zur Forschung an. - Weitere Forschungsarbeiten derselben Autoren zu diesem Thema: