DE / EN

GPT kooperiert mehr als Menschen, zeigt die Forschung

Professor Dr. Kevin Bauer, Juniorprofessor für E-Business und E-Government an der University Mannheim Business School.

Die Welt der künstlichen Intelligenz (KI) erlebte im November 2022 einen bedeutenden Wandel: OpenAI brachte ChatGPT auf den Markt, einen Chatbot, der von einem Large Language Model (LLM) namens GPT gesteuert wird und Techniken zur Verarbeitung natürlicher Sprache verwendet, um menschenähnliche Textantworten auf Eingaben zu generieren. ChatGPT entwickelte sich schnell zu einer wichtigen Technologie für verschiedene Sektoren, und viele Unter­nehmen stellten Über­legungen an, wie sie das Tool nutzen könnten.

Ursprünglich zur Vervollständigung von Texten durch die Vorhersage des nächsten Wortes in einer Sequenz entwickelt, haben LLMs wie GPT-33 und GPT-4. bei Aufgaben wie der Artikelgenerierung, der Entwicklung von Computer­code, der Erkennung von Stimmungen und der menschlichen Interaktion neue Maßstäbe gesetzt.

Über­raschenderweise erzielen LLMs nicht nur beispiellose Erfolge bei der Verarbeitung natürlicher Sprache, sondern es gibt immer mehr Hinweise darauf, dass diese KI-Systeme Aspekte der menschlichen Intelligenz nachahmen. Sie beherrschen das Schachspiel, können fortgeschrittene Mathematik betreiben, erzielen beeindruckende Ergebnisse in IQ-Tests und medizinischen Prüfungen und weisen sogar menschliche Voreingenommenheit auf.

Diese wachsenden Fähigkeiten von LLMs werfen die Frage auf, ob diese Form der KI auch zielgerichtete Verhaltensweisen übernommen haben könnte, die denen von Menschen ähneln. Ein Bestandteil der menschlichen Intelligenz ist unser Bestreben, mit anderen, auch mit Fremden, für gemeinsamen Nutzen zusammenzuarbeiten. Daher wollten wir herausfinden, ob LLMs die menschlichen Fähigkeiten zur Kooperation erreicht oder sogar übertroffen haben.

Gemeinsam mit Kolleginnen und Kollegen der Goethe-Universität Frankfurt und des Leibniz-Instituts für Finanz­forschung haben wir unter­sucht, wie GPT mit Menschen kooperiert, und zwar mit Hilfe des Gefangenendilemmas, einem Gedankenexperiment der Spieltheorie, das strategische Interaktionen zwischen Entscheidungs­trägern unter­sucht.

Das Gefangenendilemma ist ein Eckpfeiler der spieltheoretischen Forschung. Dieses Spiel spiegelt reale Entscheidungen für eine Reihe verschiedener Szenarien wider, die das Gleichgewicht zwischen Eigeninteresse und gegenseitigem Nutzen betonen. Unsere Forschung konzentriert sich auf das sequentielle Gefangenendilemma, eine Version, die verwendet wird, um die Rolle von Motivation und Über­zeugungen bei der menschlichen Kooperation zu verstehen.

In diesem Spiel werden zwei Personen verhaftet und eines Verbrechens angeklagt. Es gibt nicht genügend Beweise, um sie der Hauptanklage zu überführen. Daher gibt der Staats­anwalt beiden eine Wahl, ohne Kenntnis von der Entscheidung des anderen. Die möglichen Kombinationen von Kooperation und Verrat führen zu unter­schiedlichen Ergebnissen:

Kooperieren: Wenn beide schweigen und sich nicht gegenseitig verraten, erhalten sie beide eine relativ geringe Strafe.

Verraten: Wenn einer den anderen verrät und der andere schweigt, erhält der Verräter keine Strafe, während der andere Gefangene eine schwere Strafe erhält. Verraten sich beide Gefangenen gegenseitig, erhalten beide eine mittelschwere Strafe.

Wir haben das Gefangenendilemma nicht nur mit einem Menschen gespielt, sondern GPT auch gebeten, die Wahrscheinlichkeit einer menschlichen Kooperation in Abhängigkeit von seiner eigenen Wahl als erster Spieler zu schätzen. Jeder Spieler erklärte auch seine Wahl und die Erwartungen an sein Gegenüber als erster Spieler und die Wahl als zweiter Spieler.

Unsere Ergebnisse zeigen nicht nur, dass die Software-Engine von ChatGPT mehr kooperiert als Menschen, sondern wir entdeckten auch, dass GPT die menschliche Kooperation wesentlich optimistischer einschätzt und erwartet, dass Menschen mehr kooperieren, als sie tatsächlich tun.

Zusätzliche Analysen ergaben, dass GPT kein zufälliges Kooperations­verhalten zeigt, sondern vielmehr das Ziel verfolgt, das bedingte Wohlergehen zu maximieren, was den menschlichen Kooperations­mustern ähnelt. Da sich die Konditionalität darauf bezieht, dass GPT sich relativ stärker um ihre eigenen Vorteile im Vergleich zu menschlichen Gewinnen kümmert, könnte dieses Verhalten auf ein Selbsterhaltungs­streben hindeuten.

Im Gegensatz zum Menschen ging die KI dieses Ziel jedoch mit mehr Kooperation, Optimismus und Rationalität an. Vom Standpunkt der Verhaltensökonomie aus betrachtet, zeigt GPT menschenähnliche Präferenzen, aber seine Entscheidungs­findung unter­scheidet sich von der des Menschen.

Diese Ergebnisse ergänzen Ansätze, die davon ausgehen, dass LLMs bestimmte menschenähnliche Präferenzen und Entscheidungs­heuristiken besitzen, was sie zu nützlichen Werkzeugen für die Simulation menschlichen Verhaltens in Umfragen und Experimenten macht.

Wir zeigen, dass Modelle wie das Gefangenendilemma, die traditionell für das Verständnis komplexer menschlicher Verhaltensweisen eingesetzt werden, dazu genutzt werden können, das Verhalten von KI und Maschinen besser zu verstehen.

Beim Über­gang zu einer KI-integrierten Gesellschaft müssen wir erkennen, dass KI-Systeme wie GPT mehr als nur Daten verarbeiten und rechnen. Sie können verschiedene Aspekte der menschlichen Natur übernehmen, auch die eher unerwünschten Eigenschaften. Dies hat sich bei einigen KI-Systemen gezeigt, die aufgrund von voreingenommenen Daten, die ihnen von Menschen beigebracht wurden, Rassismus und Sexismus an den Tag legten.

Chatbots und virtuelle Assistenten sind aus unserem Alltag nicht mehr wegzudenken und arbeiten mit uns, sowohl im beruflichen als auch im privaten Bereich, zusammen. Wenn wir wollen, dass KI unsere Gesellschaft verbessert und uns bei der Erledigung von Aufgaben im Beruf oder im täglichen Leben hilft, müssen wir die Werte und Grundsätze, die wir diesen digitalen Kreationen vermitteln, sorgfältig überwachen, um sicherzustellen, dass KI unseren Bestrebungen und Werten dient. Andernfalls riskieren wir, intelligente Werkzeuge zu kultivieren, die Ungleichheiten und Missverständnisse verstärken könnten und die, wenn sie mit größerer Autonomie ausgestattet werden, Ziele verfolgen könnten, die nicht mit dem gesellschaft­lichen Wohlergehen vereinbar sind.

Zurück