Forscher der Washington University in St. Louis haben in einer Studie herausgefunden, dass Menschen sich fairer verhalten, wenn sie eine KI trainieren. Bisher ging man davon aus, dass das menschliche Verhalten beim Training von KI unvoreingenommen ist, schreiben die Forscher.
Die Studie zeigt jedoch, dass sich das Verhalten der Menschen ändert, sobald sie wissen, dass sie zum Training einer KI beitragen. Diese Verhaltensänderung kann sogar mehrere Tage anhalten, selbst wenn die Menschen in dieser Zeit keine KI trainieren.
So ist das Experiment aufgebaut
Um diese Erkenntnisse zu gewinnen, führten die Forscher insgesamt fünf Experimente mit jeweils rund 200 bis 300 Teilnehmern durch. Die Teilnehmer spielten das „Ultimatum-Spiel“, bei dem kleine Geldbeträge untereinander aufgeteilt werden müssen.
Dabei müssen die Teilnehmer eine Einigung darüber erzielen, wie das Geld aufgeteilt wird. Die Vorschläge dafür stammen entweder von den Teilnehmern selbst oder von einer KI. Einige Teilnehmer wurden darüber informiert, dass die Daten aus dem Experiment für das Training von KI verwendet werden, während andere diese Information nicht erhielten.
Die Forscher stellten fest, dass die informierten Teilnehmer hauptsächlich faire Vorschläge machten, während die uninformierte Gruppe eher unfaire Deals vorschlug.
Faires Verhalten hält länger an
Nach dem ersten Durchgang sollten die Teilnehmer das Spiel erneut spielen. Dieses Mal wurde ihnen gesagt, dass die Daten nicht für das Training verwendet werden. Die Gruppe, die vorher die KI trainiert und faire Vorschläge gemacht hatte, setzte diese faire Spielweise auch in der nächsten Runde fort. Das deutet darauf hin, dass die faire Spielweise zur Gewohnheit geworden ist.
Für das Training von KI bedeutet das, dass Menschen ihr Verhalten ändern, sobald sie wissen, dass ihre Daten dafür verwendet werden. KI-Entwickler sollten das bei der Auswahl der Trainingsdaten beachten, wenn sie eine möglichst unvoreingenommene KI entwickeln möchten.