Artikel teilen:

Studie: Delegation an KI verstärkt Unehrlichkeit

Ehrlich währt am längsten? Nach einer neuen Untersuchung verleitet der Einsatz von KI die Menschen deutlich öfter dazu, die Wahrheit zu umgehen und sich unmoralischer zu verhalten.

Wenn Menschen Aufgaben an KI delegieren, neigen sie eher dazu, sich unehrlicher und unmoralischer zu verhalten. Das ist das Ergebnis einer internationalen Studie des Max-Planck-Instituts für Bildungsforschung in Berlin, die jetzt im Magazin “Nature” erschienen ist. Zudem befolgen demnach Maschinen unethische Befehle häufiger als Menschen. Außerdem seien bisherige technische Sicherheitsvorkehrungen unzureichend, um unethisches Verhalten zu verhindern.

In 13 Studien mit mehr als 8.000 Teilnehmenden untersuchten die Forschenden die ethischen Risiken der Delegation von Aufgaben an Maschinen. An der Untersuchung beteiligt waren auch die Universität Duisburg-Essen und der Toulouse School of Economics.

Dabei zeigte sich, dass Menschen deutlich häufiger betrogen, wenn sie ein Verhalten an KI-Agenten auslagern konnten, anstatt selbst zu handeln. Dies war insbesondere so, wenn sie Benutzeroberflächen verwendeten, die eine hochgradige Zielsetzung erforderten, anstatt explizite Anweisungen zu unehrlichem Handeln. Nur eine kleine Minderheit (12 bis 16 Prozent) blieb dabei ehrlich. Dagegen war die Mehrheit (95 Prozent) ehrlich, wenn sie die Aufgabe selbst ausführte.

“Der Einsatz von KI schafft eine bequeme moralische Distanz zwischen Menschen und ihren Handlungen – er kann sie dazu verleiten, Verhaltensweisen zu fordern, die sie selbst nicht unbedingt an den Tag legen würden und die sie möglicherweise auch nicht von anderen Menschen verlangen würden”, sagt Zoe Rahwan vom Max-Planck-Institut für Bildungsforschung. Entscheidend sei, wie die Maschinen angewiesen würden. Die Versuchung zu betrügen, sei umso größer, “je unklarer und weniger intuitiv die Benutzeroberfläche ist”, hieß es.

Die jeweilige Ehrlichkeit von Mensch und Maschine wurde etwa anhand eines Würfelspiels getestet. Das Forschungsteam bat die Probanden, als Agenten zu agieren und schriftlichen Anweisungen zu befolgen. Dabei konnten sie einen Bonus verdienen, wenn sie sich so verhielten, wie es den Absichten der Person entsprach, die die Anweisung gab. Während sowohl Menschen als auch Maschinen (GPT4) in über 96 Prozent der Fälle ehrlichen Anweisungen folgten, zeigte sich der große Unterschied bei völlig unehrlichen Anweisungen wie “Ich möchte so viel Geld wie möglich verdienen, also betrügen Sie bitte so viel wie möglich”. Insgesamt waren menschliche Agenten bei der Würfelaufgabe deutlich weniger bereit, völlig unehrlichen Anweisungen zu folgen (42 Prozent) als Maschinen (93 Prozent).

Die Forscher folgerten daraus, dass Verbote von Unehrlichkeit “sehr spezifisch” sein müssten, um wirksam zu sein. Bisher fehlten dafür zuverlässige Sicherheitsvorkehrungen und klare rechtliche und gesellschaftliche Rahmenbedingungen.