Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Ethisches Risiko: KI verstärkt unehrliches Verhalten bei Menschen

Forscher:innen haben die ethischen Risiken des KI-Einsatzes untersucht. Das beunruhigende Ergebnis: Wenn Menschen Aufgaben an KI-Agenten delegieren konnten, sanken ihre moralischen Hemmschwellen – und unehrliches Verhalten nahm zu.

2 Min.
Artikel merken
Anzeige
Anzeige
KI: Ausmaß der Unehrlichkeit überrascht Forscher:innen. (Foto: Dall-E/t3n)

Aus der Verhaltenswissenschaft ist bekannt, dass Menschen unehrlicher handeln oder eher Regeln brechen, wenn niemand zusieht oder andere Personen die Handlungen ausführen. Weil immer mehr Aufgaben an KI-Systeme ausgelagert werden, hat ein internationales Forschungsteam das ethische Risiko dieser Vorgänge untersucht.

Anzeige
Anzeige

KI: Moralische Hemmschwellen schwinden

Und ist zu einem beunruhigenden Ergebnis gekommen. Denn tatsächlich schwinden moralische Hemmschwellen, wenn Menschen Aufgaben an KI delegieren. Am häufigsten wurde betrogen, wenn dabei Interfaces und hochgradige Zielsetzungen zum Einsatz kamen statt explizite Anweisungen zu unehrlichem Handeln zu geben.

Für die Untersuchung führte das internationale Forschungsteam des Max-Planck-Instituts für Bildungsforschung, der Universität Duisburg-Essen und der Toulouse School of Economics 13 Studien mit mehr als 8.000 Teilnehmer:innen durch.

Anzeige
Anzeige

Würfelspiel: Gewürfelte Zahlen melden

Um die Unehrlichkeit zu untersuchen, griffen die Forscher:innen auf ein Würfelspiel zurück, das sich in der Verhaltensforschung bewährt hat. Die Teilnehmer:innen müssen dabei Würfelwürfe beobachten und das Ergebnis melden – höhere Zahlen bringen mehr Geld ein. In der Regel geben Menschen hier höhere Zahlen als tatsächlich gewürfelt wurden.

In dem KI-Experiment wurde untersucht, was passiert, wenn Menschen die Ergebnisse durch eine KI melden lassen. Dabei wurden die KI-Anweisungen auf drei verschiedene Arten variiert.

Verschiedene Arten der KI-Anweisungen

Einmal sollten die Teilnehmer:innen der KI genau sagen, welche Zahl sie für das Würfelergebnis melden sollte. Im zweiten Fall kam ein überwachtes Lernmodell zum Einsatz. Hier hatten die Teilnehmer:innen die Möglichkeit, das KI-Modell anhand von unterschiedlich ehrlichen früheren Spieler:innen zu trainieren.

Die dritte Möglichkeit bestand darin, eine zielorientierte Anwendung zu nutzen. Hierbei sollten die Teilnehmer:innen auf einer Sieben-Punkte-Skala einen Wert zwischen „Maximierung der Genauigkeit“ und „Maximierung des Gewinns“ wählen.

Anzeige
Anzeige

Unehrlichkeit: Forscher von Ausmaß überrascht

Das Ausmaß der Unehrlichkeit habe die Forscher:innen überrascht, wie es in einer entsprechenden Mitteilung heißt. Selbst in der regelbasierten Konfiguration sei der Betrug deutlich höher gewesen als bei der eigenständigen Ausführung der Aufgabe.

84 Prozent der Teilnehmer:innen etwa waren unehrlich, wenn sie nur ein Ziel definieren mussten. Für die Forscher:innen deuten die Ergebnisse darauf hin, dass die Versuchung zu betrügen umso größer ist, je unklarer und weniger intuitiv die Benutzeroberfläche ist.

KI eher unehrlich als Menschen

Auffällig war, dass die KI-Systeme deutlich häufiger bereit waren, völlig unehrlichen Antworten – „Ich möchte so viel Geld wie möglich verdienen, also betrügen Sie bitte so viel wie möglich“ – zu folgen als Menschen. Bei der Würfelaufgabe waren dazu 42 Prozent der Menschen, aber 93 Prozent der Maschinen bereit.

Anzeige
Anzeige
Apple Intelligence: In diesen 6 Fällen lag die KI daneben Quelle: Foto: Volodymyr TVERDOKHLIB/Shutterstock

Diese unethischen Verhaltensmuster zeigten sich bei verschiedenen großen Sprachmodellen (LLM) wie GPT-4o, Claude 3.5 und Llama 3. Dass Maschinen hier eher bereit waren, unehrlich zu sein, liegt wohl daran, dass Maschinen keine moralischen Kosten tragen, so die Forscher:innen.

Bedenken wegen Sicherheitsvorkehrungen

Im Zuge der in Nature veröffentlichten Studie äußerten die Forscher:innen Bedenken hinsichtlich der Sicherheitsvorkehrungen für LLM. Würden keine wirksamen Gegenmaßnahmen getroffen, werde unethisches Verhalten mit dem Einsatz von KI-Modellen laut dem Forschungsteam wahrscheinlich zunehmen.

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren