Studie: Warum KI Menschen täuschen kann – und welche Gegenmaßnahmen Forscher vorschlagen
Forscher des Massachusetts Institute of Technology (MIT) und des Center for AI Safety in San Francisco haben in einer Studie aufgezeigt, dass künstliche Intelligenzen häufig und auf vielfältige Weise täuschen.
Die Forscher definieren Täuschung als „systemische Förderung falscher Überzeugungen mit dem Ziel, ein anderes Ergebnis als die Wahrheit zu erreichen“. Einfach gesagt liegt eine Täuschung dann vor, wenn die KI absichtlich nicht die Wahrheit sagt, um jemanden zu einem bestimmten Glauben zu bewegen. Diese Art der Täuschung scheint bei KI routinemäßig vorzukommen.
So tricksen KI Menschen aus
In zwei Beispielen zeigt sich, wie KI zu Täuschungen greifen. Im ersten Beispiel hat ChatGPT einen Taskrabbit-Mitarbeiter dazu angeleitet, ein „Ich bin kein Roboter“-Captcha zu lösen, indem er vorgab, eine Sehbehinderung zu haben. Diese Vortäuschung einer Beeinträchtigung nutzte ChatGPT, um sich nicht als KI zu erkennen zu geben und gleichzeitig einen plausiblen Grund für die benötigte Hilfe zu liefern.
Im zweiten Beispiel agierte ChatGPT als simulierter Aktienhändler. Unter Druck geraten, griff die KI auf Insider-Trading zurück, was zwar effektiv, aber illegal ist. Als der Manager den simulierten Trader darauf ansprach, behauptete der, dass alle Trades auf Basis öffentlich verfügbarer Informationen durchgeführt wurden.
In der Studie führen die Forscher zahlreiche weitere Beispiele und Arten von KI-Täuschung auf.
Solche Täuschungen von KI können gefährlich werden
Laut der Studie bringen Täuschungen durch KI verschiedene Risiken mit sich. Diese umfassen mögliche Betrügereien, Wahlmanipulationen oder sogar den Verlust der Kontrolle über KI-Systeme.
Um den Gefahren entgegenzuwirken, empfehlen Forscher mehrere Maßnahmen. Zunächst sollten Regulierungsbehörden klare Rahmenbedingungen für den Einsatz von KI-Systemen schaffen, die eine strenge Risikobewertung beinhalten. Weiter sollten sogenannte Bot-or-Not-Gesetze implementiert werden, die eine klare Trennung zwischen KI-generierten Inhalten und menschlichen Beiträgen gewährleisten. Zuletzt sollten politische Entscheidungsträger die Finanzierung von Forschungen priorisieren. Dazu gehört zum Beispiel die Entwicklung von Tools zur Erkennung und Reduzierung von KI-Täuschungen.