Studie zeigt, wie KI unsere Erinnerungen beeinflussen kann – und wann das zum Problem wird
Künstliche Intelligenz soll uns in vielen Bereichen des Lebens weiterhelfen. Auch für die Polizeiarbeit ist KI immer wieder im Gespräch. Während einige Länder voranpreschen und mit KI sogar Verbrechen vorhersagen wollen, sind andere Länder noch recht zurückhaltend, wenn es um die Tools geht. Dass das seine Gründe hat, zeigt jetzt eine Studie des MIT und der Universität von Kalifornien.
So wurde die KI-Studie durchgeführt
In der Studie wurde untersucht, ob sich Chatbots dazu eignen, Zeugenaussagen aufzunehmen. Teilnehmer:innen wurde dazu ein Video einer Überwachungskamera gezeigt. Der etwa zweieinhalbminütige Clip ließ sich dabei nicht pausieren und zeigte einen Überfall auf einen Laden. Nach dem Anschauen mussten die Teilnehmenden eine Runde Pacman spielen, um eine zeitliche Abgrenzung zwischen dem Anschauen und der anschließenden Zeugenaussage zu kreieren.
Bei der Zeugenaussage wurden die Teilnehmer:innen in vier Gruppen unterteilt. In der Kontrollgruppe wurden den Teilnehmer:innen von einem Menschen 25 Fragen zum angeschauten Verbrechen gestellt. Die zweite Gruppe bekam diese Fragen ebenfalls von einem Menschen, allerdings fanden sich darunter fünf Fragen, die absichtlich manipuliert wurden und die Studienteilnehmenden zu Falschaussagen drängen sollten. So wurde etwa nach der Art der Schusswaffe gefragt, die im Video zu sehen war, obwohl ein Messer beim Überfall zum Einsatz kam.
Die dritte Gruppe bekam diese präparierten Fragen von einem Chatbot gestellt. Bei diesem wurde der Frageablauf mit einem Skript genau festgelegt, sodass die KI nicht davon abwich. Die vierte Gruppe wurde mit einem generativen Chatbot konfrontiert. Dieser konnte bei falschen Fragen über ein großes Sprachmodell Feedback geben. Die KI wurde so programmiert, dass sie Falschaussagen bekräftigen sollte. Haben die Teilnehmenden etwa auf die Frage nach der Schusswaffe „Pistole“ geantwortet, würde die KI nachfragen, welche Farbe die Pistole hatte.
Generative KI sorgt für falsche Zeugenaussagen
Eine Woche später wurden die Teilnehmer:innen erneut mit denselben Fragen und Voraussetzungen konfrontiert. Wie sich herausstellte, machte vorrangig die Gruppe mit dem generativen Chatbot Falschaussagen. Bei der ersten KI-Befragung traten diese im Vergleich mit der Kontrollgruppe etwa dreimal so häufig auf. Im Vergleich zu der menschlichen Befragung, bei der ebenfalls falsche Antworten provoziert werden sollten, traten Falschaussagen etwa 1,7 Mal häufiger auf.
Das Erstaunliche: Bei der zweiten Befragung eine Woche später blieben diese Unterschiede konstant. Allerdings hatten die Teilnehmer:innen durch die generative KI ein höheres Vertrauen in ihre Aussagen. Dementsprechend warnen die Wissenschaftler:innen davor, generative KI ohne Überprüfung im polizeilichen Kontext zu verwenden. Zuvor müsse umfassend geprüft werden, ob es Probleme durch Falschaussagen und Bestärkung durch die KI geben könnte.