KI-Tool erkennt Lügen besser als der Mensch – und sorgt für einen überraschenden Effekt

Für die Studie wurden die Proband:innen die Hälfte der Zeit zum Lügen animiert. (Foto: Shutterstock/Bits and Splits)
Wie gut kannst du Lügner:innen erkennen? Untersuchungen haben gezeigt, dass wir im Allgemeinen ziemlich schlecht darin sind, die Wahrheit von einer Lüge zu unterscheiden. Einige Experten glauben, dass Künstliche Intelligenz (KI) unsere Chancen verbessern könnte und besser abschneidet als fragwürdige alte Techniken wie Lügendetektortests. Könnten also KI-basierte Lügenerkennungssysteme uns eines Tages dabei helfen, Fakten von Fake News zu unterscheiden, Behauptungen zu bewerten und möglicherweise sogar Flunkereien und Übertreibungen in Bewerbungen zu erkennen? Die vielleicht wichtigere Frage ist allerdings, ob wir ihren Fähigkeiten vertrauen werden – und ob wir das sollten.
In einer kürzlich durchgeführten Studie haben Wirtschaftswissenschaftler:innen um Alicia von Schenk von der Julius-Maximilians-Universität Würzburg ein Tool entwickelt, das Lügen deutlich besser erkennen konnte als es Menschen vermögen. Als das Team testete, wie Menschen es benutzen, erlebte es eine Überraschung: Das Tool half den Probanden zwar dabei, Lügen besser aufzuspüren, verleitete sie aber auch öfter dazu, Lügen-Anschuldigungen zu erheben.
1.500 Aussagen mit Lügen und Wahrheiten
In ihrer Studie, die in der Fachzeitschrift iScience veröffentlicht wurde, baten von Schenk und ihre Kolleg:innen Freiwillige, Aussagen über ihre Wochenendpläne zu machen. Die Hälfte der Zeit wurden die Probanden zum Lügen animiert: eine glaubhafte, aber unwahre Aussage wurden mit einer kleinen Geldsumme belohnt. Insgesamt sammelte das Team 1.536 Aussagen von 768 Personen.
Mit 80 Prozent dieser Aussagen trainierten sie dann das KI-Sprachmodell BERT von Google auf Lügen und Wahrheiten. Als sie das resultierende Tool an den letzten 20 Prozent der Aussagen testeten, stellten sie fest, dass es in zwei Drittel der Fälle erfolgreich entschied, ob eine Aussage wahr oder falsch war. Das ist deutlich besser als ein Mensch abschneidet, der in der Regel nur etwa die Hälfte der Zeit richtig liegt.
Um herauszufinden, wie Menschen die KI nutzen könnten, um Lügen zu erkennen, teilten von Schenk und ihre Kollegen 2.040 andere Freiwillige in kleinere Gruppen auf und führten eine Reihe von Tests durch. Ein Test ergab, dass Menschen, die für die Nutzung eines KI-Tools eine kleine Gebühr zahlen, das ihnen bei der Erkennung von Lügen und zu finanzielle Belohnungen verhelfen kann, trotzdem nicht besonders begeistert sind. Nur ein Drittel der Freiwilligen, denen diese Möglichkeit geboten wurde, entschied sich für die Nutzung des KI-Tools. Möglicherweise weil sie der Technologie skeptisch gegenüberstehen, sagt von Schenk. Vielleicht waren sie auch zu optimistisch, was ihre eigenen Fähigkeiten zur Erkennung von Lügen angeht, fügt sie hinzu.
„Fast immer der Vorhersage der KI folgen“
Aber dieses eine Drittel der Menschen hat wirklich Vertrauen in die Technologie. „Wenn man sich aktiv dafür entscheidet, sich auf die Technologie zu verlassen, sehen wir, dass die Menschen fast immer der Vorhersage der KI folgen… sie verlassen sich sehr stark auf ihre Vorhersagen“, sagt von Schenk. Dieses Vertrauen kann unser Verhalten prägen. Normalerweise neigen die Menschen dazu, davon auszugehen, dass andere die Wahrheit sagen. Das hat sich in dieser Studie bestätigt. Obwohl die Probanden wussten, dass die Hälfte der Aussagen gelogen war, markierten sie nur 19 Prozent als gelogen. Das änderte sich jedoch, als die Probanden das KI-Tool nutzten: Die Anschuldigungsquote stieg auf 58 Prozent.
In gewisser Hinsicht ist das eine gute Sache. Solche Werkzeuge könnten uns helfen, Lügen öfter zu erkennen, denen wir in unserem Leben begegnen, wie etwa Fehlinformationen, die wir in den sozialen Medien finden. Allerdings könnten die Tools auch Vertrauen untergraben, jenen grundlegenden Aspekt des menschlichen Verhaltens, der uns hilft, Beziehungen aufzubauen. Wenn der Preis für korrekte Urteile die Verschlechterung der sozialen Bindungen ist, ist es das wert?
Und dann ist da noch die Frage der Genauigkeit. In ihrer Studie ging es von Schenk und ihren Kollegen nur darum, ein Werkzeug zu entwickeln, das besser als der Mensch in der Lage ist, Lügen zu erkennen. Das ist nicht allzu schwierig, wenn man bedenkt, wie schlecht wir darin sind. Sie kann sich aber auch vorstellen, dass ein Tool wie ihres dazu verwendet werden könnte, routinemäßig den Wahrheitsgehalt von Beiträgen in sozialen Medien zu bewerten oder falsche Angaben im Lebenslauf oder in den Antworten auf Vorstellungsgespräche aufzuspüren. Für diese Fälle reicht es nicht aus, dass eine Technologie einfach nur „besser als ein Mensch“ ist, wenn sie mehr Anschuldigungen erhebt.
Wären wir bereit, eine Trefferquote von 80 Prozent zu akzeptieren, bei der nur vier von fünf bewerteten Aussagen korrekt als wahr oder falsch interpretiert würden? Würde eine 99-prozentige Genauigkeit ausreichen?
Gefahr unausgereifter KI-Lügendetektoren
Es lohnt sich, die Fehlbarkeit historischer Lügendetektionsverfahren zu bedenken. Der Lügendetektor wurde entwickelt, um die Herzfrequenz und andere Anzeichen von „Erregung“ zu messen, weil man davon ausging, dass bestimmte Anzeichen von Stress nur bei Lügnern auftreten. Dass sie das nicht sind, wissen wir schon seit langem. Aus diesem Grund sind die Ergebnisse von Lügendetektoren in US-Gerichtsverfahren in der Regel nicht zulässig. Trotzdem haben Lügendetektortests in einigen Bereichen Bestand, und sie haben viel Schaden angerichtet, wenn sie in Reality-TV-Shows dazu benutzt wurden, Menschen mit Anschuldigungen zu überziehen, wenn sie sie nicht bestanden haben.
Unvollkommene KI-Tools könnten noch größere Auswirkungen haben, weil sie so einfach zu skalieren sind, sagt von Schenk. Man kann an einem Tag nur eine bestimmte Anzahl von Menschen einem Lügendetektortest unterziehen. Die Möglichkeiten der KI-Lügenerkennung sind im Vergleich dazu fast grenzenlos. „In Anbetracht der Tatsache, dass so viele Fake News und Desinformationen verbreitet werden, sind diese Technologien durchaus von Vorteil“, sagt von Schenk. „Allerdings muss man sie wirklich testen – man muss sicherstellen, dass sie wesentlich besser sind als der Mensch.“ Wenn ein KI-Lügendetektor sehr viele Anschuldigungen hervorruft, sei es vielleicht besser, ihn gar nicht erst einzusetzen.