Fake News: Tagesschau warnt vor KI-generierten Audiodateien
Für ungeübte Ohren ist die Fälschung kaum zu erkennen. Zuerst ertönt der offizielle Jingle der Tagesschau, auf den die Stimme eines bekannten Gesichts der Nachrichtensendung folgt.
Konkret geht es um Susanne Daubner und Jens Riwa, die in insgesamt drei kursierenden Audiodateien wahrhaft Erstaunliches zum Besten geben. Zum Beispiel: „Heute müssen wir uns bei Ihnen entschuldigen. Seit über drei Jahren lügen wir ihnen dreist ins Gesicht.“
Die Themen passen ins Querdenkerspektrum
Auf diese Einleitung folgen diverse Entschuldigungen bezüglich angeblicher Lügen und bewussten Manipulationen, die die Tagesschau in der Vergangenheit verbreitet haben soll. Die Themen, um die es geht: die Corona-Pandemie, den Ukraine-Krieg und die behauptete Denunzierung von Demonstrant:innen.
Zum Schluss heißt es in den Audiodateien, die in den sozialen Medien kursieren und Anfang November auf einer Demonstration namens „Die große Meuterei“ in Kiel abgespielt wurden: „Für all diese einseitige Berichterstattung und bewusste Manipulation, insbesondere für die Denunzierung unserer Mitmenschen, müssen wir uns ausdrücklich im Namen des öffentlich-rechtlichen Rundfunks entschuldigen.“
Seriöse Nachrichten sollen diskreditiert werden
Marcus Bornheim, der Chefredakteur von ARD-aktuell, weist alle potenziellen Hörer:innen dieser Audiodateien darauf hin, dass es sich dabei um KI-generierte Fälschungen handelt. Wer auch immer dahinterstecke, nutze die als seriös, glaubwürdig und zuverlässig eingeschätzte Nachrichtensendung aus, um gezielt Desinformation zu verbreiten.
Wer nicht über die Unglaubwürdigkeit solcher angeblichen Nachrichten stolpert, kann die Fälschung auch an den KI-Stimmen erkennen. Diese klingen mechanisch, es fehlt die Sprachmelodie der echten Menschen und einige Wörter werden falsch betont.
Was echt ist und was nicht, wird immer schwerer zu unterscheiden
Schlecht gemacht sind die Fakes also auch noch, dabei geht es längst schon besser. Wie Andreas Dengel gegenüber der Tagesschau sagte, wird es immer schwerer, KI-generierte Audiodateien zu erkennen.
„Die KI kann auch leichte Nuancen der Menschlichkeit simulieren wie beispielsweise Emotionen oder Subjektivität“, sagt der Geschäftsführende Direktor des Deutschen Forschungszentrums für künstliche Intelligenz. In solchen Fällen helfe dann nur der gesunde Menschenverstand, um echte von Fake-Nachrichten zu unterscheiden.