Anzeige
Anzeige
News

KI-Stimme täuscht Menschen, selbst wenn die mit einem Deepfake rechnen

KI-generierte Stimmen sind bereits so gut, dass es Menschen selbst dann schwerfällt, sie zu erkennen, wenn sie wissen, dass es sich um KI handeln könnte. Das zeigt eine neue britische Studie.

2 Min.
Artikel merken
Anzeige
Anzeige
Über Deepfakes lassen sich im Netz Personen erschaffen, die es gar nicht gibt. (Bild: Shutterstock/ArtemisDiana)

Es mag erstaunen, konnte aber in einer Studie des Londoner University College nachgewiesen werden. Kimberley Mai und ihr Team hatten mehr als 500 Personen mehrere Audioclips vorgespielt.

Anzeige
Anzeige

Zuhörer lassen sich in 3 von 10 Fällen täuschen

Die Zuhörenden sollten dann beurteilen, ob die gehörte Stimme einer echten Person oder einer KI zuzuordnen sei. Dabei enthielten einige Clips die authentische Stimme einer weiblichen Sprecherin, die generische Sätze in Englisch oder Mandarin vorlas. Andere Clips waren Deepfakes, die eine auf weiblichen Stimmen trainierte generative KI erstellt hatte.

Dabei hatten die Wissenschaftler:innen zwei verschiedene Versuchsanordnungen ersonnen. Die eine Anordnung sah vor, den Zuhörenden 20 Stimmproben in ihrer Muttersprache vorzuspielen. Dann sollten sie beurteilen, ob die Clips echt oder gefälscht waren.

Anzeige
Anzeige

Das Ergebnis war ernüchternd. Obwohl sie damit rechnen mussten und sogar positiv wussten, dass sie teils mit KI-Stimmen konfrontiert sein würden, schafften es die Versuchsteilnehmer:innen nur in etwa 70 Prozent der Fälle, die gefälschten und die echten Stimmen richtig zuzuordnen.

Für das Londoner Forschungsteam deutet das darauf hin, dass die Deepfake-Erkennung im wirklichen Leben eher noch schlechter ausfallen wird. Denn außerhalb des Versuchs müssen die Menschen nicht damit rechnen, eine von einer künstlichen Intelligenz erzeugte Stimme zu hören. Das bedeutet für Milliarden von Menschen ein erhebliches Gefährdungspotenzial, wenn sie Deepfake-Betrügereien oder Fehlinformationen ausgesetzt werden.

Anzeige
Anzeige

Zweite Versuchsanordnung läuft besser, ist aber eingeschränkt aussagefähig

Bei der zweiten Versuchsanordnung fiel das Ergebnis deutlich besser aus, dürfte aber nur eingeschränkt aussagekräftig sein. Hier wurden 20 zufällig ausgewählte Paare von Audioclips vorgespielt.

Jedes Paar basierte auf demselben Satz. Der wurde einmal von einem Menschen und einmal von einer KI gesprochen. Jetzt sollten die Teilnehmer:innen erkennen, welche Variante die Fälschung war.

Anzeige
Anzeige

Bei dieser Anordnung stieg die Erkennungsgenauigkeit auf mehr als 85 Prozent. Dass das indes am echten Leben etwas vorbeigeht, räumt Forschungsleiterin Mai auch unumwunden ein:

„Dieser Aufbau ist nicht ganz repräsentativ für reale Szenarien. Die Zuhörer wüssten vorher nicht, ob das, was sie hören, echt ist, und Faktoren wie das Geschlecht und das Alter des Sprechers könnten die Erkennungsleistung beeinflussen.“

Automatische Deepfake-Erkennung extrem wichtig

Hany Farid von der University of California im US-amerikanischen Berkeley hält die Studien insgesamt dennoch für sehr nützlich. Solche Forschungen könnten dazu beitragen, zu bewerten, wie gut KI-generierte Deepfakes den natürlichen Klang menschlicher Stimmen imitieren können, ohne dabei subtile Sprachunterschiede beizubehalten. Die Studie liefere eine nützliche Grundlage für automatische Systeme zur Erkennung von Deepfakes, glaubt Farid.

Übrigens waren Versuche, die Deepfake-Erkennungsfähigkeiten der Teilnehmer:innen zu trainieren, fehlgeschlagen, erläutert Mai. Das gibt der Überzeugung Farids, dass es wichtig ist, KI-gestützte Deepfake-Detektoren zu entwickeln, Nahrung. Mai will nun daran forschen, ob große Sprachmodelle, die ihrerseits Sprachdaten verarbeiten können, diese Aufgabe übernehmen könnten.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige