Anzeige
Anzeige
News
Artikel merken

Deepfakes: Digitale Identitätsprüfung steht vor einem Problem

Onlinebanken und Kryptobörsen verifizieren die Identität ihrer Kund:innen meist per Video. Allerdings lassen sich diese Mechanismen durch Deepfakes täuschen. Das ist ein Problem.

2 Min. Lesezeit
Anzeige
Anzeige
Verifikationsmechanismen lassen sich per Deepfake täuschen. (Bild: Mihai Surdu / Shutterstock.com)

Wer Finanzdienstleistungen im Netz anbietet, muss, schon allein um den EU-Richtlinien zur Geldwäsche zu entsprechen, die Identität seiner Neukund:innen überprüfen. Das Prinzip wird in der Branche als „Know your customer“ (KYC) bezeichnet. Zu Deutsch: Kenne dein:e Kund:in. Praktisch funktioniert das Ganze so: Bei der Registrierung müssen Kund:innen ein Ausweisdokument in die Kamera ihres Smartphones oder Computers halten.

Anzeige
Anzeige

Anschließend zeigen sie sich selbst in der Kamera und müssen – je nach System – bestimmte Bewegungen machen. Also beispielsweise auf Zuruf nach rechts oder links gucken. So soll verhindert werden, dass Betrüger:innen einfach ein Video abspulen können, um das System zu täuschen. Das reicht allerdings längst nicht mehr aus.

Schon 2018 soll ein Team chinesischer Cyberkrimineller Deepfakes eingesetzt haben, um KYC-Systeme auszutricksen. Als Deepfakes werden mittels KI erstellte beziehungsweise manipulierte aber fotorealistisch aussehende Medieninhalte, wie beispielsweise Videos von Personen, bezeichnet.

Anzeige
Anzeige

In dem chinesischen Fall nutzten die Betrüger:innen echte Ausweisdokumente, um dann mittels Deepfake-Technologie künstlich erstellte Gesichter darüberzulegen. Auf die Art generierten sie nicht existente Personen, die dann wiederum Firmen gründeten. Über diese Firmen konnten sie die chinesische Steuerbehörde um 500 Millionen Yuan, umgerechnet 70,5 Millionen Euro, betrügen.

Anzeige
Anzeige

Die Masche ging für die Beteiligten einige Jahre gut, 2021 wurden sie dann jedoch gefasst und angeklagt. Der Fall zeigt allerdings, dass bestehende KYC-Systeme eben sehr wohl ausgetrickst werden. Das untermauert auch eine aktuelle Untersuchung mehrerer gängiger Systeme.

Know your customer: Deepfakes können Systeme nach wie vor austricksen

Dass Gesichtserkennungslösungen mit Deepfakes in die Irre geführt werden können, wurde in der Vergangenheit schon von mehreren wissenschaftlichen Studien bewiesen. Jetzt hat sich der auf KI-gestützte Verifikationslösungen spezialisierte Anbieter Sensity an einen praktischen Versuch gewagt.

Anzeige
Anzeige

Mit einem selbst entwickelten Angriffswerkzeug testete das Unternehmen mehrere am Markt verfügbare KYC-Systeme darauf, ob sie durch Deepfakes getäuscht werden könnten. Das Ergebnis ist ernüchternd: Fast alle Systeme konnten nach Unternehmensangaben ausgetrickst werden.

Für den Schutz vor Geldwäsche und die Nachverfolgbarkeit von Geldströmen stellen Deepfake-Angriffe eine ernstzunehmende Gefahr dar. Aber auch in anderen Bereichen könnte die Technologie in Zukunft für Probleme sorgen. Ein 2020 veröffentlichter Bericht von Wissenschaftler:innen des University College of London bezeichnet mittels Deepfake erstellte Fake News als eine der größten Gefahren, die sich durch die KI-Technologie in den kommenden Jahren ergeben könnten.

Gleichzeitig könnten mit Deepfakes auch gezielt Einzelpersonen am Telefon oder in Videochats imitiert werden, um so beispielsweise an Informationen zu gelangen. Noch lassen sich Deepfakes in vielen Fällen manuell und auch algorithmisch erkennen, nach Ansicht der Forscher:innen könnte das jedoch langfristig immer schwieriger werden.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige