
Wer Finanzdienstleistungen im Netz anbietet, muss, schon allein um den EU-Richtlinien zur Geldwäsche zu entsprechen, die Identität seiner Neukund:innen überprüfen. Das Prinzip wird in der Branche als „Know your customer“ (KYC) bezeichnet. Zu Deutsch: Kenne dein:e Kund:in. Praktisch funktioniert das Ganze so: Bei der Registrierung müssen Kund:innen ein Ausweisdokument in die Kamera ihres Smartphones oder Computers halten.
Anschließend zeigen sie sich selbst in der Kamera und müssen – je nach System – bestimmte Bewegungen machen. Also beispielsweise auf Zuruf nach rechts oder links gucken. So soll verhindert werden, dass Betrüger:innen einfach ein Video abspulen können, um das System zu täuschen. Das reicht allerdings längst nicht mehr aus.
Schon 2018 soll ein Team chinesischer Cyberkrimineller Deepfakes eingesetzt haben, um KYC-Systeme auszutricksen. Als Deepfakes werden mittels KI erstellte beziehungsweise manipulierte aber fotorealistisch aussehende Medieninhalte, wie beispielsweise Videos von Personen, bezeichnet.
In dem chinesischen Fall nutzten die Betrüger:innen echte Ausweisdokumente, um dann mittels Deepfake-Technologie künstlich erstellte Gesichter darüberzulegen. Auf die Art generierten sie nicht existente Personen, die dann wiederum Firmen gründeten. Über diese Firmen konnten sie die chinesische Steuerbehörde um 500 Millionen Yuan, umgerechnet 70,5 Millionen Euro, betrügen.
Die Masche ging für die Beteiligten einige Jahre gut, 2021 wurden sie dann jedoch gefasst und angeklagt. Der Fall zeigt allerdings, dass bestehende KYC-Systeme eben sehr wohl ausgetrickst werden. Das untermauert auch eine aktuelle Untersuchung mehrerer gängiger Systeme.
Dass Gesichtserkennungslösungen mit Deepfakes in die Irre geführt werden können, wurde in der Vergangenheit schon von mehreren wissenschaftlichen Studien bewiesen. Jetzt hat sich der auf KI-gestützte Verifikationslösungen spezialisierte Anbieter Sensity an einen praktischen Versuch gewagt.
Mit einem selbst entwickelten Angriffswerkzeug testete das Unternehmen mehrere am Markt verfügbare KYC-Systeme darauf, ob sie durch Deepfakes getäuscht werden könnten. Das Ergebnis ist ernüchternd: Fast alle Systeme konnten nach Unternehmensangaben ausgetrickst werden.
Für den Schutz vor Geldwäsche und die Nachverfolgbarkeit von Geldströmen stellen Deepfake-Angriffe eine ernstzunehmende Gefahr dar. Aber auch in anderen Bereichen könnte die Technologie in Zukunft für Probleme sorgen. Ein 2020 veröffentlichter Bericht von Wissenschaftler:innen des University College of London bezeichnet mittels Deepfake erstellte Fake News als eine der größten Gefahren, die sich durch die KI-Technologie in den kommenden Jahren ergeben könnten.
Gleichzeitig könnten mit Deepfakes auch gezielt Einzelpersonen am Telefon oder in Videochats imitiert werden, um so beispielsweise an Informationen zu gelangen. Noch lassen sich Deepfakes in vielen Fällen manuell und auch algorithmisch erkennen, nach Ansicht der Forscher:innen könnte das jedoch langfristig immer schwieriger werden.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team