FBI warnt: So schützt ihr euch vor KI-Betrug am Telefon

KI-Betrug per Telefon wird immer häufiger. (Foto: Tero Vesalainen / Shutterstock)
In einer offiziellen Mitteilung hat das FBI die Öffentlichkeit vor Kriminellen gewarnt, die sich der Möglichkeiten generativer künstlicher Intelligenz bedienen. Deren Einsatz würde die Glaubwürdigkeit ihrer Machenschaften erhöhen und damit Betrug in größerem Stil ermöglichen.
Dabei hat das FBI explizit auf eine noch relativ neue Masche der Verbrecher:innen hingewiesen – das sogenannte Vocal Cloning. Die Kriminellen erstellen also KI-generierte Audioclips mit den Stimmen geliebter Personen, um deren Angehörige auszunehmen.
Die KI-Stimme gaukelt eine Notsituation vor
Konkret könnte also die vermeintliche Tochter ihren Eltern am Telefon erzählen, sie brauche aus einem bestimmten Grund dringend und sofort eine größere Summe Geld. Als Beispiel nennt das FBI auch eine angebliche Entführung, die nur durch ein Lösegeld beendet werden kann.
Auf diese Art könnten die Kriminellen auch versuchen, sich gleich selbst Zugriff auf entsprechende Bankkonten zu verschaffen, womit sich sogar eine persönliche Übergabe vermeiden lässt. Um die Menschen auf genau solche Momente vorzubereiten, in denen sie bewusst geschockt und zeitlich unter Druck gesetzt werden, nennt das FBI konkrete Handlungstipps.
Künstliche Intelligenz kann nicht alles wissen
Der erste lautet: „Erstellen Sie mit ihrer Familie ein geheimes Wort oder einen geheimen Satz, um deren Identität zu bestätigen.“ Zudem sollten die Angerufenen möglichst genau auf die Wortwahl und den Tonfall des vermeintlichen Familienmitglieds achten, da die KI in diesem Bereich noch Schwächen aufweist.
Relevant ist das Vocal Cloning natürlich vor allem für Menschen, von denen eine bestimmte Anzahl an Sprechproben öffentlich zugänglich sind. Das kann für Youtuber:innen und Tiktoker:innen genauso gelten wie in verstärktem Maße für Podcaster:innen, Moderator:innen oder anderweitige Personen des öffentlichen Lebens.
Kriminelle haben noch andere Maschen
Die telefonischen Betrugsversuche sind aber nur eine Möglichkeit, wie Kriminelle KI einsetzen und vor denen darum auch das FBI warnt. Auf seiner Liste stehen unter anderem auch KI-generierte Bilder oder Videos, mit denen die Identität eines Betrügers als „echte Person“ belegt werden soll, sowie Echtzeit-Videochats, bei denen Deepfakes zum Einsatz kommen.
Als vorbeugende Maßnahmen gegen Betrugsversuche dieser Art nennt die Sicherheitsbehörde, Gespräche im Zweifel zu beenden und die Personen, mit denen man angeblich gesprochen hat, selbst zu kontaktieren. Zudem sollte man keine sensiblen Daten an Personen weitergeben, die man nur von einem telefonischen oder Online-Kontakt kennt.