So will das US-Verteidigungsministerium Deepfakes bekämpfen

Das US-Verteidigungsministerium hat über einen Zeitraum von zwei Jahren 2,4 Millionen US-Dollar in die Deepfake-Erkennungstechnologie des Startups Hive AI investiert. Die Defense Innovation Unit des Verteidigungsministeriums will damit erstmals auf vertraglicher Basis die Einführung neuer Technologien für den US-Verteidigungssektor beschleunigen. Die Modelle von Hive AI sollen in der Lage sein, von KI erzeugte Video-, Bild- und Audioinhalte erkennen zu können.
Obwohl es Deepfakes schon seit fast einem Jahrzehnt gibt, sind sie dank generativer KI einfacher zu erstellen und sehen realistischer aus als je zuvor, sodass sie für Desinformationskampagnen oder Betrug missbraucht werden können. Die Verteidigung gegen diese Art von Bedrohungen ist heute für die nationale Sicherheit von entscheidender Bedeutung, sagt Captain Anthony Bustamante, Projektmanager und Cyberwarfare-Operator bei der Defense Innovation Unit.
Hive AI: Verteidigung gegen Deepfakes ist „existenziell“
„Diese Arbeit ist ein wichtiger Schritt zur Stärkung unseres Informationsvorsprungs im Kampf gegen ausgeklügelte Desinformationskampagnen und Bedrohungen durch synthetische Medien“, so Bustamante. Hive wurde aus einem Pool von 36 Unternehmen ausgewählt, um seine Deepfake-Erkennungs- und Attributionstechnologie mit dem Verteidigungsministerium zu testen. Der Vertrag könnte das Ministerium in die Lage versetzen, KI-Täuschungen in großem Umfang zu erkennen und zu bekämpfen. Die Verteidigung gegen Deepfakes ist „existenziell“, sagt Kevin Guo, CEO von Hive AI. „Das ist die Evolution der Cyberkriegsführung“.
Die Technologie von Hive wurde mit einer großen Menge an Inhalten trainiert, von denen einige KI-generiert sind und andere nicht. Sie erkennt Signale und Muster in KI-generierten Inhalten, die für das menschliche Auge unsichtbar sind, aber von einem KI-Modell erkannt werden können.
Auf der Suche nach Mustern in Deepfakes
„Es hat sich herausgestellt, dass jedes Bild, das von einem dieser Generatoren erzeugt wird, diese Art von Muster enthält, wenn man weiß, wo man danach suchen muss“, sagt Guo. Das Hive-Team verfolgt ständig neue Modelle und aktualisiert seine Technologie entsprechend.
Die im Rahmen dieser Initiative entwickelten Tools und Methoden haben das Potenzial, für einen breiteren Einsatz angepasst zu werden, um nicht nur verteidigungsspezifische Herausforderungen zu bewältigen, sondern auch zivile Einrichtungen vor Desinformation, Betrug und Täuschung zu schützen, so das Verteidigungsministerium in einer Erklärung.
Laut Siwei Lyu, Professor für Informatik und Ingenieurwesen an der University at Buffalo, bietet die Technologie von Hive modernste Leistung bei der Erkennung von KI-generierten Inhalten. Er war nicht an der Arbeit von Hive beteiligt, hat aber die Erkennungswerkzeuge getestet.
Ben Zhao, Professor an der University of Chicago, der die Deepfake-Technologie von Hive AI ebenfalls unabhängig evaluiert hat, stimmt dem zu, weist aber darauf hin, dass sie bei weitem nicht narrensicher ist.
Auch die Deepfake-Erkennung von Hive ist nicht perfekt
„Hive ist sicherlich besser als die meisten kommerziellen Unternehmen und einige der von uns getesteten Forschungstechniken, aber wir haben auch gezeigt, dass es nicht schwer zu umgehen ist“, sagt Zhao. Das Team fand heraus, dass Angreifer Bilder auf eine Weise manipulieren können, die die Erkennung von Hive umgeht. Und angesichts der rasanten Entwicklung generativer KI-Technologien ist noch nicht sicher, wie sie sich in realen Szenarien bewähren werden, mit denen der Verteidigungssektor konfrontiert sein könnte, fügt Lyu hinzu.
Guo von Hive sagt, dass man die Modelle des Unternehmens dem Verteidigungsministerium zur Verfügung stellt, sodass die Abteilung die Tools offline und auf ihren eigenen Geräten nutzen kann. So wird verhindert, dass sensible Informationen nach außen dringen.
Doch wenn ein Angriff von außen in Form von Deepfakes droht, reichen Produkte von der Stange nicht aus, meint Zhao: „Es gibt nur sehr wenig, was sie tun können, um sich gegen unvorhergesehene Angriffe auf staatlicher Ebene zu wappnen“.
Bei diesen Bildern ist klar, dass sie von einer KI generiert wurden