KI-Modelle im Visier: So schützen Unternehmen ihre Modelle vor Manipulation
Unternehmen müssen tätig werden: Neue Vorschriften wie der AI Act der EU fordern mehr Sicherheit beim Einsatz von KI-Modellen. (Symbolfoto: Digineer Station/Shutterstock)
Wenn ein KI-System kompromittiert wird, hat das womöglich weitreichende Folgen: Ein manipuliertes KI-Modell kann beispielsweise falsche Entscheidungen treffen, ausfallen oder – im schlimmsten Fall – sensible Daten preisgeben. Die Risiken reichen von Datenlecks über verfälschte Ergebnisse bis hin zu Systemstörungen. Sie betreffen damit die drei Grundprinzipien der Informationssicherheit: Vertraulichkeit, Integrität und Verfügbarkeit, auch bekannt als CIA-Triade (Confidentiality, Integrity, Availability).
Hinzu kommen betriebswirtschaftliche Risiken durch den Verlust von Vertrauen bei Kunden und Partnern. KI-Sicherheit ist damit nicht nur ein IT-Thema, sondern entscheidend für den Geschäftsbetrieb.
Wie Angriffe auf KI-Modelle aussehen können
Eine Angriffsmethode, die derzeit weit verbreitet ist, ist die sogenannte Prompt Injection. Dabei schleusen Angreifer manipulierte Eingaben in ein Modell ein, um vertrauliche Informationen abzugreifen oder das System zu schädigen.
Besonders häufig beobachtet werden indirekte Prompt Injections – etwa über externe Datenquellen oder Schnittstellen, die von der KI genutzt werden. Da Unternehmen ihre Modelle oft über öffentliche APIs verfügbar machen, ist die Angriffsfläche groß: Hacker scannen diese Endpunkte automatisiert nach Schwachstellen und testen verschiedene Manipulationstechniken.
Ein Beispiel: Eine scheinbar harmlose E-Mail enthält versteckte Anweisungen im Textkörper. Wird diese in ein KI-gestütztes System eingespeist, kann sie das Modell dazu bringen, sensible Daten preiszugeben oder fehlerhafte Befehle auszuführen.
Schutzmaßnahmen: Was Unternehmen jetzt tun sollten
Die gute Nachricht: Es gibt erprobte Ansätze, um KI-Systeme abzusichern. Entscheidend ist dabei die richtige Umsetzung. Drei Beispiele zeigen, worauf es ankommt:
1. Zugriffskontrolle und Identitätsmanagement
Um die Sicherheit von KI-Systemen zu gewährleisten, ist eine konsequente Zugriffskontrolle und ein durchdachtes Identitätsmanagement entscheidend. Nach dem Zero-Trust-Prinzip wird dabei jeder Zugriff eindeutig verifiziert – es existiert also kein grundsätzliches Vertrauen, sondern jede Person muss sich klar ausweisen. Gleichzeitig sorgt eine rollenbasierte Rechtevergabe dafür, dass nur diejenigen Zugriff auf bestimmte Befehle oder Daten erhalten, die für ihre jeweilige Aufgabe vorgesehen sind. Ergänzt wird das durch die Regel, dass sich jede Person und jedes System bei jedem Zugriff neu ausweisen muss, ähnlich wie beim Online-Banking mit einer Zwei-Faktor-Authentifizierung. Dafür ist in der Regel die IT-Abteilung verantwortlich, die dafür sorgt, dass Rollen und Berechtigungen in den Systemen sauber hinterlegt sind.
2. Datensicherheit und Modellschutz
Ein zentraler Aspekt der Sicherheit von KI-Systemen ist der Schutz von Daten und Modellen. Trainingsdaten und Modelle müssen dabei sowohl im Speicher als auch während der Übertragung verschlüsselt werden, um unbefugten Zugriff zu verhindern. Zusätzlich sollten KI-Systeme ähnlich wie klassische Webanwendungen abgesichert werden, etwa durch Firewalls und bestimmte Mechanismen, die übermäßige oder schädliche Zugriffe begrenzen. Ein- und Ausgaben der KI müssen zudem sorgfältig überprüft werden, um Missbrauch zu verhindern und ethische sowie rechtliche Standards einzuhalten.
3. Monitoring und kontinuierliche Tests
Ein weiterer wichtiger Baustein der KI-Sicherheit ist das kontinuierliche Monitoring und regelmäßige Testen der Systeme. Alle Interaktionen mit dem Modell sollten dabei protokolliert und in Echtzeit auf Auffälligkeiten überprüft werden, um mögliche Sicherheitsvorfälle frühzeitig zu erkennen. Gezielte Angriffssimulationen helfen dabei, Schwachstellen aufzudecken. Je nach Risikoprofil sollten diese Tests mindestens alle zwei Jahre durchgeführt werden, bei besonders kritischen Systemen sogar deutlich häufiger. Um die Robustheit der Modelle weiter zu erhöhen, können sie außerdem mit manipulierten Eingaben trainiert werden, sodass sie gegen Angriffe widerstandsfähiger werden. Das allerdings erfordert einen erheblichen Aufwand.
KI-Sicherheit ist Pflicht, nicht Kür
KI ist nicht nur ein Innovationstreiber, sondern auch ein neues Einfallstor für Angriffe. Doch die Bedrohung ist nicht rein technischer Natur. Viele Unternehmen stehen heute vor regulatorischen und organisatorischen Herausforderungen: Die Anforderungen des EU AI Act, der DSGVO oder der ISO-Normen für KI verlangen, dass Sicherheit, Nachvollziehbarkeit und Governance feste Bestandteile jeder KI-Lösung sind – und das entlang des gesamten KI-Lebenszyklus von der Entwicklung bis zur Nutzung.
Wer diese Anforderungen ignoriert, riskiert nicht nur Sicherheitslücken, sondern auch hohe Bußgelder. Sicherheit muss deshalb von Anfang an Teil jeder KI-Initiative sein – nicht als Zusatz, sondern als Grundprinzip. Nur so wird aus KI kein Risiko, sondern ein verlässlicher Helfer.