Machine Learning: Microsoft setzt auf KI zum Finden von Sicherheitslücken

(Foto: Shutterstock)
Das Security-Team von Microsoft setzt auf Machine-Learning-Modelle, um gemeldete Fehler danach zu klassifizieren, ob sie sicherheitskritische Lücken sind oder nicht, wie das Unternehmen in seinem Blog mitteilt. Durch eine neue Methode sei das Modell dabei so gut, dass in 99 Prozent aller Fälle gemeldete Fehler korrekt als sicherheitsrelevant klassifiziert werden und in 97 Prozent aller Fälle korrekt als kritisch oder nicht kritisch einsortiert werden.
Als Begründung für die Arbeit schreibt Microsoft, dass Entwickler mithilfe automatisierter Werkzeuge darin unterstützt werden sollen, ihre Arbeit besser zu priorisieren. „Zu oft verschwenden Ingenieure jedoch Zeit mit Fehlalarmen oder übersehen eine kritische Sicherheitslücke, die falsch klassifiziert wurde“, schreibt das Unternehmen in seiner Ankündigung. Wenig überraschend betont Microsoft darüber hinaus, dass die Verknüpfung der Arbeit an den Machine-Learning-Modellen mit der Expertise von Security-Experten zu besseren Ergebnissen geführt habe.
Grundlage für das Training des Modells seien die rund 13 Millionen Fehlerberichte und Arbeitsaufgaben, die das Unternehmen seit 2001 sammelt. Davon wurde ein Teil für das Training entsprechend ihrer Qualität ausgewählt. Nach dem initialen Training hätten die Sicherheitsexperten von Microsoft das Modell im produktiven Einsatz getestet und evaluiert. Das sei durch Überprüfung der durchschnittlichen gefundenen Anzahl von Fehlern und einer zufälligen Auswahl der gefundenen Fehler geschehen. Das Modell wurde mittels dieser Methode außerdem mehrfach verbessert.
Arbeiten mit KI nichts Neues
Die Idee, automatische Hilfen zu benutzen, um Sicherheitslücken zu erkennen oder zu verhindern, ist nicht neu. So testet Facebook etwa seinen Code mit dem System Zoncolan. Der Cloud-Anbieter AWS nutzt für seinen Codeguru darüber hinaus Machine-Learning-Techniken zur Code-Überprüfung. Das Besondere an dem Modell von Microsoft ist wohl, dass es auf den Titeln der Fehlermeldungen basiert und nicht auf deren eigentlichem Inhalt.
Das Unternehmen plant, die genutzte Methodik „in den kommenden Monaten“ Open Source auf GitHub zu veröffentlichen. Eine wissenschaftliche Auswertung stellt Microsoft darüber hinaus als Teil seiner Dokumentation bereit.
Autor des Artikels ist Sebastian Grüner.
Das Einfallstor bleibt der Mensch. „Jetzt kommt eine Fehlermeldung, die Sie zum Test bitte mit OK bestätigen“…
KI kann Unterscheiden aber keine Prozesse infiltrieren.