Chancen und Schattenseiten offener KI-Modelle: Forscher geben Orientierung
Die Frage, ob offene KI-Modelle einfacher von böswilligen Akteuren missbraucht werden können, wird immer wieder heiß diskutiert. Ein neuer Forschungsbericht unter anderem von Forschern der Princeton University beschäftigt sich nun mit dieser Frage.
Sie hinterfragt regulatorische Maßnahmen von Regierungen und beleuchtet die Chancen und Risiken von offenen KI-Modellen. Dabei wird zwischen drei Arten von KI-Modellen unterschieden.
Es gibt die Offenen Modelle, bei denen der Zugang zu Architektur und Daten des KI-Systems für jeden zugänglich ist. Dann gibt es geschlossene Modelle, bei denen nur die Entwickler Zugriff auf die Architektur und Daten haben. Schließlich gibt es noch hybride Modelle, bei denen Teile öffentlich sind und andere geheim gehalten werden.
Chancen von offenen KI-Modellen
Offene Modelle bringen einige Vorteile mit sich. Sie bieten Forschern und Ingenieuren die Möglichkeit, sie zu modifizieren und weiterzuentwickeln, wodurch potentiell die Innovation gefördert wird.
Außerdem bieten sie mehr Transparenz, was das Vertrauen in diese Modelle stärkt und Wissenschaftlern die Möglichkeit bietet, die Funktionsweisen der KI zu verstehen. Zudem tendieren offene Modelle dazu, eine Monopolbildung zu verhindern, da auch kleine Unternehmen und unabhängige Entwickler sie nutzen können.
Risiken von offenen KI-Modellen
Diese Offenheit bringt allerdings auch Risiken mit sich. Es wird nämlich auch der Zugang für diejenigen vereinfacht, die sie für schädliche Zwecke nutzen möchten. Diese können zum Beispiel genutzt werden, um Fehlinformationen effizient zu verbreiten.
Außerdem können sie Modelle dazu trainieren, effiziente Phishing-Mails zu verfassen, um Daten oder Geld zu erbeuten.
Offene Modelle bergen keine größeren Risiken
Trotzdem kommen die Forscher zu dem Schluss, dass es keine klaren Hinweise dafür gibt, dass offene Modelle mehr Risiken bergen als geschlossene, schreibt Tech Xplore. Bei Phishing-Mails zum Beispiel liege das Problem nicht bei den KI-generierten Texten, sondern an fehlenden Sicherheitsvorkehrungen bei Empfänger-Systemen wie Browsern und E-Mail-Programmen.
Dazu bergen KI-Modelle das Risiko, dass der Zugang zu gefährlichen Informationen einfacher wird. Die Forscher merken allerdings an, dass diese auch über andere Quellen wie Suchmaschinen zugänglich sind.
Die Forscher warnen davor, voreilige Schlussfolgerungen zu ziehen und den Zugang zu KI-Modellen pauschal einzuschränken. Regulierungen sollten auf einer fundierten Risikobewertung basieren, nicht auf allgemeinen Befürchtungen.
Alle Ergebnisse haben sie in ihrer Studie zusammengefasst, welche im Journal Science erschienen ist.