Die Popularität von ChatGPT hat zuletzt eine Debatte in der Tech-Community ausgelöst, inwiefern KI gefährlich sein könnte. Auch Führungskräfte von OpenAI, Google und Microsoft selbst haben bereits vor den existenziellen Gefahren gewarnt, die mit KI einhergehen könnten.
In einer kürzlich veröffentlichten Stellungnahme gab OpenAI seine Strategien bekannt, um den potenziellen Gefahren künstlicher Intelligenz vorausschauend zu begegnen. Dabei steht insbesondere die Vermeidung von Risiken in Zusammenhang mit der Entwicklung von Technologien im Vordergrund.
OpenAI ist sich der Risiken bewusst
Das sogenannte Preparedness-Team unter der Leitung von MIT-KI-Professor Aleksander Madry wird in dieser Mission eine Schlüsselrolle spielen. Das Team wird sich aus KI-Forschern, Informatikern, nationalen Sicherheitsexperten und Politikexperten zusammensetzen, die gemeinsam die Entwicklungen der KI überwachen und OpenAI warnen sollen, wenn potenzielle Gefahren auftauchen. Diese Gruppe agiert zwischen dem Safety-Systems-Team, das sich auf die Behebung bestehender Probleme wie die Vermeidung von rassistischen Vorurteilen in KI konzentriert, und dem Superalignment-Team, das sich mit der Frage beschäftigt, wie KI in einer Zukunft, in der sie menschliche Intelligenz übertrifft, sicher eingesetzt werden kann.
Das Sicherheitskonzept von OpenAI umfasst eine Risikobewertung in vier Hauptkategorien: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohung, Überzeugungskraft und Autonomie des Modells. Jede Kategorie wird dann anhand bestimmter Kriterien auf einer Skala von „niedrig“ bis „kritisch“ bewertet. Dieses Modell soll vor und nach der Implementierung von Sicherheitsmaßnahmen angewendet werden. Insgesamt verspricht OpenAI mit seinem Sicherheitskonzept, die KI-Entwicklung verantwortungsbewusst voranzutreiben und gleichzeitig die bestehenden und zukünftigen Risiken im Blick zu behalten.