Anzeige
Anzeige
News

OpenAI enthüllt Sicherheitskonzept für künstliche Intelligenz

Wird künstliche Intelligenz in Zukunft eine Gefahr? Diese Frage stellen sich Experten und Nutzer immer wieder. Geht es nach OpenAI, wird dies nicht der Fall, denn das Unternehmen hat unlängst an einem Sicherheitskonzept gearbeitet.

1 Min.
Artikel merken
Anzeige
Anzeige

OpenAI will sicherheitsbewusst in die Zukunft gehen. (Foto: Meir Chaimowitz / Shutterstock)

Die Popularität von ChatGPT hat zuletzt eine Debatte in der Tech-Community ausgelöst, inwiefern KI gefährlich sein könnte. Auch Führungskräfte von OpenAI, Google und Microsoft selbst haben bereits vor den existenziellen Gefahren gewarnt, die mit KI einhergehen könnten.

Anzeige
Anzeige

In einer kürzlich veröffentlichten Stellungnahme gab OpenAI seine Strategien bekannt, um den potenziellen Gefahren künstlicher Intelligenz vorausschauend zu begegnen. Dabei steht insbesondere die Vermeidung von Risiken in Zusammenhang mit der Entwicklung von Technologien im Vordergrund.

OpenAI ist sich der Risiken bewusst

Das sogenannte Preparedness-Team unter der Leitung von MIT-KI-Professor Aleksander Madry wird in dieser Mission eine Schlüsselrolle spielen. Das Team wird sich aus KI-Forschern, Informatikern, nationalen Sicherheitsexperten und Politikexperten zusammensetzen, die gemeinsam die Entwicklungen der KI überwachen und OpenAI warnen sollen, wenn potenzielle Gefahren auftauchen. Diese Gruppe agiert zwischen dem Safety-Systems-Team, das sich auf die Behebung bestehender Probleme wie die Vermeidung von rassistischen Vorurteilen in KI konzentriert, und dem Superalignment-Team, das sich mit der Frage beschäftigt, wie KI in einer Zukunft, in der sie menschliche Intelligenz übertrifft, sicher eingesetzt werden kann.

Anzeige
Anzeige

Das Sicherheitskonzept von OpenAI umfasst eine Risikobewertung in vier Hauptkategorien: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohung, Überzeugungskraft und Autonomie des Modells. Jede Kategorie wird dann anhand bestimmter Kriterien auf einer Skala von „niedrig“ bis „kritisch“ bewertet. Dieses Modell soll vor und nach der Implementierung von Sicherheitsmaßnahmen angewendet werden. Insgesamt verspricht OpenAI mit seinem Sicherheitskonzept, die KI-Entwicklung verantwortungsbewusst voranzutreiben und gleichzeitig die bestehenden und zukünftigen Risiken im Blick zu behalten.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige