News

Wie Elon Musks OpenAI-Initiative künstliche Intelligenz sicherer machen will

(Grafik: Shutterstock)

Elon Musks OpenAI hat gemeinsam mit Googles Deepmind-Team einen Algorithmus entwickelt, der falsches oder sogar potenziell gefährliches Verhalten von künstlicher Intelligenz verhindern soll.

OpenAI und Deepmind: Algorithmus soll zu mehr Sicherheit bei künstlicher Intelligenz führen

Der Begriff bestärkendes Lernen kommt aus dem Bereich des maschinellen Lernens und bezeichnet Verfahren, bei denen eine künstliche Intelligenz (KI) selbstständig eine Strategie entwickelt, um ihre vom System festgelegte Belohnung zu maximieren. Dadurch soll das Lernverhalten aus der Natur nachgebildet werden. Der Vorteil: Die KI lernt selbstständig dazu und muss nicht von Menschen trainiert werden.

Künstliche Intelligenz: Minimales menschliches Feedback soll dabei helfen, Fehler zu vermeiden. (Grafik: OpenAI)

Allerdings kann das bestärkende Lernen auch zu Fehlern führen, wenn das Ziel nicht ausreichend klar definiert wurde. Solche Fehler könnten, je nach Einsatzgebiet, in Zukunft dramatische Konsequenzen haben. Jetzt haben Wissenschaftler mit der von Elon Musk, Sam Altman und anderen Tech-Größen ins Leben gerufenen Non-Profit-Organisation OpenAI gemeinsam mit Googles Deepmind-Team eine mögliche Lösung für dieses Problem vorgestellt.

OpenAI und Deepmind wollen KIs durch minimalen menschlichen Aufwand sicherer machen

Vereinfacht ausgedrückt funktioniert die Methode wie folgt: Der Nutzer bekommt jeweils zwei mögliche Lösungsvorschläge von der KI mittgeteilt und entscheidet sich jeweils für den Besseren. In Versuchen soll es ausgereicht haben, der KI in nur einem Prozent der Zeit, in der sie mit ihrer Umgebung interagiert hat, menschliches Feedback zu geben, um das gewünschte Ergebnis zu erreichen. Menschen müssen also nur wenig Zeit aufbringen, um etwaige Fehler beim Verhalten der KI zu verhindern.


Wer sich für die Thematik interessiert, der kann einen Blick auf das Paper mit dem Titel „Deep reinforcement learning from human preferences“ werfen. Um besser verstehen zu können, was das OpenAI-Team und die Google-Wissenschaftler mit möglichen Gefahren meinen, lohnt sich außerdem die Lektüre des 2016 veröffentlichten Papers „Concrete Problems in AI Safety“.

Ebenfalls interessant:

via blog.openai.com

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung