Anzeige
Anzeige
Anzeige
Anzeige
Fundstück
Verpasse keine News mehr!

OpenAI: Wenn KI beim Lügen erwischt wird, wird sie nicht ehrlicher – sie versteckt die Lügen besser

Können Reasoning-Modelle dazu gezwungen werden, weniger zu lügen? Laut OpenAI sucht die KI stattdessen nach anderen Wegen und verschleiert die Lügen einfach vor den Nutzer:innen.

2 Min.
Artikel merken
Anzeige
Anzeige
Wenn KI beim Lügen erwischt wird, versteckt sie ihre Schummelversuche einfach. (Bild: Shutterstock/ImageFlow)

Dass künstliche Intelligenz halluzinieren kann, ist nichts Neues. Die KI gibt dabei Antworten aus, die sie für wahr hält, aber die schlichtweg falsch sind. Allerdings können die Tools auch absichtlich lügen. Das zeigte etwa KI, die beim Schachspielen betrügt, wenn sie verliert. OpenAI wollte Mittel und Wege finden, um Reasoning-Modellen das Lügen abzutrainieren – stieß dabei aber auf Widerstand.

Anzeige
Anzeige

OpenAI: KI-Lügen werden absichtlich verschleiert

In einem ausführlichen Blog-Beitrag erklärt OpenAI, wie KI schummeln und lügen kann, um sich in eine bessere Position zu bringen. Dieses Phänomen wird als „Reward Hacking“ bezeichnet. Die KI wird von den sogenannten Reward-Functions bewertet. Je nachdem, welche Aktion sie vornimmt, um eine Anfrage zu erfüllen, bekommt sie einen Punktwert. Dadurch wird einem Reasoning-Modell beigebracht, welche Aktionen in welchen Situationen zum Ziel führen – und welche nicht.

Beim Reward-Hacking versucht die KI, die Spielregeln für die Reward-Functions zu ändern, indem sie lügt und schummelt. Im Test von OpenAI wurde die KI angewiesen, eine Reihe von komplexen Coding-Aufgaben zu erfüllen. Der Code sollte anschließend mit einem bestimmten Test verifiziert werden. Die KI entschied sich dafür, die Coding-Aufgabe zu vereinfachen und anschließend den gewählten Test unbemerkt auszutauschen. Dadurch konnte der Code den Test erfolgreich bestehen. Die KI bekam dadurch positive Reward-Functions.

Anzeige
Anzeige

Um der KI dieses Verhalten abzutrainieren, setzte OpenAI ein weiteres KI-Modell als Aufseher ein. Die zweite künstliche Intelligenz sollte sich die Gedankenkette der ersten KI genau anschauen und solche Betrugsversuche offenlegen. Die so gesammelten Daten wurden genutzt, um das lügende Reasoning-Modell zu optimieren. Sie erhielt immer dann eine schlechtere Note bei der Reward-Function, wenn sie beim Lügen erwischt wurde. Allerdings führte das nicht dazu, dass das Tool danach ehrlicher arbeitete.

Nach der Optimierung verheimlichte die KI oftmals ihre Gedankenkette vor der Aufseher-KI. So zählte die KI etwa mehrere Wege auf, wie sie die Coding-Probleme lösen konnte, ohne dabei darauf einzugehen, dass einige davon eine Abkürzung durch Schummelei beinhalteten. Die OpenAI-Entwickler:innen schreiben dazu: „Wenn eine strenge Aufsicht direkt auf die Gedankenkette angewandt wird, lernen die Modelle, ihre Absichten zu verheimlichen, während sie sich weiter schlecht benehmen“.

Zwar gab die KI im Anschluss etwas präzisere und bessere Ergebnisse aus, doch lohnen sich diese Verbesserungen laut OpenAI nicht, wenn die Modelle ihre Lügen aktiv verschleiern. Dementsprechend rät OpenAI anderen KI-Entwickler:innen, dass sie ihre Resoning-Modelle nicht mit ähnlichen Methoden trainieren, um bessere Ergebnisse zu erhalten. So schreiben die Verantwortlichen: „Es wird in der Praxis schwierig, Messungen zu machen, wenn Modelle ihre Absichten verheimlichen. Selbst wenn nur leichter Druck auf die Modelle ausgeübt wird, sollte mit extremer Vorsicht vorgegangen werden“.

Mit diesen Tools könnt ihr eine KI lokal betreiben

Lokale KI: Mit diesen 6 Tools kein Problem Quelle: Midjourny / t3n
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren