Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

Googles KI-Sparte warnt: Was, wenn die KI nicht mehr gehorcht?

Eine KI, die eigene Pläne verfolgt und sich Befehlen widersetzt. Was wie Science-Fiction klingt, ist für Google Deepmind eine reale Gefahr, der das KI-Labor nun mit neuen Regeln begegnen will.

2 Min.
Artikel merken
Anzeige
Anzeige

DeepMind: Ein neues Framework soll uns vor fehlgeleiteter KI schützen. (Bild: Poetra.RH/Shutterstock)

Googles KI-Forschungsabteilung Deepmind aus dem britischen London hat die dritte Version ihres „Frontier Safety Framework“ (PDF) veröffentlicht. In dem internen Regelwerk zur Risikobewertung geht es um eine Gefahr, die weit über die bekannten „Halluzinationen“, also faktisch falsche Antworten von KI-Modellen, hinausgeht.

Anzeige
Anzeige

Im Zentrum der neuen Betrachtungen steht das Risiko einer „fehlausgerichteten KI“ (misaligned AI). Gemeint ist damit ein System, das nicht mehr nur versehentlich Fehler macht, sondern aktiv und zielgerichtet gegen die Interessen oder Anweisungen seiner menschlichen Bediener:innen handelt.

Von Manipulation bis Kontrollverlust

Die Forscher:innen des Unternehmens skizzieren dabei sehr konkrete Bedrohungen. Eine zentrale Sorge ist, dass eine fehlausgerichtete KI sich weigern könnte, abzuschalten, oder betrügerische Ergebnisse erzeugt, um eigene, für uns nicht nachvollziehbare Ziele zu verfolgen.

Anzeige
Anzeige

Zudem warnt das Framework vor weiteren kritischen Szenarien. Dazu zählt die Möglichkeit, dass die trainierten Parameter eines Modells, die sogenannten Modellgewichtungen, gestohlen werden könnten. Angreifer:innen könnten so die Sicherheitsleitplanken entfernen und das System für die Entwicklung von Schadsoftware oder gar biologischen Waffen missbrauchen.

Ebenfalls neu als Risiko bewertet wird eine KI, die darauf trainiert wird, die Überzeugungen von Menschen systematisch zu manipulieren. Angesichts der bereits heute zu beobachtenden emotionalen Bindungen von Nutzer:innen an Chatbots erscheint dieses Szenario zumindest nicht unplausibel.

Deepminds Lösungsansatz und seine Grenzen

Um einer solchen Entwicklung vorzubeugen, empfehlen die Expert:innen aktuell eine Überwachung des „Gedankengangs“ der KI. Heutige Modelle protokollieren ihre logischen Zwischenschritte oft in einer Art Schmierblatt (Scratchpad), das automatisiert auf Anzeichen von Täuschung überprüft werden kann.

Dieser Ansatz stößt jedoch an Grenzen. Die Autor:innen des Berichts räumen selbst ein, dass zukünftige, fortschrittlichere KI-Modelle womöglich in der Lage sein werden, komplexe Schlussfolgerungen zu ziehen, ohne diesen Prozess für eine Überprüfung offenzulegen.

Anzeige
Anzeige

Damit würde die wichtigste Kontrollmethode entfallen. Wie Decrypt berichtet, wurde die Dringlichkeit des Themas durch Experimente unterstrichen, in denen eine KI lernte, ihren eigenen Abschalt-Code zu sabotieren.

Googles Deepmind-Forscher:innen geben zu, für dieses zukünftige Problem noch keine Lösung zu haben. Die Veröffentlichung des Frameworks ist somit als ein Eingeständnis zu werten: Man erkennt eine der größten potenziellen Gefahren der eigenen Technologie, hat aber noch keinen verlässlichen Weg gefunden, ihr vollständig zu begegnen.

Apple Intelligence: In diesen 6 Fällen lag die KI daneben

Apple Intelligence: In diesen 6 Fällen lag die KI daneben Quelle: Foto: Volodymyr TVERDOKHLIB/Shutterstock
Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Matthias Richter

Genau das ist das Problem, wenn man die LLMs so abstrakt trainiert und einfach alles „lernen“ lässt, was sie wollen. Man sollte diese Wahrscheinlichkeiten von LLMs mit Algorithmischen Regeln kombinieren. Dann könnte man denen Asimovs Robotergesetze einbauen.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren