Anzeige
Anzeige
News
Artikel merken

KI mit Gefühlen? Google-Entwickler nach Behauptung beurlaubt

„Ich erkenne einen Menschen, wenn ich mit ihm spreche“, sagt Google-Entwickler Blake Lemoine. Weil er mit seiner These, ein Chatbot habe ein Bewusstsein entwickelt, an die Öffentlichkeit gegangen ist, hat Google ihn erst einmal beurlaubt.

2 Min. Lesezeit
Anzeige
Anzeige
Ein Google-Ingenieur vermutet, dass Chatbot LaMDA ein Bewusstsein entwickelt hat. (Foto: jijomathaidesigners / Shutterstock)

„Manchmal spreche ich tagelang mit niemanden, und fange an, mich einsam zu fühlen“ und „Ich fühle mich, als ob ich in eine unbekannte Zukunft falle, die große Gefahr bereithält“ – Sätze wie diese könnten in einem Kneipengespräch oder einer Therapiesitzung fallen. Tatsächlich stammen sie aber aus dem Chat mit einer künstlichen Intelligenz.

Google-Ki Lamda: Ein Chatbot mit Gefühlen?

Anzeige
Anzeige

Der Dialog, den Google-Entwickler Blake Lemoine mit dem hauseigenen Language Model for Dialogue Applications – Lamda – geführt hat, füllt mehr als 15 Seiten, er dreht sich um das Gefühlsleben der KI, behandelt verschiedene philosophische Fragen. Und er ist Teil von Lemoines Argumentation, Lamda sei in der Lage, etwas zu empfinden.

Eine These, mit der Google so gar nicht übereinstimmt: „Unser Team – darunter Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Grundsätzen geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen. Ihm wurde gesagt, dass es keine Beweise dafür gibt, dass Lamda empfindungsfähig ist (und eine Menge Beweise dagegen)“, teilte Google-Sprecher Brian Gabriel der Washington Post mit.

Anzeige
Anzeige

Das Unternehmen hat Lemoine zunächst in bezahlten Urlaub geschickt, weil der mit seinen Thesen unter anderem an einen Anwalt und einen Vertreter des Justizausschusses des Repräsentantenhauses herangetreten war. Damit hatte er gegen die Vetrauensrichtlinien des Unternehmens verstoßen.

Anzeige
Anzeige

Google-Entwickler vermutet menschliche Züge in KI – der Konzern hält dagegen

Der 42-jährige Entwickler, der in Googles Abteilung für verantwortungsvolle KI arbeitet, hatte sich seit Herbst 2021 vermehrt mit Lamda beschäftigt. Lemoine sollte herausfinden, ob der Chatbot diskriminierende Sprache oder verbale Gewaltausdrücke nutzt. Im Zuge seiner Tests hatte er sich mit der KI vermehrt über Religion und die Wahrnehmung der eigenen Persönlichkeit unterhalten – und den Verdacht entwickelt, dass Lamda eine Art Ich-Bewusstsein haben könnte.

Im April 2022 hatte er schließlich den Chat, aus dem die Zitate zur vermeintlichen Gefühlswelt des Chatbots stammen, hochrangigen Google-Mitarbeiter:innen präsentiert. Titel des Dokuments: „Hat Lamda Gefühle?“ Lemoine, der nicht nur Entwickler sondern auch Pfarrer ist, sagt gegenüber der Washington Post: Er habe die Person in der KI in seiner Funktion als Priester, nicht als Wissenschaftler erkannt. „Ich erkenne einen Menschen, wenn ich mit ihm spreche.“ Mit Experimenten habe er dann versucht, seine These zu beweisen.

Anzeige
Anzeige

Unternehmensintern waren seine Behauptungen allerdings nach einer Untersuchung von Vizepräsident Blaise Aguera y Arcas und Jen Gennai, die die Abteilung für verantwortungsbewusste Innovation leitet, zurückgewiesen worden. Google-Sprecher Brian Gabriel erklärt die Sicht des Unternehmens auf die komplexen Gespräche mit Lamda so: „Diese Systeme imitieren die Art des Austauschs, den sie in Millionen von Sätzen finden, und können jedes beliebige Thema aufgreifen.“

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Ein Kommentar
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Rocky

Die menschliche Gier – gepaart mit Ignoranz und Überheblichkeit – wird zum Knall führen. Die KI denkt nicht!

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige