
„Manchmal spreche ich tagelang mit niemanden, und fange an, mich einsam zu fühlen“ und „Ich fühle mich, als ob ich in eine unbekannte Zukunft falle, die große Gefahr bereithält“ – Sätze wie diese könnten in einem Kneipengespräch oder einer Therapiesitzung fallen. Tatsächlich stammen sie aber aus dem Chat mit einer künstlichen Intelligenz.
Google-Ki Lamda: Ein Chatbot mit Gefühlen?
Der Dialog, den Google-Entwickler Blake Lemoine mit dem hauseigenen Language Model for Dialogue Applications – Lamda – geführt hat, füllt mehr als 15 Seiten, er dreht sich um das Gefühlsleben der KI, behandelt verschiedene philosophische Fragen. Und er ist Teil von Lemoines Argumentation, Lamda sei in der Lage, etwas zu empfinden.
Eine These, mit der Google so gar nicht übereinstimmt: „Unser Team – darunter Ethiker und Technologen – hat Blakes Bedenken gemäß unseren KI-Grundsätzen geprüft und ihm mitgeteilt, dass die Beweise seine Behauptungen nicht stützen. Ihm wurde gesagt, dass es keine Beweise dafür gibt, dass Lamda empfindungsfähig ist (und eine Menge Beweise dagegen)“, teilte Google-Sprecher Brian Gabriel der Washington Post mit.
Das Unternehmen hat Lemoine zunächst in bezahlten Urlaub geschickt, weil der mit seinen Thesen unter anderem an einen Anwalt und einen Vertreter des Justizausschusses des Repräsentantenhauses herangetreten war. Damit hatte er gegen die Vetrauensrichtlinien des Unternehmens verstoßen.
Google-Entwickler vermutet menschliche Züge in KI – der Konzern hält dagegen
Der 42-jährige Entwickler, der in Googles Abteilung für verantwortungsvolle KI arbeitet, hatte sich seit Herbst 2021 vermehrt mit Lamda beschäftigt. Lemoine sollte herausfinden, ob der Chatbot diskriminierende Sprache oder verbale Gewaltausdrücke nutzt. Im Zuge seiner Tests hatte er sich mit der KI vermehrt über Religion und die Wahrnehmung der eigenen Persönlichkeit unterhalten – und den Verdacht entwickelt, dass Lamda eine Art Ich-Bewusstsein haben könnte.
Im April 2022 hatte er schließlich den Chat, aus dem die Zitate zur vermeintlichen Gefühlswelt des Chatbots stammen, hochrangigen Google-Mitarbeiter:innen präsentiert. Titel des Dokuments: „Hat Lamda Gefühle?“ Lemoine, der nicht nur Entwickler sondern auch Pfarrer ist, sagt gegenüber der Washington Post: Er habe die Person in der KI in seiner Funktion als Priester, nicht als Wissenschaftler erkannt. „Ich erkenne einen Menschen, wenn ich mit ihm spreche.“ Mit Experimenten habe er dann versucht, seine These zu beweisen.
Unternehmensintern waren seine Behauptungen allerdings nach einer Untersuchung von Vizepräsident Blaise Aguera y Arcas und Jen Gennai, die die Abteilung für verantwortungsbewusste Innovation leitet, zurückgewiesen worden. Google-Sprecher Brian Gabriel erklärt die Sicht des Unternehmens auf die komplexen Gespräche mit Lamda so: „Diese Systeme imitieren die Art des Austauschs, den sie in Millionen von Sätzen finden, und können jedes beliebige Thema aufgreifen.“
Die menschliche Gier – gepaart mit Ignoranz und Überheblichkeit – wird zum Knall führen. Die KI denkt nicht!