Die New York Times (NYT) konnte interne Dokumente Googles einsehen, die belegen sollen, dass Google und das angegliederte Deepmind-Labor für künstliche Intelligenz an generativer KI arbeiten, die „mindestens 21 verschiedene Arten von persönlichen und beruflichen Aufgaben erfüllen“ soll.
Zu diesen Aufgaben gehört auch die Lebensberatung, und damit ein Bereich, den sogar Googles interne Sicherheitsexperten für besonders problematisch halten.
Erst im vergangenen Dezember hatten sie resümiert, dass Nutzer:innen von KI-Systemen durch die Annahme von KI-generierten Lebensratschlägen „eine verminderte Gesundheit und ein vermindertes Wohlbefinden“ sowie einen „Verlust der Handlungsfähigkeit“ erleiden könnten. So ist es etwa dem hauseigenen Google-Chatbot Bard verboten, seinen Nutzer:innen Rechts-, Finanz- oder medizinische Ratschläge zu erteilen.
Einige Monate später scheint Google die Bedenken der Sicherheitsforscher für weniger wichtig zu erachten.
Zu intensiv scheinen der Wettbewerb und die erste universelle KI, die dann womöglich eine ähnliche Marktführerschaft erwerben könnten, wie Google es seinerzeit mit der Suchmaschine gelang. Ethische Fragen scheinen die Hersteller eher im Nachgang klären zu wollen.
Laut NYT hat Googles Deepmind die Dienstleister von Scale AI damit beauftragt, das Projekt zu testen. Sie sollen große Teams mit Hunderten Expert:innen zusammengestellt haben. Die NYT konnte auch einen Teil der Fragen einsehen, die der KI-Lifecoach begleiten soll, etwa Fragen zur Etikette bei Hochzeiten am Urlaubsort.
Weitere KI-Helfer in Arbeit
Zudem soll die KI auch als Nachhilfeinstrument sowie einer Art Planer, mit dem sich Dinge wie Haushalts- und Diätpläne oder Trainingsanleitungen erstellen lassen, eingesetzt werden können. Der NYT zufolge hat Google noch nicht entschieden, ob es eines dieser in Entwicklung befindlichen Tools zum Einsatz bringen wird.
Googles Deepmind sieht jedenfalls zunächst keinen Grund zur Sorge. Denn ein solcher Evaluierungsprozess sei stets ein „kritischer Schritt bei der Entwicklung sicherer und hilfreicher Technologien“. Das sei völlig normal, schließlich würden „zu jeder Zeit“ viele solcher Evaluierungen durchgeführt.