
Microsofts KI-Umfragen treffen nicht immer den richtigen Ton. (Foto: VDB Photos/Shutterstock)
Lilie James, eine 21-jährige Wasserballtrainerin, wurde im australischen Sydney tot in einer Schultoilette gefunden. Darüber berichtete der Guardian. Doch neben dem Artikel auf der Startseite von MSN erschien eine Umfrage, die die Leser:innen aufforderte, über die Todesursache der jungen Frau zu spekulieren, indem sie zwischen Mord, Unfall oder Selbstmord wählen sollten. Wie später bekannt wurde, wurde diese Umfrage von einer KI auf Grundlage des Artikels generiert.
Die Geschäftsführerin der Guardian Media Group, Anna Bateson, äußerte in einem Brief an Microsoft-Präsident Brad Smith ihre Empörung über diese „eindeutig unangemessene“ Verwendung von KI. Das berichtet die New York Times. Sie betonte, dass dies nicht nur die Familie der Verstorbenen potenziell traumatisiere, sondern auch den Ruf des Guardian und seiner Journalisten erheblich schädige.
Microsoft kündigt Untersuchung an
Bateson forderte von Microsoft die Zusicherung, dass in Zukunft keine experimentellen KI-Technologien ohne Genehmigung neben journalistischen Inhalten verwendet werden und dass Transparenz bei der Anwendung von KI gewährleistet wird. Microsoft reagierte auf die Kritik, indem es die von Microsoft generierten Umfragen für alle Nachrichtenartikel deaktivierte und versprach, die Ursache des unangemessenen Inhalts zu untersuchen.
Der Vorfall ist nicht der erste dieser Art für Microsoft, das bereits zuvor für kontroverse KI-generierte Inhalte kritisiert wurde. Erst im August wurde eine KI-generierte Liste von Touristenzielen in Ottawa, der Hauptstadt Kanadas, erstellt, die für Verwirrung sorgte, als eine örtliche Tafel als Food-Highlight verkauft und empfohlen wurde, mit leerem Magen zu erscheinen.
Der Vorfall wirft nicht zuletzt die Frage auf, wie Technologieunternehmen wie Microsoft sicherstellen können, dass der Einsatz von KI in journalistischen Kontexten verantwortungsbewusst und ethisch angemessen geschieht.