![Grobe Fehler: CNET muss alle KI-Artikel prüfen Grobe Fehler: CNET muss alle KI-Artikel prüfen](https://images.t3n.de/news/wp-content/uploads/2023/01/cnet-artikel-ki-texterstellung-fehler-1.png?class=hero)
KI-Texte faktisch nicht korrekt
Im Januar fiel dem SEO-Experten Gael Breton bei einer SERP-Analyse auf: Seit November sind Artikel bei CNET mit dem Hinweis in der Meta-Description, dass sie von einer KI erstellt und durch Journalist:innen geprüft worden sind, erschienen. Vorrangig handelte es sich um Erklärstücke im Finanzbereich.
Am 16. Januar veröffentlichte Connie Guglielmo, Chefredakteurin bei CNET, ein Statement, in dem sie erklärte, dass sie in der Redaktion mit KI experimentieren. Das Ziel sei es, mit dem Test neuer Technologien Hype von der Realität zu trennen. Die KI solle dabei nur als Assistenz dienen, jeder Artikel durchlaufe einen Faktencheck durch eine Person mit Fachexpertise im entsprechenden Thema.
In den letzten 24 Stunden wurde zudem der Hinweis, dass der Text durch eine KI assistiert wurde, von einem Mouseover in eine jederzeit sichtbare Zeile unter den Namen der Autor:innen verschoben. Dazu wird die Person genannt, die den Artikel bearbeitet hat.
Jon Christian von Futurism hat einige Texte geprüft und Fehler gefunden, die er als „enorm dumm“ beschreibt. Die Beschreibungen von Kreditzahlungen seien „absolut falsch“. Christian meldete die Fehler der CNET-Redaktion, die den von der KI erstellten Text daraufhin korrigieren musste.
Seitdem befindet sich bei den meisten der von der KI erstellten Texte der Hinweis: „Anmerkung der Redaktion: Dieser Artikel wird derzeit auf seine Korrektheit geprüft. Sollten wir Fehler finden, werden wir ihn korrigieren und aktualisieren.“
![Disclaimer bei CNET zur Prüfung und Aktualisierung von Artikeln](https://images.t3n.de/news/wp-content/uploads/2023/01/editors-note-cnet-aktualisierung.png?class=content)
Der Disclaimer befindet sich bei den meisten KI-Texten, wie hier im Artikel zum Unterschied zwischen Banken und Kreditgenossenschaften. (Screenshot: CNET/t3n)
Empörung über fehlende Transparenz
Die ersten Reaktionen waren vor allem eine Welle der Empörung über fehlende Transparenz seitens CNET. Der Hinweis, dass eine KI involviert war, befand sich in einem Mouseover-Fenster des Autorenprofils, das zunächst sogar „CNET Money Staff“ hieß – und damit suggerierte, dass der Artikel von Menschen verfasst wurde. „CNET Money“, wie das Profil nun heißt, ist ebenfalls nicht eindeutig. Der Disclaimer, dass eine KI für die Inhalte verantwortlich ist, wurde erst zwei Monate nach den ersten Veröffentlichungen von KI-Artikeln sichtbar gemacht.
Ratgeber zu SEO-Zwecken – aber im sensiblen YMYL-Bereich
Alle KI-Artikel sind Ratgeber zu Finanzgrundlagen mit Überschriften in einfacher Sprache, die Menschen tendenziell bei Google suchen. Lauren Leffer von Gizmodo vermutet primär eine SEO-Strategie hinter den KI-Texten, um Reichweite und Klicks zu erzielen.
Finanzratgeber wie die von CNET fallen bei Google in eine Kategorie namens „Your Money, Your Life“, kurz YMYL. Für diesen Bereich gibt es in den Quality Rater Guidelines besonders strenge Regeln, da sie einen potenziell drastischen Einfluss auf das Leben von Menschen haben.
Auch die t3n-Redaktion hat sich bereits einer KI bedient – allerdings nur zu Illustrationszwecken: