Apple stellt KI-generierte Nachrichtenzusammenfassungen vorerst ein
iOS-Nutzer:innen können sich von der KI-Funktion Intelligence aktuell keine Nachrichtenzusammenfassungen mehr anzeigen lassen. Nachdem es in jüngster Zeit zu einigen schweren Fehlern gekommen war, hat Apple diese für alle Nachrichten- und Unterhaltungs-Apps deaktiviert.
Anstatt Nachrichten nur zusammenzufassen, gab Intelligence diese teilweise stark verfälscht wieder und sorgte damit nicht nur für Verwirrung, sondern auch für handfesten Ärger. So hatte die KI kürzlich schon vor dem Start zweier SpaceX-Missionen berichtet, diese seien bereits erfolgreich verlaufen.
Erfundene Raketenstarts und ein angeblicher Suizid
In einem anderen Fall hat die BBC eine offizielle Beschwerde eingereicht. In der Zusammenfassung zu einem BBC-Bericht über den Mord am CEO des US-Krankenversicherers United Healthcare hatte es fälschlicherweise geheißen, der Tatverdächtige hätte Suizid begangen.
Auch Reporter ohne Grenzen kritisiert Apple scharf. Ebenfalls als Reaktion auf die falsche Suizid-Meldung nannte die NGO generative KI-Dienste „eine Gefahr für das Recht der Öffentlichkeit auf verlässliche Informationen zum aktuellen Zeitgeschehen“.
Apple setzt auf ein Update
Die britische Gewerkschaft National Union of Journalists forderte Apple gar auf, die KI-Funktion komplett einzustellen. „In einer Zeit, in der der Zugang zu genauer Berichterstattung wichtiger denn je ist, darf die Öffentlichkeit nicht in die Lage versetzt werden, die Genauigkeit der Nachrichten, die sie erhält, anzweifeln zu müssen“, heißt es in einer Stellungnahme.
Für Apple ist das sicher keine Option. Der Konzern äußerte sich unter anderem gegenüber der US-Nachrichtenwebseite Axios folgendermaßen: „Wir arbeiten an Verbesserungen und werden diese in einem zukünftigen Software-Update zur Verfügung stellen.“
Das Problem liegt tiefer
Nach dem Update sollen Texte, die von Intelligence zusammengefasst wurden, dann auch deutlicher gekennzeichnet werden. Dass das eigentliche Problem durch ein Update zu lösen ist, bezweifeln Expert:innen indes.
Weil die zugrundeliegenden Large Language Models mit Wahrscheinlichkeiten arbeiten, sind sie unfähig, Inhalte wirklich zu verstehen.