- 1. KI-Schrott vermüllt fast jede Ecke des Internets
- 2. KI-Kunst verzerrt unsere Erwartungen an reale Ereignisse
- 3. Mit Grok können Benutzer Bilder von so ziemlich jedem Szenario erstellen
- 4. Nackt-Deepfakes von Taylor Swift kursierten im Internet
- 5. Chatbots für Unternehmen laufen aus dem Ruder
- 6. KI-Gadgets setzen den Markt nicht gerade in Brand
- 7. KI-Suchzusammenfassungen gingen schief
Fluchende Chatbots, Nackt-Deepfakes und KI-Bücher: Die skurrilsten KI-Flops des Jahres 2024
In den vergangenen zwölf Monate ist in der Künstlichen-Intelligenz-Branche unbestreitbar viel passiert. Es gab mehr erfolgreiche Produkteinführungen, als man zählen kann, und sogar zwei Nobelpreise: einen für Chemie und einen für Physik. Dabei lief allerdings nicht immer alles glatt.
KI ist eine unberechenbare Technologie, und die zunehmende Verfügbarkeit von generativen Modellen hat dazu geführt, dass Menschen ihre Grenzen auf neue, seltsame und manchmal auch schädliche Weise austesten. Hier sind einige der größten KI-Fehlschläge des Jahres 2024.
1. KI-Schrott vermüllt fast jede Ecke des Internets
Generative KI macht die Erstellung von Unmengen an Texten, Bildern, Videos und anderen Materialien zum Kinderspiel. Es dauert nur ein paar Sekunden, bis das Modell der Wahl nach der Eingabe eines Prompts ein Ergebnis ausspuckt. 2024 war das Jahr, in dem diese (im Allgemeinen minderwertigen) Medien endlich als das bezeichnet wurden, was sie wirklich sind: KI-Schrott.
Weil das Erstellen von KI-Müll mit so geringem Aufwand verbunden ist, findet man ihn in so ziemlich jeder Ecke des Internets: von Newslettern im Posteingang und bei Amazon verkauften Büchern bis hin zu Anzeigen und Artikeln im Internet und schäbigen Bildern in den sozialen Netzwerken. Je emotionaler diese Bilder sind – verwundete Veteranen, weinende Kinder, ein Signal der Unterstützung im israelisch-palästinensischen Konflikt –, desto wahrscheinlicher werden sie geteilt, was zu höherem Engagement und Werbeeinnahmen für ihre cleveren Urheber führt.
KI-Schrott ist nicht nur ärgerlich, sondern stellt ein echtes Problem für die Zukunft jener Modelle dar, die zu seiner Entstehung beigetragen haben. Da diese Modelle mit Daten trainiert werden, die aus dem Internet stammen, besteht mit der zunehmenden Anzahl von Webseiten, die mit KI-Schrott zugemüllt sind, die reale Gefahr, dass die Ergebnisse und die Leistung der Modelle immer schlechter werden.
2. KI-Kunst verzerrt unsere Erwartungen an reale Ereignisse
2024 war auch das Jahr, in dem die Auswirkungen surrealer KI-Bilder ins reale Leben einzudringen begannen. So machte etwa Willy’s Chocolate Experience, ein wildes, inoffizielles Erlebnis, das von Roald Dahls Buch „Charlie und die Schokoladenfabrik“ inspiriert ist, im Februar weltweit Schlagzeilen. Das fantastische, von KI generierte Marketingmaterial hatte Besuchern den Eindruck vermittelt, die Veranstaltung sei viel grandioser, als es das spärlich dekorierte Lagerhaus dann tatsächlich war, das die Produzenten eingerichtet hatten.
In ähnlicher Weise säumten Hunderte von Menschen die Straßen von Dublin für eine Halloween-Parade, die es gar nicht gab. Eine in Pakistan ansässige Website erstellte mithilfe von künstlicher Intelligenz eine Liste von Veranstaltungen in der Stadt, die vor dem 31. Oktober in den sozialen Medien weit verbreitet wurde. Obwohl die SEO-baiting Website namens „myspirithalloween.com“ inzwischen vom Netz genommen wurde, zeigen beide Vorfälle, wie fehlgeleitetes öffentliches Vertrauen in KI-generiertes Material uns am Ende heimsuchen kann.
3. Mit Grok können Benutzer Bilder von so ziemlich jedem Szenario erstellen
Die große Mehrheit der großen KI-Bildgeneratoren verfügt über Schutzmaßnahmen, also Regeln, die vorschreiben, was KI-Modelle tun dürfen und was nicht. Sie sollen verhindern, dass Benutzer gewalttätige, explizite, illegale oder anderweitig schädliche Inhalte erstellen. Manchmal sollen diese Regeln auch einfach nur sicherstellen, dass niemand das geistige Eigentum anderer in unverfrorener Weise nutzt. Grok, ein Assistent von Elon Musks KI-Firma xAI, ignoriert jedoch fast alle diese Grundsätze, ganz im Sinne von Musks Ablehnung dessen, was er als „woke AI“ bezeichnet.
Während andere Bildmodelle sich in der Regel weigern, Bilder von Prominenten, urheberrechtlich geschütztem Material, Gewalt oder Terrorismus zu erstellen – es sei denn, sie werden mit einem Trick dazu gebracht, diese Regeln zu ignorieren –, erstellt Grok munter Bilder von Donald Trump, der eine Bazooka abfeuert, oder von Micky Maus, der eine Bombe hält. Die Weigerung des Unternehmens, sich an die Regeln zu halten, untergräbt die Bemühungen anderer Unternehmen, problematisches Material zu vermeiden.
4. Nackt-Deepfakes von Taylor Swift kursierten im Internet
Im Januar kursierten in den sozialen Medien, einschließlich X und Facebook, nicht einvernehmliche Nackt-Deepfakes der Sängerin Taylor Swift. Eine Telegram-Community hat Microsofts KI-Bildgenerator Designer dazu gebracht, die expliziten Bilder zu erstellen, und damit gezeigt, wie selbst vorhandene Sicherheitsvorkehrungen umgangen werden können.
Microsoft hat die Schlupflöcher im System zwar schnell geschlossen, doch der Vorfall warf ein Schlaglicht auf die mangelhaften Richtlinien der Plattformen zur Inhaltskontrolle, nachdem Beiträge mit den Bildern weit verbreitet und tagelang online waren. Am erschreckendsten ist jedoch die Tatsache, wie machtlos wir immer noch sind, wenn es um die Bekämpfung von Nackt-Deepfakes geht, die nicht einvernehmlich erstellt wurden. Wasserzeichen und Data Poisoning-Tools können zwar helfen, aber sie müssen noch viel weiter verbreitet werden, um etwas zu bewirken.
5. Chatbots für Unternehmen laufen aus dem Ruder
Mit der zunehmenden Verbreitung von künstlicher Intelligenz drängen Unternehmen darauf, generative Tools einzusetzen, um Zeit und Geld zu sparen und die Effizienz zu maximieren. Das Problem ist, dass Chatbots Dinge erfinden und man sich nicht darauf verlassen kann, dass sie genaue Informationen liefern.
Air Canada erfuhr das auf die harte Tour, nachdem sein Chatbot einem Kunden geraten hatte, eine Rückerstattungsrichtlinie für Trauerfälle zu befolgen, die nicht existierte. Im Februar gab ein kanadisches Gericht für geringfügige Forderungen der Klage des Kunden statt, obwohl die Fluggesellschaft behauptete, der Chatbot sei eine „eigenständige Rechtsperson, die für ihre eigenen Handlungen verantwortlich ist“.
In anderen prominenten Beispielen dafür, wie Chatbots mehr Schaden als Nutzen anrichten können, fluchte der Bot des Zustelldienstes DPD fröhlich und bezeichnete sich selbst ohne Aufforderung als nutzlos, während ein anderer Bot, der New Yorker Bürgerinnen und Bürger mit genauen Informationen über die Stadtverwaltung versorgen sollte, am Ende Anleitungen für Gesetzesverstöße lieferte.
6. KI-Gadgets setzen den Markt nicht gerade in Brand
2024 versuchte die KI-Industrie auch, Hardware-Assistenten zu knacken – und scheiterte damit. Das Unternehmen Humane versuchte, den Kunden einen tragbaren Computer namens Ai Pin für das Revers schmackhaft zu machen, aber selbst eine Preissenkung konnte den schwachen Absatz nicht ankurbeln. Das Rabbit R1 wiederum, ein auf ChatGPT basierendes persönliches Assistenzgerät, erlitt nach kritischen Bewertungen über seine Langsamkeit und Fehlerhaftigkeit ein ähnliches Schicksal. Beide Produkte schienen zu versuchen, ein Problem zu lösen, das es gar nicht gab.
7. KI-Suchzusammenfassungen gingen schief
Haben Sie jemals Kleber auf eine Pizza gegeben oder einen kleinen Stein gegessen? Das sind nur einige der haarsträubenden Vorschläge, die Googles KI-Übersichtsfunktion den Internetnutzern im Mai machte, nachdem der Suchgigant generierte Antworten an den Anfang der Suchergebnisse gestellt hatte. Das Problem war, dass KI-Systeme nicht zwischen einer sachlich korrekten Nachrichtenmeldung und einem Scherzartikel auf Reddit unterscheiden können. Die Nutzer rannten um die Wette, um die seltsamsten Antworten zu finden, die KI Overviews generieren konnte.
Diese Fehlschläge waren lustig, aber KI-Zusammenfassungen können auch ernste Folgen haben. Eine neue iPhone-Funktion, die App-Benachrichtigungen gruppiert und Zusammenfassungen ihres Inhalts erstellt, generierte kürzlich eine falsche BBC News-Schlagzeile. In der Zusammenfassung hieß es fälschlicherweise, dass sich Luigi Mangione, der des Mordes an dem CEO der Krankenversicherung UnitedHealthcare Brian Thompson angeklagt ist, erschossen habe. Dieselbe iPhone-Funktion hatte zuvor eine andere falsche Schlagzeile erstellt, die behauptete, dass der israelische Premierminister Benjamin Netanjahu verhaftet worden sei. Solche Fehlschläge können unbeabsichtigte Fehlinformationen verbreiten und das Vertrauen in Nachrichtenorganisationen untergraben.
Fazit:
Lasst uns hoffen, dass die KI-Branche aus diesen KI-Flops wenigstens lernen konnte.