Anzeige
Anzeige
MIT Technology Review Listicle

Fluchende Chatbots, Nackt-Deepfakes und KI-Bücher: Die skurrilsten KI-Flops des Jahres 2024

Es ist viel passiert in der KI-Branche im vergangenen Jahr. Die Technologie hat Gutes hervorgebracht – und auch Schlechtes. Wir richten unseren Blick hier auf die größten KI-Pleiten von 2024.

Von Veronika Szentpétery-Kessler
5 Min.
Artikel merken
Anzeige
Anzeige

Bei allen Erfolgen lief 2024 in Sachen Künstliche Intelligenz vieles nicht ganz glatt. (Foto: Shutterstock)

In den vergangenen zwölf Monate ist in der Künstlichen-Intelligenz-Branche unbestreitbar viel passiert. Es gab mehr erfolgreiche Produkteinführungen, als man zählen kann, und sogar zwei Nobelpreise: einen für Chemie und einen für Physik. Dabei lief allerdings nicht immer alles glatt.

Anzeige
Anzeige

KI ist eine unberechenbare Technologie, und die zunehmende Verfügbarkeit von generativen Modellen hat dazu geführt, dass Menschen ihre Grenzen auf neue, seltsame und manchmal auch schädliche Weise austesten. Hier sind einige der größten KI-Fehlschläge des Jahres 2024.

1. KI-Schrott vermüllt fast jede Ecke des Internets

Generative KI macht die Erstellung von Unmengen an Texten, Bildern, Videos und anderen Materialien zum Kinderspiel. Es dauert nur ein paar Sekunden, bis das Modell der Wahl nach der Eingabe eines Prompts ein Ergebnis ausspuckt. 2024 war das Jahr, in dem diese (im Allgemeinen minderwertigen) Medien endlich als das bezeichnet wurden, was sie wirklich sind: KI-Schrott.

Anzeige
Anzeige

Weil das Erstellen von KI-Müll mit so geringem Aufwand verbunden ist, findet man ihn in so ziemlich jeder Ecke des Internets: von Newslettern im Posteingang und bei Amazon verkauften Büchern bis hin zu Anzeigen und Artikeln im Internet und schäbigen Bildern in den sozialen Netzwerken. Je emotionaler diese Bilder sind – verwundete Veteranen, weinende Kinder, ein Signal der Unterstützung im israelisch-palästinensischen Konflikt –, desto wahrscheinlicher werden sie geteilt, was zu höherem Engagement und Werbeeinnahmen für ihre cleveren Urheber führt.

KI-Schrott ist nicht nur ärgerlich, sondern stellt ein echtes Problem für die Zukunft jener Modelle dar, die zu seiner Entstehung beigetragen haben. Da diese Modelle mit Daten trainiert werden, die aus dem Internet stammen, besteht mit der zunehmenden Anzahl von Webseiten, die mit KI-Schrott zugemüllt sind, die reale Gefahr, dass die Ergebnisse und die Leistung der Modelle immer schlechter werden.

Anzeige
Anzeige

2. KI-Kunst verzerrt unsere Erwartungen an reale Ereignisse

2024 war auch das Jahr, in dem die Auswirkungen surrealer KI-Bilder ins reale Leben einzudringen begannen. So machte etwa Willy’s Chocolate Experience, ein wildes, inoffizielles Erlebnis, das von Roald Dahls Buch „Charlie und die Schokoladenfabrik“ inspiriert ist, im Februar weltweit Schlagzeilen. Das fantastische, von KI generierte Marketingmaterial hatte Besuchern den Eindruck vermittelt, die Veranstaltung sei viel grandioser, als es das spärlich dekorierte Lagerhaus dann tatsächlich war, das die Produzenten eingerichtet hatten.

In ähnlicher Weise säumten Hunderte von Menschen die Straßen von Dublin für eine Halloween-Parade, die es gar nicht gab. Eine in Pakistan ansässige Website erstellte mithilfe von künstlicher Intelligenz eine Liste von Veranstaltungen in der Stadt, die vor dem 31. Oktober in den sozialen Medien weit verbreitet wurde. Obwohl die SEO-baiting Website namens „myspirithalloween.com“ inzwischen vom Netz genommen wurde, zeigen beide Vorfälle, wie fehlgeleitetes öffentliches Vertrauen in KI-generiertes Material uns am Ende heimsuchen kann.

Anzeige
Anzeige

3. Mit Grok können Benutzer Bilder von so ziemlich jedem Szenario erstellen

Die große Mehrheit der großen KI-Bildgeneratoren verfügt über Schutzmaßnahmen, also Regeln, die vorschreiben, was KI-Modelle tun dürfen und was nicht. Sie sollen verhindern, dass Benutzer gewalttätige, explizite, illegale oder anderweitig schädliche Inhalte erstellen. Manchmal sollen diese Regeln auch einfach nur sicherstellen, dass niemand das geistige Eigentum anderer in unverfrorener Weise nutzt. Grok, ein Assistent von Elon Musks KI-Firma xAI, ignoriert jedoch fast alle diese Grundsätze, ganz im Sinne von Musks Ablehnung dessen, was er als „woke AI“ bezeichnet.

Während andere Bildmodelle sich in der Regel weigern, Bilder von Prominenten, urheberrechtlich geschütztem Material, Gewalt oder Terrorismus zu erstellen – es sei denn, sie werden mit einem Trick dazu gebracht, diese Regeln zu ignorieren –, erstellt Grok munter Bilder von Donald Trump, der eine Bazooka abfeuert, oder von Micky Maus, der eine Bombe hält. Die Weigerung des Unternehmens, sich an die Regeln zu halten, untergräbt die Bemühungen anderer Unternehmen, problematisches Material zu vermeiden.

4. Nackt-Deepfakes von Taylor Swift kursierten im Internet

Im Januar kursierten in den sozialen Medien, einschließlich X und Facebook, nicht einvernehmliche Nackt-Deepfakes der Sängerin Taylor Swift. Eine Telegram-Community hat Microsofts KI-Bildgenerator Designer dazu gebracht, die expliziten Bilder zu erstellen, und damit gezeigt, wie selbst vorhandene Sicherheitsvorkehrungen umgangen werden können.

Anzeige
Anzeige

Microsoft hat die Schlupflöcher im System zwar schnell geschlossen, doch der Vorfall warf ein Schlaglicht auf die mangelhaften Richtlinien der Plattformen zur Inhaltskontrolle, nachdem Beiträge mit den Bildern weit verbreitet und tagelang online waren. Am erschreckendsten ist jedoch die Tatsache, wie machtlos wir immer noch sind, wenn es um die Bekämpfung von Nackt-Deepfakes geht, die nicht einvernehmlich erstellt wurden. Wasserzeichen und Data Poisoning-Tools können zwar helfen, aber sie müssen noch viel weiter verbreitet werden, um etwas zu bewirken.

5. Chatbots für Unternehmen laufen aus dem Ruder

Mit der zunehmenden Verbreitung von künstlicher Intelligenz drängen Unternehmen darauf, generative Tools einzusetzen, um Zeit und Geld zu sparen und die Effizienz zu maximieren. Das Problem ist, dass Chatbots Dinge erfinden und man sich nicht darauf verlassen kann, dass sie genaue Informationen liefern.

Air Canada erfuhr das auf die harte Tour, nachdem sein Chatbot einem Kunden geraten hatte, eine Rückerstattungsrichtlinie für Trauerfälle zu befolgen, die nicht existierte. Im Februar gab ein kanadisches Gericht für geringfügige Forderungen der Klage des Kunden statt, obwohl die Fluggesellschaft behauptete, der Chatbot sei eine „eigenständige Rechtsperson, die für ihre eigenen Handlungen verantwortlich ist“.

Anzeige
Anzeige

In anderen prominenten Beispielen dafür, wie Chatbots mehr Schaden als Nutzen anrichten können, fluchte der Bot des Zustelldienstes DPD fröhlich und bezeichnete sich selbst ohne Aufforderung als nutzlos, während ein anderer Bot, der New Yorker Bürgerinnen und Bürger mit genauen Informationen über die Stadtverwaltung versorgen sollte, am Ende Anleitungen für Gesetzesverstöße lieferte.

6. KI-Gadgets setzen den Markt nicht gerade in Brand

2024 versuchte die KI-Industrie auch, Hardware-Assistenten zu knacken – und scheiterte damit. Das Unternehmen Humane versuchte, den Kunden einen tragbaren Computer namens Ai Pin für das Revers schmackhaft zu machen, aber selbst eine Preissenkung konnte den schwachen Absatz nicht ankurbeln. Das Rabbit R1 wiederum, ein auf ChatGPT basierendes persönliches Assistenzgerät, erlitt nach kritischen Bewertungen über seine Langsamkeit und Fehlerhaftigkeit ein ähnliches Schicksal. Beide Produkte schienen zu versuchen, ein Problem zu lösen, das es gar nicht gab.

7. KI-Suchzusammenfassungen gingen schief

Haben Sie jemals Kleber auf eine Pizza gegeben oder einen kleinen Stein gegessen? Das sind nur einige der haarsträubenden Vorschläge, die Googles KI-Übersichtsfunktion den Internetnutzern im Mai machte, nachdem der Suchgigant generierte Antworten an den Anfang der Suchergebnisse gestellt hatte. Das Problem war, dass KI-Systeme nicht zwischen einer sachlich korrekten Nachrichtenmeldung und einem Scherzartikel auf Reddit unterscheiden können. Die Nutzer rannten um die Wette, um die seltsamsten Antworten zu finden, die KI Overviews generieren konnte.

Anzeige
Anzeige

Diese Fehlschläge waren lustig, aber KI-Zusammenfassungen können auch ernste Folgen haben. Eine neue iPhone-Funktion, die App-Benachrichtigungen gruppiert und Zusammenfassungen ihres Inhalts erstellt, generierte kürzlich eine falsche BBC News-Schlagzeile. In der Zusammenfassung hieß es fälschlicherweise, dass sich Luigi Mangione, der des Mordes an dem CEO der Krankenversicherung UnitedHealthcare Brian Thompson angeklagt ist, erschossen habe. Dieselbe iPhone-Funktion hatte zuvor eine andere falsche Schlagzeile erstellt, die behauptete, dass der israelische Premierminister Benjamin Netanjahu verhaftet worden sei. Solche Fehlschläge können unbeabsichtigte Fehlinformationen verbreiten und das Vertrauen in Nachrichtenorganisationen untergraben.

Fazit:

Lasst uns hoffen, dass die KI-Branche aus diesen KI-Flops wenigstens lernen konnte.

Anzeige
Anzeige
Der Artikel stammt von Rhiannon Williams. Sie ist Redakteurin bei der US-amerikanischen Ausgabe von MIT Technology Review und arbeitet dort als Nachrichtenreporterin für Technikthemen.

 

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige