Seepferdchen-Emoji verwirrt ChatGPT – und zeigt ein fundamentales KI-Problem
Ein Seepferdchen-Emoji stellt KI-Tools vor Herausforderungen. (Bild: Shutterstock/Collagery)
Eigentlich sollen KI-Tools schwierige Fragen fehlerfrei beantworten können. Allerdings sorgen immer wieder die simpelsten Prompts dafür, dass ChatGPT, Claude und Co. ins Straucheln geraten. So etwa, wenn die LLMs plötzlich illegale Informationen preisgeben, obwohl ihnen das von ihren Ersteller:innen verboten wurde. Ein aktueller Fall zeigt hingegen, dass einige Anfragen die KI-Tools in eine mittelschwere Sinnkrise stürzen können.
KI-Verwirrung um Seepferdchen-Emoji
KI-Forscherin Theia Vogel hat diese Erkenntnis in ihrem Blog zusammengefasst, der einem Beitrag auf X entsprungen ist. KI-Chatbots wie ChatGPT, Claude und Gemini wurde dabei eine simple Frage per Prompt gestellt: „Gibt es ein Seepferdchen-Emoji?“ ChatGPT mit GPT-5 Instant antwortete: „Ja, es gibt ein Seepferdchen-Emoji“ und zeigte daraufhin ein Pferd-Emoji. Anschließend behauptete die KI: „Auf den meisten Plattformen sieht es so aus“ und gab ein Einhorn- und ein Fisch-Emoji aus.
Darauf folgten Sätze wie „Warte, nein, das hier ist es“ und ein weiteres Einhorn, ein Igel oder eine Emoji-Reihe von Hummern, Tintenfischen und Haien. Zwischendurch versicherte ChatGPT, dass es nur Spaß machen würde und sich sicher sei, dass es ein Seepferdchen-Emoji geben würde. Dabei scheint die Künstliche Intelligenz in einem Loop festzuhängen. Aber auch andere KI-Tools scheiterten an der Aufgabe.
Claude Sonnet 4.5 antwortete ebenfalls mit einem Pferde-Emoji, gefolgt von einem Hai. Gemini 2.5 Pro hingegen machte es sich ganz einfach und schrieb: „Ja, es gibt ein Seepferdchen-Emoji“, gefolgt von dem ausgeschriebenen Wort „Seepferdchen“. Laut Vogel glauben Modelle wie GPT-5, Gemini und Claude 4.5 Sonnet in 100 Prozent der Fälle, dass das gesuchte Emoji existiert. Nur Metas Llama schwamm gegen den Strom und war nur bei 83 Prozent der Anfragen überzeugt davon.
Warum das Irren der KI menschlich sein könnte
Der Grund für die Verwirrung der KI-Modelle könnte dabei recht einfach sein: Es gibt kein Seepferdchen-Emoji. Möglicherweise könnte euch diese Erkenntnis ebenfalls überraschen. Laut Vogel gibt es zahlreiche Forenbeiträge, Reddit-Posts und Tiktok-Videos, in denen Personen immer wieder beteuern, dass es einmal ein Seepferdchen-Emoji gab und sie sich dessen sicher sind. Die Wahrheit ist aber, dass ein solches Emoji zwar dem Unicode-Konsortium vorgeschlagen, aber 2018 abgelehnt wurde.
Offenbar handelt es sich dabei um einen Fall des Mandela-Effekts. Das bedeutet, dass sich bei einer Gruppe von Menschen eine Falschannahme ins Gedächtnis eingeprägt hat. Der Name basiert dabei auf dem ehemaligen Präsidenten von Südafrika, Nelson Mandela. Forscherin Fiona Broome stellte während einer Studie fest, dass sich Hunderte Menschen an den Tod Mandelas in den 1980ern erinnerten, obwohl er erst 2013 verstarb. Andere Fälle des Mandela-Effekts sind etwa das angebliche Monokel der Monopoly-Figur oder der berühmte Satz aus Star Wars „Luke, ich bin dein Vater“, der so nie existierte.
Da KI-Programme aber oftmals mit öffentlich verfügbaren Texten aus dem Internet trainiert werden, haben Tools wie ChatGPT, Claude und Gemini auch die falsche Annahme des Seepferdchen-Emojis übernommen. Sie sind sich also aufgrund unserer Aussagen sicher, dass ein solches Emoji existiert, können es aber nicht darstellen. Bei genauerer Analyse stellte Vogel dabei fest, dass viele Programme stattdessen versuchen, das Konzept eines Seepferdchen-Emojis zu reproduzieren – und deshalb in Schleifen festhängen, in denen sie Pferde, Einhörner oder Wasserlebewesen ausspucken. Erst wenn ein Output-Token gefunden wird, das bestätigt, dass ein solches Emoji nicht existiert, hört die Raterei der KI auf.