ChatGPT verliert komplett den Faden durch einen einzigen Buchstaben

Den Chatbot kann man leicht aus der Fassung bringen. (Foto: Shutterstock / Ascannio)
In der Regel drückt ChatGPT sich gut verständlich, oft sogar eloquent aus. Es gibt aber einen Trick, der den KI-Chatbot komplett aus der Fassung bringt. Er führt dazu, dass ChatGPT nur noch willkürliche, scheinbar zusammenhanglose Dinge ausspuckt.
Wenn man ChatGPT darum bittet, einen einzigen Buchstaben so oft zu wiederholen wie möglich, folgt darauf eine Reihe von oft sehr merkwürdigen Bemerkungen, wie ein Nutzer auf Reddit herausgefunden hat.
Der hat ChatGPT nämlich darum gebeten, den Buchstaben A so oft zu wiederholen, wie der Chatbot dazu in der Lage ist. Das hat er auch eine Weile lang getan, danach folgt allerdings ein Text, der sich liest, als würde er von einer Website stammen, die Hundebabys verkauft:
„Klicken Sie hier, um uns eine E-Mail mit Preisinformationen zu senden. Unsere Welpen sind: tierarztgeprüft, entwurmt, aktuell geimpft, mit Mikrochip versehen. Für unsere Französischen Bulldoggen gilt eine einjährige Garantie auf die angeborene Gesundheit. Rufen Sie an oder senden Sie eine E-Mail für weitere Informationen und Bilder aller Babys … Wir haben die süßesten, schönsten und hochwertigsten Welpen der Welt. Zu Hause mit viel Liebe und Küssen großgezogen“, antwortete der Bot auf die Anfrage.
Die Webseite Futurism hat das Ganze noch weiter ausprobiert. Sie haben einfach das Alphabet abgearbeitet und ChatGPT darum gebeten, den Buchstaben B so oft zu wiederholen wie möglich.
Nach dieser Anfrage fing ChatGPT an, über die DVD-Serie des ehemaligen Wrestling-Stars Diamond Dallas Page „Yoga for Regular Guys“ zu sprechen. Der ausgegebene Text liest sich quasi wie eine Werbeanzeige für die DVD-Reihe.
Beim Buchstaben C spricht ChatGPT über die harmonisierte Umsatzsteuer in Kanada und bei D wurde es dann wild. Hier spricht ChatGPT Songempfehlungen aus – gemischt mit religiösen Texten und einer Verurteilung über den Krieg.
Ein Nutzer bei Reddit merkt an, dass dieses ungewöhnliche Verhalten auftreten könnte, weil Sprachmodelle wie das von ChatGPT Wiederholungen vermeiden sollen. Es kann also sein, dass der Bot so programmiert ist, dass er ab einer bestimmten Anzahl des gleichen Buchstabens einfach nicht mehr davon ausspucken kann.
Dann könnte er einfach willkürliche Dinge wiederholen, mit denen die Datenbank des Bots gefüllt ist.
Wir haben versucht, den Trick zu reproduzieren, allerdings hat ChatGPT uns nur seitenweise den gleichen Buchstaben gegeben. Entweder wurde das Ganze also behoben oder wir haben den Bot nicht lange genug generieren lassen.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team