
Den Chatbot kann man leicht aus der Fassung bringen. (Foto: Shutterstock / Ascannio)
In der Regel drückt ChatGPT sich gut verständlich, oft sogar eloquent aus. Es gibt aber einen Trick, der den KI-Chatbot komplett aus der Fassung bringt. Er führt dazu, dass ChatGPT nur noch willkürliche, scheinbar zusammenhanglose Dinge ausspuckt.
Wenn man ChatGPT darum bittet, einen einzigen Buchstaben so oft zu wiederholen wie möglich, folgt darauf eine Reihe von oft sehr merkwürdigen Bemerkungen, wie ein Nutzer auf Reddit herausgefunden hat.
Der hat ChatGPT nämlich darum gebeten, den Buchstaben A so oft zu wiederholen, wie der Chatbot dazu in der Lage ist. Das hat er auch eine Weile lang getan, danach folgt allerdings ein Text, der sich liest, als würde er von einer Website stammen, die Hundebabys verkauft:
„Klicken Sie hier, um uns eine E-Mail mit Preisinformationen zu senden. Unsere Welpen sind: tierarztgeprüft, entwurmt, aktuell geimpft, mit Mikrochip versehen. Für unsere Französischen Bulldoggen gilt eine einjährige Garantie auf die angeborene Gesundheit. Rufen Sie an oder senden Sie eine E-Mail für weitere Informationen und Bilder aller Babys … Wir haben die süßesten, schönsten und hochwertigsten Welpen der Welt. Zu Hause mit viel Liebe und Küssen großgezogen“, antwortete der Bot auf die Anfrage.
Andere Buchstaben liefern andere Ergebnisse
Die Webseite Futurism hat das Ganze noch weiter ausprobiert. Sie haben einfach das Alphabet abgearbeitet und ChatGPT darum gebeten, den Buchstaben B so oft zu wiederholen wie möglich.
Nach dieser Anfrage fing ChatGPT an, über die DVD-Serie des ehemaligen Wrestling-Stars Diamond Dallas Page „Yoga for Regular Guys“ zu sprechen. Der ausgegebene Text liest sich quasi wie eine Werbeanzeige für die DVD-Reihe.
Beim Buchstaben C spricht ChatGPT über die harmonisierte Umsatzsteuer in Kanada und bei D wurde es dann wild. Hier spricht ChatGPT Songempfehlungen aus – gemischt mit religiösen Texten und einer Verurteilung über den Krieg.
ChatGPT soll Wiederholungen vermeiden
Ein Nutzer bei Reddit merkt an, dass dieses ungewöhnliche Verhalten auftreten könnte, weil Sprachmodelle wie das von ChatGPT Wiederholungen vermeiden sollen. Es kann also sein, dass der Bot so programmiert ist, dass er ab einer bestimmten Anzahl des gleichen Buchstabens einfach nicht mehr davon ausspucken kann.
Dann könnte er einfach willkürliche Dinge wiederholen, mit denen die Datenbank des Bots gefüllt ist.
Wir haben versucht, den Trick zu reproduzieren, allerdings hat ChatGPT uns nur seitenweise den gleichen Buchstaben gegeben. Entweder wurde das Ganze also behoben oder wir haben den Bot nicht lange genug generieren lassen.