KI-Reiseplanung: ChatGPT schickt Urlauber zu Orten, die es gar nicht gibt
Stellt euch vor, ihr fahrt drei Stunden durch ein fremdes Land, angelockt von einem professionellen Video über eine neue, atemberaubende Seilbahn. Doch bei der Ankunft gibt es nichts als eine verdutzte Hotelmitarbeiterin, die erklärt, dass diese Attraktion nie existiert hat. Genau das soll einem älteren Paar in Malaysia passiert sein, wie Fast Company berichtet.
Der vermeintliche TV-Beitrag über den „Kuak Skyride“ war eine komplett KI-generierte Fälschung. Dieser Vorfall ist kein Einzelfall, sondern die Spitze eines wachsenden Problems: Künstliche Intelligenz, die für die Reiseplanung eingesetzt wird, erfindet Orte, gibt falsche Informationen und kann Reisende so in ernsthafte Schwierigkeiten bringen.
Wenn die KI halluziniert
In Peru warnte der lokale Tourguide Miguel Angel Gongora Meza zwei Tourist:innen, die auf dem Weg zu einem „Heiligen Canyon von Humantay“ waren. Diesen Ort hatte ihnen eine KI empfohlen, doch er ist eine reine Fiktion, eine Kombination aus existierenden Namen und frei erfundenen Beschreibungen. Meza erklärte gegenüber der BBC, eine solche Falschinformation sei in den Anden lebensgefährlich.
Ohne ortskundige Führung könne man sich schnell in 4.000 Metern Höhe ohne Sauerstoff und Mobilfunknetz wiederfinden. Ein anderes Paar soll laut dem Bericht auf einem Berg in Japan festgesessen haben, weil ChatGPT falsche Betriebszeiten für die letzte Seilbahn ins Tal angegeben hatte.
Die Ursache für solche Fehler liegt in der Funktionsweise der großen Sprachmodelle (LLMs) von Anbietern wie OpenAI aus San Francisco. Diese Systeme „wissen“ nichts im menschlichen Sinne. Sie sind darauf trainiert, auf Basis riesiger Datenmengen statistisch wahrscheinliche Wortfolgen zu generieren.
Das Ergebnis klingt oft überzeugend, kann aber sachlich gänzlich falsch sein – ein Phänomen, das Fachleute als „Halluzination“ bezeichnen. Rayid Ghani, Professor für maschinelles Lernen an der Carnegie Mellon University in Pittsburgh, bringt es auf den Punkt: Die KI „kennt nicht den Unterschied zwischen Reisehinweisen, Wegbeschreibungen oder Rezepten“.
Ein wachsendes Vertrauensproblem
Obwohl die Technologie noch fehleranfällig ist, greifen immer mehr Menschen darauf zurück. Eine globale Umfrage des Reisesicherheitsdienstleisters Global Rescue aus Boston ergab, dass bereits rund 24 Prozent der Tourist:innen KI für ihre Reiseplanung nutzen. Harding Bush, Sicherheitsdirektor bei Global Rescue, nannte die Verbreitung von KI eine „unmittelbare Bedrohung für das Reisen“.
In Deutschland ist die Nutzung noch verhaltener. Laut einer Studie von MHP, einer Porsche-Tochtergesellschaft aus Ludwigsburg, setzen hierzulande erst 15 Prozent auf KI-Unterstützung bei der Urlaubsplanung. Die Skepsis ist also vorhanden, doch der Trend ist eindeutig. Wer sich auf die neuen Werkzeuge einlässt, sollte sich der Risiken bewusst sein.
Das Problem beschränkt sich nicht auf falsche Routen. Die Technologie hinter den gefälschten Videos ist dieselbe, die für Deepfake-Betrug genutzt wird, dessen Fälle in den vergangenen Jahren dramatisch zugenommen haben. Die Grenzen zwischen authentischen Empfehlungen und gezielter Täuschung verschwimmen.
Für Reisende bedeutet das, dass eine gesunde Portion Misstrauen unerlässlich ist. Jeder von einer KI generierte Vorschlag – sei es ein Restaurant, eine Route oder eine ganze Sehenswürdigkeit – sollte über etablierte Quellen wie offizielle Tourismus-Websites, Kartenanwendungen oder aktuelle Reiseführer verifiziert werden. KI kann ein starkes Werkzeug für Inspiration sein, aber die finale Prüfung muss menschlich bleiben.