Anzeige
Anzeige
Anzeige
Anzeige
News
Verpasse keine News mehr!

KI-Reiseplanung: ChatGPT schickt Urlauber zu Orten, die es gar nicht gibt

Ein malerischer Canyon in Peru, eine Seilbahn in Malaysia. Tausende sehen die Bilder online. Doch am Zielort erwartet Reisende oft nur eine gefährliche Enttäuschung. Was steckt dahinter?

2 Min.
Artikel merken
Anzeige
Anzeige
Wenn die KI dich an einen Ort reisen lässt, den es gar nicht gibt, ist das im besten Fall ärgerlich. (Bild: Midjourney/t3n)

Stellt euch vor, ihr fahrt drei Stunden durch ein fremdes Land, angelockt von einem professionellen Video über eine neue, atemberaubende Seilbahn. Doch bei der Ankunft gibt es nichts als eine verdutzte Hotelmitarbeiterin, die erklärt, dass diese Attraktion nie existiert hat. Genau das soll einem älteren Paar in Malaysia passiert sein, wie Fast Company berichtet.

Anzeige
Anzeige

Der vermeintliche TV-Beitrag über den „Kuak Skyride“ war eine komplett KI-generierte Fälschung. Dieser Vorfall ist kein Einzelfall, sondern die Spitze eines wachsenden Problems: Künstliche Intelligenz, die für die Reiseplanung eingesetzt wird, erfindet Orte, gibt falsche Informationen und kann Reisende so in ernsthafte Schwierigkeiten bringen.

Wenn die KI halluziniert

In Peru warnte der lokale Tourguide Miguel Angel Gongora Meza zwei Tourist:innen, die auf dem Weg zu einem „Heiligen Canyon von Humantay“ waren. Diesen Ort hatte ihnen eine KI empfohlen, doch er ist eine reine Fiktion, eine Kombination aus existierenden Namen und frei erfundenen Beschreibungen. Meza erklärte gegenüber der BBC, eine solche Falschinformation sei in den Anden lebensgefährlich.

Anzeige
Anzeige

Ohne ortskundige Führung könne man sich schnell in 4.000 Metern Höhe ohne Sauerstoff und Mobilfunknetz wiederfinden. Ein anderes Paar soll laut dem Bericht auf einem Berg in Japan festgesessen haben, weil ChatGPT falsche Betriebszeiten für die letzte Seilbahn ins Tal angegeben hatte.

Die Ursache für solche Fehler liegt in der Funktionsweise der großen Sprachmodelle (LLMs) von Anbietern wie OpenAI aus San Francisco. Diese Systeme „wissen“ nichts im menschlichen Sinne. Sie sind darauf trainiert, auf Basis riesiger Datenmengen statistisch wahrscheinliche Wortfolgen zu generieren.

Das Ergebnis klingt oft überzeugend, kann aber sachlich gänzlich falsch sein – ein Phänomen, das Fachleute als „Halluzination“ bezeichnen. Rayid Ghani, Professor für maschinelles Lernen an der Carnegie Mellon University in Pittsburgh, bringt es auf den Punkt: Die KI „kennt nicht den Unterschied zwischen Reisehinweisen, Wegbeschreibungen oder Rezepten“.

Ein wachsendes Vertrauensproblem

Obwohl die Technologie noch fehleranfällig ist, greifen immer mehr Menschen darauf zurück. Eine globale Umfrage des Reisesicherheitsdienstleisters Global Rescue aus Boston ergab, dass bereits rund 24 Prozent der Tourist:innen KI für ihre Reiseplanung nutzen. Harding Bush, Sicherheitsdirektor bei Global Rescue, nannte die Verbreitung von KI eine „unmittelbare Bedrohung für das Reisen“.

Anzeige
Anzeige

In Deutschland ist die Nutzung noch verhaltener. Laut einer Studie von MHP, einer Porsche-Tochtergesellschaft aus Ludwigsburg, setzen hierzulande erst 15 Prozent auf KI-Unterstützung bei der Urlaubsplanung. Die Skepsis ist also vorhanden, doch der Trend ist eindeutig. Wer sich auf die neuen Werkzeuge einlässt, sollte sich der Risiken bewusst sein.

Das Problem beschränkt sich nicht auf falsche Routen. Die Technologie hinter den gefälschten Videos ist dieselbe, die für Deepfake-Betrug genutzt wird, dessen Fälle in den vergangenen Jahren dramatisch zugenommen haben. Die Grenzen zwischen authentischen Empfehlungen und gezielter Täuschung verschwimmen.

Für Reisende bedeutet das, dass eine gesunde Portion Misstrauen unerlässlich ist. Jeder von einer KI generierte Vorschlag – sei es ein Restaurant, eine Route oder eine ganze Sehenswürdigkeit – sollte über etablierte Quellen wie offizielle Tourismus-Websites, Kartenanwendungen oder aktuelle Reiseführer verifiziert werden. KI kann ein starkes Werkzeug für Inspiration sein, aber die finale Prüfung muss menschlich bleiben.

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren