
Las aplicaciones basadas en inteligencia artificial se convirtieron en apoyo frecuente para organizar viajes, pero múltiples reportes confirman que pueden enviar a turistas a lugares inexistentes o entregar información incorrecta. Estas fallas abarcan desde itinerarios imposibles hasta atracciones inventadas, como una Torre Eiffel en Pekín o un cañón ficticio en los Andes peruanos.
En Perú, el guía y director de Evolution Treks, Miguel Ángel Góngora Meza, contó a BBC la experiencia de dos visitantes que intentaron llegar solos al supuesto "Cañón Sagrado de Humantay". "Me mostraron la captura de pantalla, escrita con seguridad y llena de adjetivos vívidos, pero no era cierto. ¡No existe el Cañón Sagrado de Humantay!", señaló. Los turistas habían invertido cerca de 160 dólares en traslados para terminar en un sendero rural próximo a Mollepata, sin guía ni destino real.
Dana Yao, creadora de contenido, relató un episodio similar durante un viaje a Japón junto con su esposo. Siguiendo las indicaciones de ChatGPT, planearon subir al monte Misen en la isla de Itsukushima. "Fue entonces cuando surgió el problema", afirmó, "cuando estábamos listos para descender la montaña por la estación del teleférico. ChatGPT dijo que el último teleférico para bajar era a las 17:30, pero en realidad, el teleférico ya estaba cerrado. Por eso nos quedamos atrapados en la cima de la montaña".
Un artículo de la BBC de 2024 documentó errores similares, como rutas imposibles en Italia sugeridas a viajeros británicos. Además, un reporte de Fast Company relató el caso de una pareja que viajó a Malasia en busca de un teleférico panorámico visto en TikTok, el cual nunca existió porque había sido creado por inteligencia artificial.
Encuestas recientes reflejan que el problema es recurrente. En 2024, el 37% de los usuarios de IA aplicada a viajes señaló que las plataformas no ofrecieron información suficiente, mientras el 33% reportó datos falsos. El profesor Rayid Ghani, investigador en la Universidad Carnegie Mellon, explicó: "No distingue entre consejos de viaje, direcciones o recetas. Solo conoce palabras. Así que no deja de soltar palabras que hacen que lo que te dice suene realista, y de ahí provienen muchos de los problemas subyacentes".
Diversos especialistas advierten que este fenómeno se conoce como "alucinaciones" de los modelos de lenguaje, en donde el sistema combina datos de manera plausible pero sin correspondencia con la realidad. Esto puede confundir a los viajeros, que no siempre tienen referencias previas de los destinos.
Frente a estos riesgos, distintas propuestas en la Unión Europea y Estados Unidos buscan establecer marcas de agua o avisos que señalen contenidos generados por IA. Aun con esas medidas, expertos consideran que la verificación manual de la información es esencial, en especial cuando se trata de rutas en lugares desconocidos. (NotiPress)