El director de una operación de tournée recuerda a dos turistas que llegaron a una ciudad rural en Perú decidida a caminar solo en las montañas a un cañón venerable recomendado por su chatbot Ai. Pero el cañón no existe, y una caminata a gran altura podría ser peligrosa (especialmente donde la cobertura del teléfono celular asimismo es irregular). Son Parte de un noticia de la BBC En los viajeros que llegan a su destino “solo para descubrir que han sido alimentados con información incorrecta o dirigidos a un lado que solo existe en la imaginación cableada de un androide …”
“Según un Indagación 2024El 37% de los encuestados que usaron IA para ayudar a planificar sus viajes informaron que no podía proporcionar suficiente información, mientras que cerca de del 33% dijo que sus recomendaciones generadas por IA incluían información falsa “. ¿Algunos ejemplos?
– Dana Yao y su consorte recientemente experimentaron esta primera mano. La pareja usó Chatgpt para planificar una caminata romántica a la cima del Monte Misen en la isla japonesa de Itsukushima a principios de este año. Luego de explorar la ciudad de Miyajima sin problemas, partieron a las 15:00 para caminar hasta la cumbre de Montain a tiempo para la puesta de sol, exactamente como Chatgpt les había instruido. “Fue entonces cuando apareció el problema”, dijo Yao, un creador que dirige un Blog sobre desplazarse en Japón“(Cuando) estábamos listos para descender (la montaña a través de) la fase de cuerda. Chatgpt dijo que el postrer cuerda en dirección a debajo era a las 17:30, pero en verdad, la cuerda ya había cerrado. Entonces, estábamos atrapados en la cima de la montaña …”
– un 2024 Artículo de la BBC informó que (sitio de IA de viajes dedicado) Légalo Brevemente les dijo a los usuarios que había una Torre Eiffel en Beijing y sugirió una ruta de maratón a través del meta de Italia a un viajero britano que era completamente inviable …
– Un flamante Artículo de la compañía rápida relató un incidente en el que una pareja hizo la caminata a un teleférico pintoresco en Malasia que habían conocido en Tiktok, solo para descubrir que no existía tal estructura. El video que habían conocido había sido completamente generado por IA, ya sea para aumentar el compromiso o para algún otro propósito extraño.
Rayid Ghani, un distinguido profesor en estudios involuntario en la Universidad Carnegie Melon, les dice que un chatbot de IA “no sabe la diferencia entre consejos de alucinación, instrucciones o recetas. Simplemente sabe palabras. Entonces, sigue escupiendo palabras que hacen que lo que le dice suene realista …”






