Въображаеми градове в Перу, Айфелова кула в Пекин - все повече пътешественици се доверяват на ИИ за идеи за маршрути и често биват изпращани към места, които изобщо не съществуват. Само за няколко години платформи с изкуствен интелект като ChatGPT, Microsoft Copilot и Google Gemini се превърнаха от любопитна новост в незаменим инструмент за милиони пътуващи. Според изследвания вече 30% от международните туристи използват ИИ решения и специализирани сайтове, за да организират своите пътешествия.
Макар че програмите с ИИ могат да бъдат ценен помощник при планиране на пътувания, те понякога създават и разочароващи, дори опасни ситуации. Все повече туристи научават този урок от първо лице - когато пристигнат на обещаната дестинация и открият, че са били подведени от неточна информация или насочени към място, което съществува единствено във въображението на алгоритъма.
Потребителски неволи
Такъв е случаят с Дана Яо и съпруга ѝ. Двамата използват ChatGPT, за да подготвят романтична разходка до връх Мисен на японския остров Ицукушима (Мияджима). Разглеждат безпроблемно града и тръгват към върха в 15:00 ч., с надеждата да се насладят на залеза, точно както им препоръчал чатботът. "И тогава започнаха проблемите", разказва Яо, авторка на блог за пътувания в Япония. "Когато дойде време да се прибираме с кабинковия лифт, се оказа, че ChatGPT е сбъркал. Той твърдеше, че последното слизане е в 17:30, но лифтът вече беше затворен. В резултат останахме блокирани на върха на планината."
ББС съобщава през 2024 г., че приложението Layla е подвело потребители, като е твърдяло, че в Пекин има Айфелова кула, а на британски турист предложило маршрут за маратон в Северна Италия, който на практика е невъзможен. "Маршрутите не бяха логични", разказва пътешественикът. "Щяхме да изгубим повече време в път, отколкото да видим каквото и да е."
Измами с изкуствен интелект: Примамват онлайн с несъществуващи модели на дрехи
Данни от проучване показват, че 37% от хората, използвали ИИ за планиране на пътувания, са се оплакали от недостатъчна информация, а около 33% - от неточни или изцяло неверни препоръки. Системите за изкуствен интелект като Chatgpt анализират огромни обеми текст и комбинират думи и фрази, които изглеждат най-логични в даден контекст. Понякога това води до точни съвети, но друг път - до т.нар. "халюцинации", когато програмата просто измисля информация. Тъй като и фактите, и измислиците се представят по един и същи начин, за потребителите често е трудно да различат реалността от фантазията.
Пример за това е несъществуващият "Свещен каньон на Хумантай" - според основателя на туристическата компания, системата просто е комбинирала думи, които звучат убедително за Перу. По сходен начин, ИИ няма интуиция за физическия свят - за него една "лека разходка на 4000 метра" може да звучи толкова реалистично, колкото истинско изкачване на планина.
Подобни случаи се появяват и извън сферата на пътуванията. В статия на Fast Company се разказва за двойка, която тръгнала към уж живописна лифтова станция в Малайзия, която открили в TikTok, само за да осъзнае, че тя изобщо не съществува. Видеото, което ги вдъхновило, било напълно генерирано от ИИ.
Тази тенденция отразява по-широкото навлизане на изкуствения интелект в ежедневието. През август създатели на съдържание установиха, че YouTube използва ИИ, за да "редактира" техните видеа без разрешение - променяйки детайли като дрехи, коса и дори лица. В началото на 2025 г. Netflix също се оказва в центъра на критики, след като опитите му да "обнови" стари ситкоми чрез ИИ доведоха до сюрреалистични изкривявания във външността на популярни актьори от 80-те и 90-те години. "Когато ИИ започне да променя съдържанието незабелязано, границата между реалното и изкуственото става все по-размита - и това неминуемо засяга и пътешествията", коментират експерти.
istock
В момента се обсъждат различни начини за регулиране на начина, по който изкуственият интелект представя информация - сред тях са предложения на ЕС и САЩ за въвеждане на водни знаци или други ясно видими белези, които да показват кога съдържанието е променено или изцяло генерирано от ИИ.
Подобни регулации биха могли да улеснят пътешествениците да разпознават изображения или видеа, създадени чрез ИИ. Но те едва ли ще помогнат, когато чатбот започне да измисля факти в хода на разговора. Дори експерти, включително изпълнителният директор на Google Сундар Пичай, признават, че "халюцинациите" може да са неизбежна характеристика на системите за изкуствен интелект като ChatGPT или Google Gemini. Това означава, че единственият реален начин за защита е бдителността.
Експертите съветват потребителите да бъдат възможно най-конкретни в своите запитвания и да проверяват всяка препоръка. Но именно при пътуванията това може да се окаже особено трудно, тъй като туристите често питат за места, които не са посещавали. Ако дадено предложение изглежда твърде съвършено, по-добре е да бъде проверено повторно. И макар проверките да отнемат време и усилия, често се оказва, че те са не по-лесни от самото традиционно планиране.
За клиничния психотерапевт Хавиер Лабурт ключът към доброто пътуване - независимо дали използвате ИИ или не - е гъвкавостта. "Опитайте да превърнете разочарованието от това, че сте били подведени, в ново приключение", казва той. "Вече сте на път - как можете да обърнете ситуацията в своя полза? В крайна сметка това пак е част от едно страхотно пътешествие."
За повече финансови новини и други полезни съвети, относно личните ви финанси, може да ни последвате във Facebook или Google News Showcase