БЕЛ Ł РУС

Почему планирование путешествий с ChatGPT или Gemini небезопасно

6.10.2025 / 8:53

Nashaniva.com

Воображаемое место в Перу или Эйфелева башня в Пекине: путешественники все чаще используют инструменты вроде ChatGPT для поиска идей для маршрутов — и попадают в места, которых на самом деле не существует, пишет BBC Travel.

Иллюстративный снимок. Фото: vecteezy.com

Мигель Анхель Гонгора Меса, основатель и директор Evolution Treks Peru, находился в сельском перуанском городке, готовясь к походу в Андах, когда услышал интересный разговор. Двое туристов без сопровождения обсуждали свои планы отправиться самостоятельно в горы к «Священному каньону Умантай».

«Они показали мне скриншот, текст в котором был написан уверенно и полон ярких прилагательных, но это была неправда. Не существует никакого Священного каньона Умантай!» — говорит Гонгора Меса.

«Это название — комбинация двух мест, не имеющих отношения к описанию. Турист заплатил почти $160, чтобы добраться до сельской дороги в окрестностях Мольепаты без гида и без конкретного пункта назначения», — добавляет он.

Более того, Гонгора Меса настаивает, что эта, казалось бы, невинная ошибка могла стоить путешественникам жизни.

«Подобная дезинформация в Перу смертельно опасна, — объясняет он. — Высота, климатические изменения и доступность троп должны быть тщательно спланированы. В этом и кроется опасность: программа, жонглируя словами и образами, просто выдумывает привлекательную историю. Так можно оказаться на высоте 4000 метров без кислорода и сигнала сотовой связи».

Всего за несколько лет инструменты искусственного интеллекта (ИИ), такие как ChatGPT, Microsoft Copilot и Google Gemini, прошли путь от простой новинки до неотъемлемой части планирования путешествий для миллионов людей.

Согласно одному опросу, 30% международных туристов уже используют генеративные инструменты ИИ и специальные сайты для путешествий, такие как Wonderplan и Layla, чтобы организовать свои поездки.

Хотя эти программы могут быть полезными, когда работают правильно, они также способны завести людей в неприятные или даже опасные ситуации, когда дают сбой.

Некоторые путешественники осознают это, когда прибывают к своему якобы пункту назначения и выясняют, что их направили в место, существующее только во встроенном воображении робота.

Другие путешественники столкнулись с проблемами, когда пытались достичь мест, которые существуют только в фантазиях алгоритмов. Например, блогер Дана Йао со своей парой, пользуясь советами ChatGPT, не смогла спуститься с горы Мисен в Японии, так как канатная дорога, вопреки утверждению ИИ, уже была закрыта.

Некоторые примеры дезинформации выглядели абсурдно: Layla утверждала, что Эйфелева башня находится в Пекине. Согласно опросу 2024 года, около 33% пользователей ИИ получили от него неточные или ошибочные советы.

Почетный профессор машинного обучения Рейдид Гани объясняет, что большие языковые модели «не понимают», а просто статистически комбинируют слова. Это ведет к явлению, которое специалисты называют «галлюцинацией» — когда ИИ выдумывает информацию, представляя ее как правдивую.

Некоторые фейки вообще создаются целенаправленно: так, в Малайзии видео в TikTok показывало несуществующую канатную дорогу, сгенерированную ИИ. А на YouTube, без разрешения авторов, ИИ «редактировал» внешность людей в видео, что вызвало возмущение.

Тенденция к «украшению» реальности с помощью ИИ может разрушать суть путешествия, считает психотерапевт Хавьер Лабурт: реальный опыт, контакт с культурой и людьми заменяется фантазиями.

В ответ на проблему некоторые страны, в том числе ЕС и США, предлагают введение водяных знаков и других маркеров на сгенерированном контенте. Но, как отмечает Гани, регулировать такие системы трудно, и главное — научить пользователей распознавать фейки.

ИИ-системы, по словам главы Google Сундара Пичаи, могут в принципе «всегда галлюцинировать». Поэтому единственная гарантия безопасности путешественников — критическое мышление и проверка всех сведений.

В итоге, путешествие может остаться прекрасным опытом даже после неудачи — если суметь превратить ошибку в новое открытие. 

Читайте также:

Комментарии к статье