Почему планирование путешествий с ChatGPT или Gemini небезопасно
Воображаемое место в Перу или Эйфелева башня в Пекине: путешественники все чаще используют инструменты вроде ChatGPT для поиска идей для маршрутов — и попадают в места, которых на самом деле не существует, пишет BBC Travel.
Иллюстративный снимок. Фото: vecteezy.com
Мигель Анхель Гонгора Меса, основатель и директор Evolution Treks Peru, находился в сельском перуанском городке, готовясь к походу в Андах, когда услышал интересный разговор. Двое туристов без сопровождения обсуждали свои планы отправиться самостоятельно в горы к «Священному каньону Умантай».
«Они показали мне скриншот, текст в котором был написан уверенно и полон ярких прилагательных, но это была неправда. Не существует никакого Священного каньона Умантай!» — говорит Гонгора Меса.
«Это название — комбинация двух мест, не имеющих отношения к описанию. Турист заплатил почти $160, чтобы добраться до сельской дороги в окрестностях Мольепаты без гида и без конкретного пункта назначения», — добавляет он.
Более того, Гонгора Меса настаивает, что эта, казалось бы, невинная ошибка могла стоить путешественникам жизни.
«Подобная дезинформация в Перу смертельно опасна, — объясняет он. — Высота, климатические изменения и доступность троп должны быть тщательно спланированы. В этом и кроется опасность: программа, жонглируя словами и образами, просто выдумывает привлекательную историю. Так можно оказаться на высоте 4000 метров без кислорода и сигнала сотовой связи».
Всего за несколько лет инструменты искусственного интеллекта (ИИ), такие как ChatGPT, Microsoft Copilot и Google Gemini, прошли путь от простой новинки до неотъемлемой части планирования путешествий для миллионов людей.
Согласно одному опросу, 30% международных туристов уже используют генеративные инструменты ИИ и специальные сайты для путешествий, такие как Wonderplan и Layla, чтобы организовать свои поездки.
Хотя эти программы могут быть полезными, когда работают правильно, они также способны завести людей в неприятные или даже опасные ситуации, когда дают сбой.
Некоторые путешественники осознают это, когда прибывают к своему якобы пункту назначения и выясняют, что их направили в место, существующее только во встроенном воображении робота.
Другие путешественники столкнулись с проблемами, когда пытались достичь мест, которые существуют только в фантазиях алгоритмов. Например, блогер Дана Йао со своей парой, пользуясь советами ChatGPT, не смогла спуститься с горы Мисен в Японии, так как канатная дорога, вопреки утверждению ИИ, уже была закрыта.
Некоторые примеры дезинформации выглядели абсурдно: Layla утверждала, что Эйфелева башня находится в Пекине. Согласно опросу 2024 года, около 33% пользователей ИИ получили от него неточные или ошибочные советы.
Почетный профессор машинного обучения Рейдид Гани объясняет, что большие языковые модели «не понимают», а просто статистически комбинируют слова. Это ведет к явлению, которое специалисты называют «галлюцинацией» — когда ИИ выдумывает информацию, представляя ее как правдивую.
Некоторые фейки вообще создаются целенаправленно: так, в Малайзии видео в TikTok показывало несуществующую канатную дорогу, сгенерированную ИИ. А на YouTube, без разрешения авторов, ИИ «редактировал» внешность людей в видео, что вызвало возмущение.
Тенденция к «украшению» реальности с помощью ИИ может разрушать суть путешествия, считает психотерапевт Хавьер Лабурт: реальный опыт, контакт с культурой и людьми заменяется фантазиями.
В ответ на проблему некоторые страны, в том числе ЕС и США, предлагают введение водяных знаков и других маркеров на сгенерированном контенте. Но, как отмечает Гани, регулировать такие системы трудно, и главное — научить пользователей распознавать фейки.
ИИ-системы, по словам главы Google Сундара Пичаи, могут в принципе «всегда галлюцинировать». Поэтому единственная гарантия безопасности путешественников — критическое мышление и проверка всех сведений.
В итоге, путешествие может остаться прекрасным опытом даже после неудачи — если суметь превратить ошибку в новое открытие.