Как сообщает Би-би-си, участились инциденты, когда туристы, доверившись рекомендациям ИИ, попадают в затруднительные и даже опасные ситуации.
Характерным примером стал случай в Перу, где двое туристов попытались найти несуществующий «Священный каньон Умантай», полностью выдуманный нейросетью. Местный гид Мигель Анхель Гонгора Меса вовремя их остановил, пояснив, что подобная дезинформация в условиях высокогорья может быть смертельно опасной. А в Японии пара застряла на вершине горы Мисен после наступления темноты, потому что ChatGPT указал неверное время закрытия канатной дороги.
Другое приложение, Layla, предлагало пользователям посетить Эйфелеву башню в Пекине и рекомендовало британскому туристу пробежать по несуществующему марафонскому маршруту через северную Италию.
Специалисты объясняют эту проблему фундаментальным принципом работы больших языковых моделей. Профессор Райид Гани из Университета Карнеги-Меллона поясняет, что ИИ не обладает реальными знаниями о мире, а лишь генерирует тексты на основе данных, что иногда приводит к так называемым «галлюцинациям», знакомым всем, кто хоть раз пытался что-то узнать от нейросети.
Согласно данным глобального опроса 2024 года, примерно каждый третий путешественник, использовавший ИИ для планирования поездок, уже сталкивался с недостоверной информацией. При этом компания Global Rescue сообщает, что 24% туристов активно применяют ИИ-приложения.
Однако ложные сведения — не единственная угроза. Как отмечает заместитель директора по безопасности Global Rescue Хардинг Буш, киберпреступники все чаще используют ИИ и технологию дипфейков для создания фиктивных туристических сайтов и приложений, предназначенных для кражи денежных средств и личных данных пользователей.
Источник: BBC
Присоединяйтесь — мы покажем вам много интересного
Присоединяйтесь к ОК, чтобы подписаться на группу и комментировать публикации.
Нет комментариев