Онлайн-сервис по бронированию путешествий недавно попал в крайне неловкую ситуацию, когда одна из его статей направила туристов к достопримечательности, которой в реальности не существует.
По сообщениям, австралийская туристическая компания в начале этого года оказалась в центре скандала после публикации статьи об идиллическом месте под названием Велдборо-Хот-Спрингс.
Источники были описаны как «уединённый лесной курорт», предлагающий «подлинную связь с природой». К статье прилагалась фотография, а сами «источники» даже вошли в список сайта «7 лучших термальных источников Тасмании для посещения в 2026 году».
На сайте Tasmania Tours утверждалось: «Их репутация спокойного убежища сделала их фаворитом среди местных пеших групп, организаторов оздоровительных ретритов и всех, кто хочет испытать на себе одни из самых нетронутых горячих источников Тасмании».
Заинтригованные туристы, желающие посетить это место, но не знающие, как туда добраться, направлялись в указанный район и спрашивали дорогу у местных жителей и предпринимателей.
Проблема заключалась в том, что никаких горячих источников там не было.
Выяснилось, что компания использовала искусственный интеллект для написания части своих статей, и система попросту «сгенерировала галлюцинацию» — выдумала всю информацию от начала до конца.
Владелец фирмы объяснил, что они прибегли к помощи ИИ, чтобы конкурировать с более крупными компаниями, регулярно публикуя новый контент. К сожалению, в данном случае решение привело к оглушительному провалу.
Этот инцидент ярко иллюстрирует одну из ключевых проблем, возникающих при бездумном использовании генеративного ИИ в медиа и туриндустрии — отсутствие проверки фактов и ответственности. Алгоритм, обученный на массивах текстов, легко комбинирует шаблонные описания курортов, реальные географические названия и правдоподобные детали, создавая убедительную, но абсолютно фальшивую реальность.
Последствия оказались вполне осязаемыми: местный бизнес, расположенный в районе вымышленного курорта, столкнулся с наплывом растерянных туристов. Это не только подрывало доверие к компании-публикатору, но и создавало неудобства для ничего не подозревающих местных жителей, вынужденных разуверять разочарованных путешественников.
Ситуация заставляет задуматься о новой форме «цифрового мусора» — фантомных достопримечательностях, которые, множась в интернете, начинают жить собственной жизнью. Уже известны случаи, когда ИИ «изобретал» несуществующие исторические события, книги или биографии учёных, которые затем кочевали по сайтам.
Эксперты напоминают, что ИИ — это мощный инструмент для обработки и структурирования информации, но не замена экспертной оценке, журналистскому расследованию и простой человеческой проверке. Конечная ответственность за контент всегда лежит на человеке-редакторе. Использование нейросетей требует внедрения строгих редакционных политик: перекрёстной проверки данных, указания источников и чёткой маркировки AI-генерируемых материалов.
Инцидент с тасманскими источниками — это timely-предупреждение для всей индустрии. Погоня за дешёвым контентом и SEO-оптимизацией может обернуться не просто репутационными потерями, а вполне реальным ущербом. Доверие, особенно в сфере туризма, — самый ценный актив, который легко потерять из-за одной «галлюцинации» искусственного интеллекта.
Поделитесь в вашей соцсети👇
Ваш комментарий