Риск искусственного интеллекта: когда журналистика становится жертвой «галлюцинаций» В после…

09.03.2026

<b>Риск искусственного интеллекта: когда журналистика становится жертвой «галлюцинаций»</b> В последнее время медиаиндустрия столкнулась с тревожной тенденцией: эксперименты с ИИ-инструментами в редакционных процессах все чаще приводят к публикации вымышленных данных. Недавние инциденты в Ars Technica и The Economic Times наглядно демонстрируют, насколько опасным может быть размытие границ между помощью технологий и подменой реальной журналистской работы. Издание Ars Technica, принадлежащее Condé Nast, было вынуждено отозвать статью после того, как редакторы обнаружили, что цитаты, приписанные реальному человеку, были сгенерированы инструментом на базе Claude Code, а не получены в ходе интервью. Главный редактор Кен Фишер принес публичные извинения читателям и Скотту Шамбо, чьи слова были сфабрикованы. Фишер подчеркнул, что это серьезный провал стандартов: прямые цитаты должны отражать реальные слова источника, и использование ИИ в данном случае прямо противоречило редакционной политике издания. Проблема заключается в самой природе больших языковых моделей (LLM). Они оптимизированы для создания связного и правдоподобного текста, а не для проверки фактов. Когда ИИ «галлюцинирует», он может создавать цитаты, которые выглядят абсолютно достоверно, даже если эксперт никогда не произносил этих слов. Подобные ошибки уже случались ранее: в 2023 году CNET исправлял финансовые материалы, а Sports Illustrated удалял статьи, написанные несуществующими авторами. Особую опасность представляет «эффект эха». В случае с The Economic Times, где была опубликована вымышленная цитата исследователя дезинформации Нины Янкович о фейковом видео с участием Дональда Трампа и Барака Обамы, ошибка вышла далеко за пределы одного сайта. Статья была проиндексирована поисковиками, скопирована агрегаторами и, что самое страшное, попала в базы данных, на которых обучаются будущие модели ИИ. Таким образом, ложная информация становится частью «знаний» системы, порождая новые ошибки. Исследователь OpenAI Джерри Творек отмечает, что текущие модели не способны эффективно учиться на собственных провалах. В отличие от человеческого разума, который при столкновении с ошибкой перепроверяет гипотезы, ИИ просто продолжает генерировать текст, не имея механизма для исправления внутренних убеждений. Для редакций вопрос использования ИИ сегодня стоит ребром. Технологии эффективны в низкорисковых задачах: структурировании текста, создании SEO-метаданных или переформатировании уже проверенных материалов. Однако, как показывают последние события, внедрение ИИ в живой репортаж или политическую аналитику — это путь к потере доверия аудитории. Журналистика держится на проверяемых источниках, и пока ИИ не научится работать с доказательствами, а не просто с вероятностью слов, человеческий контроль остается единственным барьером на пути к дезинформации.

error: Content is protected !!