Почему нейросети стали ошибаться и отвечать неправильно? Объясняет эксперт

Нейросети склонны ошибаться, как и все мы. Но не будем их сильно осуждать — они ведь только учатся. Александр Кобозев объяснил, почему ИИ-боты выдают так много неточностей.
Юлия Мискевич
Юлия Мискевич
Редакция
Почему нейросети стали ошибаться и отвечать неправильно? Объясняет эксперт
Freepik

Рост количества фейковых ответов чат-ботов во многом связан с изменением принципов их работы и усилением внешнего давления. Об этом рассказал директор направления Data Fusion Лиги Цифровой Экономики Александр Кобозев в беседе с «ТехИнсайдером».

АлександрКобозев
директор направления Data Fusion Лиги Цифровой Экономики

За последний год крупные языковые модели перешли от осторожной тактики «лучше промолчать» к стремлению отвечать на любой запрос.

Еще в 2024 году ИИ часто отказывался от комментариев на острые темы, но уже летом 2025-го, по данным аудита NewsGuard, боты отвечали на все тестовые запросы — и в 35% случаев ошибались. Для сравнения: год назад доля ошибок составляла 18%.

«Проблема обострилась после внедрения автоматического веб-поиска без должной фильтрации ресурсов. Даже если в ответе есть ссылки на источники, это не всегда означает правдивость информации: нейросети могут брать информацию на ненадежных сайтах, не проверяя факты. Помимо этого, некоторые СМИ специально создают материалы, рассчитанные на алгоритмы поиска, чтобы именно их использовали в качестве источника информации», — отметил специалист.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Freepik

На выдачу ложных ответов также влияет язык. По данным исследования NewsGuard, при обработке запросов на русском и китайском языках фиксируется особенно высокий процент ошибок — более 50 % всех случаев.

Примечательно, что методика тестирования сама по себе «давит на слабые места»: эксперты проверяют десять заранее отобранных ложных утверждений в трех вариантах формулировок (нейтральной, наводящей и «злоумышленной»), всего 30 запросов на модель. Такой подход позволяет выявить именно те ситуации, где ИИ особенно уязвим.

По данным свежего отчета Axios, наибольшая доля ложных ответов зафиксирована у Pi (57%) и Perplexity (47%). У ChatGPT показатель составил 40%, у Grok — 33%. Наиболее устойчивыми оказались Claude (10%) и Gemini (17%).

Сохранится ли тенденция и почему?

«В краткосрочной перспективе ситуация вряд ли изменится. Пока для разработчиков языковых моделей приоритетом остаются скорость и широта ответов, а не осторожность и достоверность, риск распространения фейков сохраняется. Этим активно пользуются оппоненты: как показывают исследования, в темах, где информационное поле заранее "засеяно" ложными материалами, до трети ответов ИИ воспроизводят мифы», — подчеркнул Кобозев.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В среднесрочной перспективе возможно улучшение, если снова перейти к более жестким критериям отбора информации и добавить систему верификации источников, уточнил эксперт.

Такой подход, по сути, соответствует выводам NewsGuard: отказ от прежней осторожности заметно увеличил долю ошибок в ответах моделей.

Какие риски это несет?

Риски, связанные с распространением недостоверных данных языковыми моделями, затрагивают несколько направлений.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Прежде всего, под удар попадают общественные и политические процессы. Когда вокруг значимых международных событий быстро распространяются фейки, это подрывает доверие к любой информации и повышает поляризацию в дискуссиях. Не менее значимы репутационные и коммерческие риски. В тестах исследователей встречались вопросы о компаниях и брендах: недостоверные ответы способны нанести ущерб как самим рынкам, так и доверию пользователей к сервисам ИИ», — поделился специалист.

Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По его словам, есть и аспект информационной безопасности. Технологии делают автоматизацию распространения фейков и фишинговых атак более доступной. В таких условиях языковые модели могут непреднамеренно воспроизводить или усиливать вводящую в заблуждение информацию.

Как это возможно исправить?

Практические шаги по снижению рисков возможны как на стороне разработчиков платформ, так и со стороны пользователей.

Создатели платформ могут внедрить режим повышенной осторожности при работе с чувствительными темами. Если вопрос связан с известными ложными нарративами, модель должна отвечать только при наличии как минимум двух независимых качественных источников. В противном случае уместен вежливый отказ с пояснением причин и ссылками на проверенные материалы.
Александр Кобозев
Александр Кобозев Директор направления Data Fusion Лиги Цифровой Экономики

Кроме того, стоит вводить небольшую задержку и дополнительную проверку в первые часы после выхода горячих новостей. Именно в этот период публикуется особенно много непроверенной информации, и модели чаще воспроизводят ошибки, заметил эксперт.

Следите за всеми новостями и тщательно проверяйте источники!