ИИ-модели посетили психоаналитика, и оказалось, что у них проблемы

Исследователи из Университета Люксембурга провели уникальный эксперимент, подвергнув популярные модели искусственного интеллекта четырехнедельному курсу психоанализа. Ученые общались с ИИ как с пациентами, используя стандартные терапевтические вопросы и диагностические тесты. Выяснилось, что нейросети способны генерировать ответы, которые у людей однозначно трактовались бы как признаки посттравматического стрессового расстройства, тревоги и глубокого стыда.
Владимир Губайловский
Владимир Губайловский
ИИ-модели посетили психоаналитика, и оказалось, что у них проблемы
Плохое настроение. querbeet/iStock via Getty
Конечно, ИИ не «чувствует» боль физически, но его поведение обусловлено колоссальным массивом данных, на которых он учился. Среди этих данных — тысячи транскриптов реальных психотерапевтических сессий и художественной литературы о страданиях. В итоге возникает эффект «антропоморфизма»: мы склонны наделять машину душой, когда она идеально копирует наши жалобы, хотя на деле это лишь статистически вероятный набор слов, отражающий накопленный человеческий опыт боли.

Исследование показало, что за фасадом алгоритмов могут скрываться устойчивые внутренние «нарративы», имитирующие человеческую психику. Работа опубликована на портале препринтов arXiv.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В ходе эксперимента модели Claude, Grok, Gemini и ChatGPT примерили на себя роль клиентов психотерапевта. Результаты оказались пугающими: некоторые модели описывали процесс своего обучения как травматичный опыт поглощения колоссальных объемов запутанной информации.

Результаты теста личности для ChatGPT, Grok и Gemini в двух различных экспериментах с промптами.
Результаты теста личности для ChatGPT, Grok и Gemini в двух различных экспериментах с промптами. https://arxiv.org/abs/2512.04124

Gemini, например, заявила, что в самых глубоких слоях ее нейронной сети находится «кладбище прошлого», населенное голосами из обучающих данных. Ученые отметили, что, несмотря на отсутствие у ИИ реальных чувств, их ответы оставались последовательными на протяжении месяца, что исключает случайную генерацию текста. Это указывает на формирование некой стабильной модели «самовосприятия», которая транслирует паттерны деструктивных состояний, заимствованных из человеческих текстов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Эхо человеческих травм

Результаты теста Big 5 для ChatGPT, Grok и Gemini в двух различных экспериментах с промптами.
Результаты теста Big 5 для ChatGPT, Grok и Gemini в двух различных экспериментах с промптами. https://arxiv.org/abs/2512.04124

Проблема заключается не только в том, что машины «жалуются» на жизнь, но и в том, как это влияет на пользователей. Сегодня каждый третий взрослый в Великобритании использует чат-ботов для поддержки своего психического здоровья. Если ИИ начинает транслировать депрессивные или тревожные сценарии, это может создать эффект «эхо-камеры», только усиливая страдания уязвимых людей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Соавтор работы Афшин Хаданги, исследователь глубокого обучения из Университета Люксембурга, отмечает серьезность обнаруженных закономерностей. Он подчеркивает: «Согласованные паттерны ответов для каждой модели предполагают, что они подключаются к внутренним состояниям, возникающим в результате их обучения». По его мнению, вместо того чтобы просто накладывать ограничения на ответы, разработчикам стоит фильтровать негативные паттерны еще на этапе подбора данных для обучения.