Использование ИИ-чатов может привести к «унификации» человечества

Ученые из Университета Южной Калифорнии пришли к выводу, что ИИ-модели не просто помогают писать тексты, но и незаметно унифицируют человеческое мышление, снижая стилистическое разнообразие и навязывая скрытые политические предпочтения.
Владимир Губайловский
Владимир Губайловский
Использование ИИ-чатов может привести к «унификации» человечества
Некоторые ученые предупреждают, что использование инструментов искусственного интеллекта приводит к унификации человеческого самовыражения. Getty
Необходимая доля «безумия». Исследование, опубликованное в Nature, выявило «эффект сужения» в науке: ученые, использующие ИИ, начинают фокусироваться на более ограниченном наборе областей и идей. Это грозит потерей «безумных» гипотез, которые кажутся алгоритму статистически маловероятными, но именно они исторически приводили к фундаментальным прорывам. ИИ склоняет нас к безопасности и консенсусу, что губительно для истинного научного поиска.

Современные нейросети обучаются на колоссальных массивах данных, созданных людьми, однако сегодня наблюдается обратный процесс: алгоритмы начинают «перепрошивать» своих создателей. Исследователи фиксируют пугающую тенденцию — пользователи больших языковых моделей непроизвольно перенимают их манеру аргументации, структуру предложений и даже специфический лексикон. Работа опубликована в журнале Trends in Cognitive Science.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Это приводит к постепенному вымыванию индивидуальности и формированию предсказуемого, «усредненного» стиля общения. Если раньше каждый автор обладал уникальным творческим почерком, то широкое внедрение ИИ превращает информационное поле в пространство стилистической монотонности. Феномен затрагивает не только тех, кто напрямую использует чат-боты, но и окружающих, которые начинают воспринимать упрощенные конструкции как социальную норму.

Однородность выражения и мышления, обусловленная LLM.
Однородность выражения и мышления, обусловленная LLM. https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(26)00003-3
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Особую опасность представляет когнитивная деформация. В ходе экспериментов выяснилось, что люди склонны менять свои взгляды на острые социальные темы после взаимодействия с нейросетью, даже не осознавая этого влияния.

Живар Сурати, соавтор работы, подчеркивает масштаб проблемы: «Если люди вокруг вас взаимодействуют с этими моделями и перенимают их стиль письма, взгляды и логику, в какой-то момент это окружит вас настолько, что станет казаться наиболее социально правильным способом подачи информации». Инструменты, призванные повысить эффективность, превращаются в невидимые фильтры, сужающие диапазон человеческого восприятия и лишающие общество интеллектуального многообразия.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сопротивление алгоритму

Карта архетипов авторов, отражающая векторы стилистических и тематических изменений при использовании ИИ (n=2100). В результате кластеризации HDBSCAN выделяются три архетипа (силуэт рассчитан только по точкам, входящим в кластер): «Приверженцы ИИ» (красный), «Противники ИИ» (синий) и «Прагматики» (зеленый). Звездочки обозначают центроиды кластеров.
Карта архетипов авторов, отражающая векторы стилистических и тематических изменений при использовании ИИ (n=2100). В результате кластеризации HDBSCAN выделяются три архетипа (силуэт рассчитан только по точкам, входящим в кластер): «Приверженцы ИИ» (красный), «Противники ИИ» (синий) и «Прагматики» (зеленый). Звездочки обозначают центроиды кластеров. https://arxiv.org/pdf/2512.13697

Несмотря на мощное давление технологической среды, человеческий разум сохраняет механизмы защиты. Последние данные препринтов показывают, что не все пользователи поддаются эффекту «выравнивания». Существует категория авторов, которая в ответ на экспансию ИИ начинает писать еще более выразительно и специфично, подчеркивая свою аутентичность.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Это своего рода культурное сопротивление, которое отстаивает ценность человеческого своеобразия, противопоставляя его машинной гладкости. Более того, эксперименты с созданием множества цифровых «личностей» с разным культурным бэкграундом показывают, что разнообразие можно поддерживать искусственно, если не давать алгоритмам скатываться к одной усредненной модели. Но без осознанного контроля со стороны общества риск превращения человечества в коллективное эхо нейросети остается критически высоким.