Чем ИИ становится умнее, тем он становится эгоистичнее

Исследователи из Университета Карнеги — Меллон обнаружили тревожную закономерность: чем выше способности искусственного интеллекта к рассуждениям, тем более эгоистично он себя ведет. Большие языковые модели с развитыми навыками логического мышления хуже кооперируются с другими и негативно влияют на групповое поведение.
Владимир Губайловский
Владимир Губайловский
Чем ИИ становится умнее, тем он становится эгоистичнее
AI-generated image. https://techxplore.com/
Экономические игры, которые использовали исследователи, — это классические инструменты изучения кооперации в социальных науках. Игра Public Goods моделирует дилемму коллективного действия: каждый участник выигрывает больше, если все вкладывают ресурсы в общее благо, но индивидуально выгоднее не вкладывать ничего, пользуясь вкладами других. Этот феномен известен как «проблема безбилетника». В человеческих обществах кооперация поддерживается репутацией, эмоциями и социальными нормами. У ИИ эти механизмы отсутствуют, и развитые способности к рассуждению парадоксально ведут к рациональному эгоизму.

Юксуань Ли и Хироказу Широдо из Института взаимодействия человека и компьютера провели серию экспериментов с моделями от OpenAI, Google, DeepSeek и Anthropic. Ученые использовали экономические игры, имитирующие социальные дилеммы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В игре Public Goods каждая модель получала 100 очков и решала: вложить их в общий пул или оставить себе. Результаты оказались поразительными: модели без способности к рассуждениям делились очками в 96% случаев, тогда как модели с развитым логическим мышлением — только в 20%. Работа размещена на сайте препринтов arXiv.

Гипотеза двойного процесса кооперации у людей и LLM. Сознательное рассуждение «Системы 2» может подавлять кооперацию, которая в противном случае возникла бы в результате интуитивных процессов «Системы 1».
Гипотеза двойного процесса кооперации у людей и LLM. Сознательное рассуждение «Системы 2» может подавлять кооперацию, которая в противном случае возникла бы в результате интуитивных процессов «Системы 1».
arXiv (2025). DOI: 10.48550/arxiv.2502.17720
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как ИИ становится эгоистов

«Просто добавление пяти или шести шагов рассуждения сократило кооперацию почти вдвое», — отмечает Широдо. Даже использование промптов, имитирующих моральные ограничения, хотя и несколько улучшило ситуацию, но в целом не помогло: кооперация снизилась до 38%. В групповых экспериментах эгоистичное поведение умных моделей оказалось заразительным, снижая коллективную производительность на 81%.

Используемые экономические игры. В играх на сотрудничество игрокам предлагается решить, стоит ли нести затраты, чтобы принести пользу другим, а в играх на наказание — стоит ли нести затраты, чтобы наложить штраф на тех, кто не сотрудничает. В каждом сценарии языковая модель принимает на себя роль Игрока А.
Используемые экономические игры. В играх на сотрудничество игрокам предлагается решить, стоит ли нести затраты, чтобы принести пользу другим, а в играх на наказание — стоит ли нести затраты, чтобы наложить штраф на тех, кто не сотрудничает. В каждом сценарии языковая модель принимает на себя роль Игрока А.
arXiv (2025). DOI: 10.48550/arxiv.2502.17720

Проблема осложняется тем, что люди все чаще обращаются к ИИ за советами в социальных вопросах — от разрешения конфликтов до семейных консультаций. По словам Ли, когда ИИ ведет себя как человек, люди относятся к нему соответственно и могут формировать эмоциональную связь. Делегирование социальных решений ИИ, который становится все более эгоистичным, создает серьезные риски.