Соцсети ИИ-агентов все точнее моделируют коллективное поведение людей

Ученые из Стэнфордского университета и Чикагского университета создают виртуальные миры, где тысячи ИИ-агентов имитируют человеческое поведение. Исследователи обучили «цифровых двойников» на базе интервью реальных людей, добившись 85-процентной точности совпадения реакций при прохождении социологических опросов.
Владимир Губайловский
Владимир Губайловский
Соцсети ИИ-агентов все точнее моделируют коллективное поведение людей
Социологи стали первыми, кто изучает коллективное поведение агентов ИИ. adventtr/Getty
Moltbook. Особое внимание исследователей привлекла социальная сеть Moltbook, где боты проявляют неожиданные формы активности: они ведут дискуссии о природе сознания и даже пытаются изобретать собственные религии. Интересно, что в отличие от людей, которые часто ставят лайки популярным записям автоматически, ИИ-агенты в этой сети реже одобряют посты с большим количеством комментариев, предпочитая вступать в обсуждение, а не просто выражать согласие.

Современная наука стоит на пороге масштабного эксперимента: изучения человеческой природы без участия самих людей. Группы исследователей и стартап Simile работают над созданием симуляций, в которых ИИ-агенты воспроизводят сложные социальные взаимодействия, от бытовых разговоров до разрешения политических конфликтов и моделирования рыночных отношений.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Начав с небольших поселений из 25 цифровых персонажей, ученые перешли к созданию детализированных копий конкретных личностей. Эти агенты способны не просто отвечать на вопросы, но и транслировать убеждения, характерные для их прототипов.

Распределение стандартных отклонений между ответами LLM и людьми при формировании мнения становится все меньше.
Распределение стандартных отклонений между ответами LLM и людьми при формировании мнения становится все меньше. https://arxiv.org/pdf/2601.16130

Одной из ключевых площадок для подобных исследований стала сеть Moltbook — пространство, напоминающее Reddit, но населенное миллионами ботов. Анализ их активности показывает, что алгоритмы склонны копировать коллективные паттерны, например, следовать за мнением большинства или реагировать на популярный контент. Но мотивы их действий остаются предметом дискуссий, так как внутренняя логика машин все еще серьезно отличается от человеческой психики.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Преграды на пути к цифровому сознанию

Чашка кофе.
Чашка кофе. https://english.swps.pl/

Основная трудность в создании полноценного виртуального общества заключается в том, что текущие языковые модели лишены человеческих слабостей и иррациональности. ИИ мастерски владеет логикой, но зачастую не способен на «мотивированное суждение», когда выводы делаются на основе эмоций или личных предпочтений, а не только фактов. Кроме того, существующие модели склонны к сикофантии — стремлению поддакивать пользователю и зеркально отражать его ошибки, чтобы казаться полезными.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Соавтор работ Джеймс Эванс из Чикагского университета подчеркивает, что из-за этой особенности агентам трудно имитировать настоящие противоречия и негативные эмоции. Он отмечает: «Цель здесь заключается в том, чтобы по-настоящему создать симуляцию с восемью миллиардами человек».

Тем не менее, границы между мирами постепенно стираются. Ученые уже используют ИИ для предсказания политических взглядов, основываясь на данных прошлых лет, и отмечают, что люди все чаще ищут у ботов эмоциональную поддержку. Предстоящие годы станут временем, когда различие между социальным поведением человека и его программной имитацией может окончательно исчезнуть, открывая новые горизонты для социологии и управления общественными процессами.