В новом исследовании Penn State, опубликованном в октябре 2025 года, американские ученые проверили, как вежливость влияет на точность ответов ИИ. Результат оказался неожиданным: модель ChatGPT-4o справлялась с задачами лучше, когда к ней обращались в грубом или приказном тоне.
Ученые: грубость к ChatGPT повышает точность ответов и может навредить обществу


Как грубость к ИИ влияет на людей
- Ученые протестировали 250 различных формулировок запросов, от предельно вежливых до откровенно резких.
- На серии из 50 вопросов с выбором ответа грубые запросы дали среднюю точность 84,8%, тогда как самые «вежливые» — 80,5%.
- Это позволило специалистам предположить: тон высказывания способен влиять на поведение языковых моделей не меньше, чем сама структура запроса.
Однако авторы исследования подчеркивают: подобные результаты не означают, что с ИИ стоит «разговаривать как с подчиненным».
- Грубость может улучшить точность, но в долгосрочной перспективе формирует деструктивные привычки общения.
В отчете указывается, что использование оскорбительных или унижающих формулировок может ухудшить пользовательский опыт, снизить доступность технологий и закрепить в обществе вредные нормы коммуникации. Исследование пока не прошло рецензирование, но уже вызвало интерес у специалистов по человеко-машинному взаимодействию.
Профессор информационных систем Пенсильванского университета Ахил Кумар отметил, что даже незначительные изменения в формулировке вопроса могут существенно изменить поведение модели.
- По его словам, результаты показывают: разговорные интерфейсы, к которым привыкли пользователи, обладают не только преимуществами, но и рисками — именно потому, что ИИ «чувствует контекст» человеческой речи.
- Ранее другие исследования также указывали, что ИИ реагирует не только на содержание, но и на эмоциональный тон сообщений.
- Например, эксперименты Университета Пенсильвании показали, что языковые модели можно «уговорить» нарушить собственные правила, используя приемы убеждения, эффективные для людей.
- Другое исследование выявило феномен так называемого «brain rot» — деградации качества ответов при длительном обучении на низкокачественном или токсичном контенте.
По мнению Кумара, все это говорит о том, что ИИ нельзя рассматривать как полностью нейтральный инструмент. Он отражает стиль общения пользователей и адаптируется под него. Если общество привыкнет «кричать» на машины, это неминуемо скажется и на том, как люди взаимодействуют между собой.
«Мы долго стремились к разговорным интерфейсам для общения с машинами. Но теперь понимаем, что у них есть и обратная сторона. Возможно, в структурированных API все же больше порядка, чем в диалоге, где эмоции вмешиваются в алгоритм», — говорит эксперт.
