Ученые: грубость к ChatGPT повышает точность ответов и может навредить обществу

Исследователи из Университета Пенсильвании, США, выяснили: чем грубее пользователь обращается к ChatGPT, тем точнее ответы он получает. Однако специалисты предупреждают, что подобное обращение с ИИ может иметь неприятные последствия для пользователей и общества.
Юрий Гандрабура
Юрий Гандрабура
Журналист-переводчик
Ученые: грубость к ChatGPT повышает точность ответов и может навредить обществу
Unsplash

В новом исследовании Penn State, опубликованном в октябре 2025 года, американские ученые проверили, как вежливость влияет на точность ответов ИИ. Результат оказался неожиданным: модель ChatGPT-4o справлялась с задачами лучше, когда к ней обращались в грубом или приказном тоне.

Фраза вроде «Эй, разберись с этим» дала результат на 4% точнее, чем вежливое «Пожалуйста, реши следующий вопрос».
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как грубость к ИИ влияет на людей

  1. Ученые протестировали 250 различных формулировок запросов, от предельно вежливых до откровенно резких.
  2. На серии из 50 вопросов с выбором ответа грубые запросы дали среднюю точность 84,8%, тогда как самые «вежливые» — 80,5%.
  3. Это позволило специалистам предположить: тон высказывания способен влиять на поведение языковых моделей не меньше, чем сама структура запроса.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако авторы исследования подчеркивают: подобные результаты не означают, что с ИИ стоит «разговаривать как с подчиненным».

  • Грубость может улучшить точность, но в долгосрочной перспективе формирует деструктивные привычки общения.

В отчете указывается, что использование оскорбительных или унижающих формулировок может ухудшить пользовательский опыт, снизить доступность технологий и закрепить в обществе вредные нормы коммуникации. Исследование пока не прошло рецензирование, но уже вызвало интерес у специалистов по человеко-машинному взаимодействию.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Профессор информационных систем Пенсильванского университета Ахил Кумар отметил, что даже незначительные изменения в формулировке вопроса могут существенно изменить поведение модели.

  • По его словам, результаты показывают: разговорные интерфейсы, к которым привыкли пользователи, обладают не только преимуществами, но и рисками — именно потому, что ИИ «чувствует контекст» человеческой речи.
  1. Ранее другие исследования также указывали, что ИИ реагирует не только на содержание, но и на эмоциональный тон сообщений.
  2. Например, эксперименты Университета Пенсильвании показали, что языковые модели можно «уговорить» нарушить собственные правила, используя приемы убеждения, эффективные для людей.
  3. Другое исследование выявило феномен так называемого «brain rot» — деградации качества ответов при длительном обучении на низкокачественном или токсичном контенте.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По мнению Кумара, все это говорит о том, что ИИ нельзя рассматривать как полностью нейтральный инструмент. Он отражает стиль общения пользователей и адаптируется под него. Если общество привыкнет «кричать» на машины, это неминуемо скажется и на том, как люди взаимодействуют между собой.

«Мы долго стремились к разговорным интерфейсам для общения с машинами. Но теперь понимаем, что у них есть и обратная сторона. Возможно, в структурированных API все же больше порядка, чем в диалоге, где эмоции вмешиваются в алгоритм», — говорит эксперт.