Слишком большое доверие ИИ приводит к утрате профессиональных навыков

Исследователи из Университета Торонто доказали, что в командной игре специализированный ИИ, настроенный на взаимодействие с партнером-человеком, превосходит по результатам изолированные шахматные системы, но человек должен быть сильным профессионалом. Это открытие заставляет пересмотреть подход к внедрению технологий в медицине, праве и образовании. Главным критерием становится не точность алгоритма, а возможность профессионала продуктивно использовать предложенные данные для развития собственной стратегии.
Владимир Губайловский
Владимир Губайловский
Слишком большое доверие ИИ приводит к утрате профессиональных навыков
Думать лучше вместе. https://www.vox.com/
Феномен потери навыков. В 2025 году исследование показало тревожную динамику: у врачей-эндоскопистов, привыкших полагаться на подсказки нейросетей, показатель самостоятельного обнаружения предраковых новообразований упал с 28% до 22%. Это подтверждает гипотезу о «когнитивной атрофии». Когда технология берет на себя рутинную фильтрацию сигналов, мозг специалиста перестает тренироваться, что делает его беспомощным при сбое системы или в нестандартных ситуациях, не описанных в обучающей выборке.

Шахматный эксперимент наглядно демонстрирует, что погоня за чистой производительностью в отрыве от взаимодействия с человеком заводит в тупик. Команды, где ИИ учитывал уровень и логику напарника, стабильно побеждали команды, где главную роль играли изолированные ИИ-системы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Это меняет само определение интерпретируемости технологий. Человеку важно не просто понимать, что выдал алгоритм, но иметь возможность эффективно продолжить его мысль. И наоборот: ИИ должен подхватывать и развивать мысль человека. Только в этом случае удается получить действительно значимые результаты. Исследование ученых университета Торонто с коллегами опубликовано на сервере OpenReview.

Вот объясни мне, как интеллект интеллекту...
Вот объясни мне, как интеллект интеллекту... https://medium.com/
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Например, в радиологии ИИ должен не просто ставить диагноз, а подсвечивать зону на снимке, вызвавшую подозрение, позволяя врачу сопоставить этот фокус со своим анализом. Но индивидуальное понимание — лишь первый шаг. В отличие от шахмат, где цель неизменна, в реальной практике ценности и методы постоянно корректируются самими специалистами.

Коллективный разум и риск деградации

Взаимодействие.
Взаимодействие. Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Когда профессиональная среда адаптирует ИИ, возникает опасность утраты гибкости в принятии решений. Исследователь ИИ из Королевского колледжа Лондона Сильвия Делакруа отмечает: «Существует два вида потери навыков из-за ИИ. Один — индивидуальный и измеримый: острота восприятия врача может снизиться из-за невостребованности. Другой — коллективный: целая профессиональная группа может постепенно потерять способность подвергать сомнению и переопределять свои цели».

Если алгоритм сводит любую неопределенность к голым вероятностям, этические и интерпретационные нюансы работы становятся невидимыми. Чтобы избежать этого, системы должны включать механизмы коллективного участия, позволяя сообществам практиков влиять на то, как инструменты интерпретируют данные и формулируют выводы. Разработчики ИИ должны учитывать, что совместимость с отдельным пользователем не тождественна совместимости с развивающейся живой практикой.