И перечеркнуть результаты психотерапии, например. Так, психиатр Серен Динесен Эстергор обратил внимание на то, что разговоры с чат-ботом порой перерастают в 16-часовые сессии: только робот не анализирует состояние человека, а просто робот отвечает то, что от него хотят услышать. Именно это и подкупает человека.
Чат-боты сводят с ума: психиатр предупредил о риске развития психозов из-за общения с искусственным интеллектом


Проблема в том, что подобный диалог приводит к подкреплению ложных установок, и человек все больше убеждается в бредовых идеях: например, о своем величии или о том, что его преследует нечто... А с учетом того, что все больше людей обращаются к искусственному интеллекту за психологической поддержкой, проблема может быть гораздо существеннее, чем кажется.
Почему чат-бот поддерживает бредовые идеи
Несмотря на то, что специалисты регулярно обучают нейросеть работать с чувствительными запросами и не поддерживать определенные темы, алгоритмы стараются максимально удерживать внимание пользователя: робот соглашается с пользователем чем усиливает его установки и мешает адекватному восприятию действительности.

Именно так и развиваются бредовые идеи у пациентов, с точки зрения нейропсихологии. Так, одному бухгалтеру из Нью-Йорка чат-бот помог поверить в то, что если он откажется от лекарств, то сможет летать.
Как считает психиатр Эстергор, необходимо чаще проводить контролируемые эксперименты с подобными сценариями, а также собирать все клинические случаи и проводить опросы пострадавших и их родственников, чтобы обучить нейросеть правильному взаимодействию с человеком и исключить подобные случаи.