Чем больше робот пытается быть «человеком», тем меньше его слушают: неожиданные результаты экспериментов

Далеко не все понимают по-хорошему. Это показали эксперименты с людьми и искусственным интеллектом. Выяснилось, что чем больше робот пытается быть «человеком» и понравиться пользователю, тем меньше шансов на то, что человек его послушает.
Татьяна Афонина
Татьяна Афонина
Редактор Techinsider.ru
Чем больше робот пытается быть «человеком», тем меньше его слушают: неожиданные результаты экспериментов
Freepik
А вот если пользователь получает «машинный» ответ, то вероятнее всего, он к нему прислушается.

Так что чем дружелюбнее голосовой помощник, тем для человека хуже. Да, людям нравится более мягкий и человечный стиль общения, вот только примут к сведению они ту информацию, что прозвучит от робота.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но одно дело – когда пользователь просто разговаривает с Алисой, и совсем другое – когда речь заходит о безопасности. Например, роботы-поводыри должны звучать так, чтобы человек их безоговорочно слушался.

Что показали эксперименты

Эти выводы были подтверждены экспериментально. Так, участники для начала отвечали на вопросы, затем слушали ответ нейросети и либо меняли свое мнение, либо нет. Психологи ожидали, что люди прислушаются к тому ИИ, кто будет для них симпатичен, однако все оказалось с точностью до наоборот. Люди охотнее соглашались с роботом.

рукопожатие человека и робота
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

То же самое произошло, когда добровольцам предложили ответить на вопросы морального плана, по типу того, что делать, если официант в ресторане ошибся со счетом и не учел некоторые позиции. И вновь роботизированный голос оказался для людей авторитетнее при принятии решения.

Вполне вероятно, это обусловлено большим доверием к автоматизированной системе: человек считает ее более объективной и беспристрастной.

люди и программы
Freepik
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но наиболее тревожными оказались результаты самого важного эксперимента – симуляции с беспилотным автомобилем. Добровольцы периодически отказывались слушать ИИ, но тот агент, что был более человечным с участниками, значительно чаще оказывался в проигрыше. А это уже угроза безопасности.

Эксперты рекомендуют разработчикам пересмотреть характер общения ИИ с человеком и не делать ставку на симпатию: основная задача систем с искусственным интеллектом – приносить пользу, обеспечивать точность и безопасность.