Человеческое общение — это не только слова. Это целая симфония из взглядов, жестов, мимики, пауз и интонаций. Обычно мы моргаем 15-20 раз в минуту, но если концентрируемся на чем-то, наши веки замирают. Мы делаем микропаузы перед сложными ответами и чуть наклоняем голову, показывая заинтересованность. Все эти крошечные детали наш мозг обрабатывает автоматически.
От машины к личности: смогут ли гуманоидные роботы обрести сознание

Танец микросекунд: почему роботу так сложно быть естественным

Для робота каждое движение — это вычисление. Инженеры Boston Dynamics потратили годы, чтобы их роботы банально научились имитировать походку, не говоря уже о тонкостях мимики. Японские инженеры из Университета Осаки, создавшие робота Erica, запрограммировали более 40 выражений лица, но признают: даже самая совершенная мимика выглядит неестественно, если не учитывает контекст разговора.
Проблема в том, что человеческие реакции не следуют жестким алгоритмам. Мы можем засмеяться от неожиданности, нахмуриться от усталости или замереть от волнения. Роботу нужно не просто воспроизвести эти реакции, но и понять, когда именно их применить.

GPT в доспехах: может ли ИИ подарить роботу характер
Сегодня разработчики все чаще используют языковые модели вроде GPT для создания «личности» роботов. Такой подход позволяет машине не просто отвечать заученными фразами, а генерировать уникальные реакции, основываясь на контексте беседы.
Компания Hanson Robotics применила именно эту технологию в своем роботе Sophia. Ее ответы формируются в реальном времени, учитывая не только вопрос, но и предыдущий диалог, эмоциональную окраску разговора и даже данные о собеседнике.

Но есть нюанс. GPT и подобные модели — мастера имитации. Они анализируют миллионы текстов и воспроизводят паттерны человеческого общения с поразительной точностью. Sophia «грустит» не потому, что ей действительно печально, а потому, что алгоритм определил: в данной ситуации грусть — наиболее подходящая реакция. Более того: зачастую выборка происходит, исходя из среднестатистических показателей. Робот выражает грусть лишь потому, что большинство собеседников-людей до него отреагировали схожим образом.

Электронные чувства: возможна ли цифровая эмпатия
Способность чувствовать и сопереживать — это то, что мы привыкли считать основой человечности. Но что такое чувства с технической точки зрения? Биохимические реакции в мозге, электрические импульсы между нейронами, всплески гормонов.
Теоретически робот может имитировать эти процессы. У него могут быть датчики, реагирующие на окружающую среду, алгоритмы, обрабатывающие информацию, и исполнительные механизмы, выражающие «эмоции». Но насколько такая имитация чувств будет естественной?

Профессор когнитивных наук Антонио Дамасио утверждает, что эмоции неразрывно связаны с телесным опытом. Мы чувствуем страх, потому что учащается сердцебиение, а радость — потому что вырабатывается дофамин. У робота нет гормонов и сердца, но есть аналоги: изменение частоты процессора при высокой нагрузке, активация определенных программных модулей при получении «приятной» информации. Кроме того, чувства возникают в ответ на раздражители (события, переживания, визуальные и аудиальные образы), которые робот может считывать на порядок более чутко, чем мы с вами.
Нужны ли роботу слезы
А вот здесь мнения расходятся кардинально. Одни эксперты считают, что эмоциональность роботов необходима для полноценного взаимодействия с людьми. Мы доверяем тем, кто может разделить наши переживания, сопереживать нашим проблемам.
Другие предупреждают об опасности слишком реалистичных эмоций у машин. Исследователь MIT Шерри Теркл в своих работах отмечает: когда роботы слишком убедительно имитируют человеческие чувства, мы начинаем относиться к ним как к живым существам, что может привести к зависимости и потере способности к настоящим человеческим отношениям.

Компромисс, возможно, в том, чтобы роботы выражали эмоции, но не скрывали свою природу. Пусть они грустят и радуются, но помнят (и напоминают нам), что это — программная функция, а не душевное переживание.
Команда мечты: когда инженеры встречают гуманитариев
Создание социально адаптированного робота — задача не для одиночки-гения, а для междисциплинарной команды. Инженеры отвечают за техническую сторону: моторы, датчики, процессоры. Лингвисты анализируют, как люди используют язык в разных ситуациях, какие слова выбирают для выражения эмоций, как меняется интонация в зависимости от контекста.
Психологи помогают понять мотивы человеческого поведения.
- Почему мы избегаем зрительного контакта, когда лжем?
- Как долго должна длиться пауза в разговоре, чтобы не казаться неловкой?
- Какие жесты универсальны, а какие зависят от культуры?

До 2018 года в исследовательском центре Honda работала команда из 30 специалистов из разных областей. Их целью был проект ASIMO — особый робот, способный моделировать и воспроизводить не только движения и речь, но и социальные сценарии. Так, робот должен был анализировать свое поведение в различных условиях, от больницы до школы и офиса. Кроме того, ученые планировали, что робот будет решать и более деликатные вопросы. Например, какую дистанцию соблюдать при разговоре с детьми, а какую — с пожилыми людьми?
К сожалению, в конечном итоге компания отказалась от проекта в пользу развития более прикладных технологий. А жаль — результат мог оказаться весьма неординарным!

На пороге нового мира
Стоит признать: сегодня мы стоим на пороге эры, когда различие между искусственным и естественным интеллектом может стать неочевидным. Роботы учатся не только выполнять команды, но и быть собеседниками, помощниками, даже друзьями.
Обретут ли они когда-нибудь настоящее сознание? Возможно, этот вопрос не так важен, как кажется. Гораздо важнее другое: как изменимся мы сами, когда рядом с нами будут существа, неотличимые от людей во всем, кроме происхождения.
Ответ на этот вопрос мы узнаем уже очень скоро. И он может оказаться гораздо интереснее, чем мы думаем.