Бот расист, хам и сексист: чего еще ждать от искусственного интеллекта

Что нового в искусственном интеллекте? Ответы на этот и многие другие вопросы ищут прежде всего на международных мероприятиях, где встречаются лучшие представители сферы. Там они обсуждают перспективы и актуальные вопросы своей отрасли. Что касается разработчиков виртуальных ассистентов, чат-ботов и прочих помощников, главным событием для них является ежегодный саммит Chatbot & Voice Summit. Последний, 7-й по счету саммит прошел в мае 2020 года в Лас-Вегасе.
Бот расист, хам и сексист: чего еще ждать от искусственного интеллекта

Скоро у каждого из нас будет по 5-10 ботов

По последним исследованиям, 80% компаний хотели бы автоматизировать свои коммуникации. Поэтому, какая бы задача ни стояла – от развития компетенций персонала до поиска идей для тимбилдинга – чаще всего в компаниях задумываются над вопросом, как можно автоматизировать и упростить процесс. И часто находят для себя полезным искусственный интеллект.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сегодня использование ботов уже никого не удивляет. Регистрируясь на семинар или заказывая корпоративное мероприятие, в большинстве случаев вы общаетесь сначала с ботом, и только потом уже с человеком. Занимаясь обучением персонала, вы, скорее всего, встречались с ботами: использовали их для организации сессий и консультаций. Это и чат-боты, которые общаются письменно, и голосовые ассистенты, готовые ответить на все вопросы.

Эксперты считают, что до 2025 года каждый из нас обзаведется десятком разных ботов-помощников, призванных улучшать различные сферы нашей жизни. К этому времени они будут привычными, более рентабельными и простыми в применении.

Коммуникации в бизнесе играют все большую роль, при этом клиенты привыкают к обслуживанию в режиме 24/7. Если учесть стремление каждого владельца бизнеса к оптимизации затрат – все сводится к тому, что в своей работе нужно использовать электронных помощников. Иначе с конкуренцией справиться будет крайне трудно.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
ChatbotSummit
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как мы будем просыпаться через 20 лет?

Google и Microsoft озвучили свои прогнозы о том, как будет выглядеть утро обычного человека через 20 лет. Это будет мир, в котором нашим расписанием на день займутся личные цифровые ассистенты. Они будут готовить расписание, пока мы спим, а во время утреннего завтрака – сообщать нам о том, как следует провести день, какой будет погода, какие важные события произошли в мире.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Искусственный интеллект будет заботливым и деликатным, с каждым днем помогая нам становиться лучшей версией себя. Он возьмет на себя повседневную рутину, которая еще совсем недавно занимала наше время и съедала энергию. Вы сможете сосредоточиться на творческих и важных вещах, а также заняться тем, что нравится.

Специалист по разработке чат-ботов Google Уолли Брилл констатирует: «Людям хочется, чтобы чат-боты были больше похожими на них».

Помните фильм «Она»? Голосовой ассистент Саманта – ориентир для разработчиков ботов, однако текущим версиям еще до подобного уровня далеко. А значит, есть над чем работать. Как знать, возможно, через какое-то время корпоративные тренинги будут проводить боты, или, может, тренинги будут проводиться для ботов?

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Разработчики ассистентов видят задачу вполне реальной, к тому же задумываются, как создать помощников, которые не только освободят руки человеку, но и смогут стать для него полноценными собеседниками – с обаянием и чувством юмора. А еще подходящим для своего «хозяина» уровнем интеллекта: роботы для HIPO, подростков или роботы, помогающие человеку управлять карьерой. Важная тенденция, которую хотелось бы отметить, анализируя тренды в разработке виртуальных ассистентов, – это стремление не избавиться от человека, а помочь ему получить больше комфорта.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Мы хотим сотрудничать

Разработчики виртуальных ассистентов придерживаются принципа сотрудничества: хотят, чтобы разговоры с ассистентами были открытыми, честными, информативными и понятными. Для того, чтобы общение было конструктивным, разработчики уделяют большое значение тому, когда наступает очередь говорить помощнику, а когда нам. Коммуникации должны соответствовать ситуации, поэтому контексту также уделяется большое значение.

В своей книге «Wired For Speech» исследователи из Стэнфорда Клиффорд Насс и Скотт Брэйв сообщают, что пользователи в определенной степени относятся к голосовым интерфейсам так, как к другим людям. Сначала люди научились говорить, и только потом писать. Поэтому, когда человек слышит голос, он относится к нему как к голосу какой-нибудь личности. Это происходит неосознанно.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Человеку свойственно создавать образ, слушая голос: возраст, пол и характер определяют намерения «говорящего». Виртуального ассистента люди называют «она» или «он», когда рассказывают кому-то об опыте общения с ботом.

Чат-боты созданы для решения определенных задач. По статистике, 54% людей предпочтут решать свои конкретные задачи с роботом, а не с человеком. Они считают, что это сэкономит их время. Однако после того, как общение с машиной уже состоялось, 6 из 10 остаются недовольны механичностью процесса.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Человек хочет, чтобы бот был похож на него

Человеку важно ощущение того, что чат-бот подобен ему. Такие выводы сделал Ульрих Гневух, исследователь Технологического института Карлсруэ в Германии. Он несколько последних лет изучал опыт взаимодействия людей и виртуальных помощников.

Чтобы цифровые помощники воспринимались «своими», необходимо интегрировать в их речь антропоморфные (человекоподобные) сигналы. Нервная система выделяет в речи речевые сигналы и кодирует их, «различая» таким образом в них те или иные эмоции. Если таких сигналов нет, человек не воспринимает робота как своего помощника. Здесь можно задуматься: чего не хватает боту, чтобы быть «человеком»?

Кроме того, мы хотим, чтобы нам помогал человек компетентный. Первое, что выясняется при изучении этого вопроса – слишком быстрые ответы. Человек чаще всего сначала задумается, прежде чем ответить. Исследования показали, что в данном случае быстрее – не значит лучше. Если чат-боты начнут отвечать не молниеносно, человеку будет комфортнее с ними общаться. Важно обеспечить пользователя ощущением реальности диалога.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Примеры неудач с чат-ботами

Неудачи случаются с чем угодно, в том числе и с чат-ботами. Рассмотрим самые яркие провалы. О них на саммите рассказал профессор по кибер-исследованиям Тель-Авивского университета Нимрод Козловский.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Стандарта по разработке чат-ботов до сих пор нет, индустрия довольно фрагментирована, поэтому каждая разработка – ноу-хау компании-разработчика. Рано или поздно начнется разговор об этике и законе, но пока что эта сфера мало регулируется. Время от времени возникают казусные случаи, показывающие на что способны боты, общаясь с живыми людьми.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Бот, который расстроил Тэйлор Свифт

В 2016 году в Microsoft появился виртуальный подросток Тэй, который позиционировался как «свой парень». Он отлично учился у каждого, с кем общался (прямо как в фильме «НЕ идеальный мужчина»). Иногда Тэй выбирал не лучшие образы для подражания: грешил подстрекательством, проявлениями геноцида и расизма. Просуществовал этот бот недолго – всего 16 часов. Но слава о нем разошлась быстро. Тэйлор Свифт собралась даже подать на Microsoft в суд за то, что компания назвала неприятного бота ее именем.

Дальше слов дело не пошло, но это яркий пример: по мере персонализации бота к нему начинают относиться как к человеку, и поведение простого чат-бота может иметь непростые юридические последствия.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
VB The Machine

Бот-сексист

В Amazon решили автоматизировать подбор персонала. В 2014 году было создано программное обеспечение для анализа резюме. Целью автоматизации стал поиск топ-талантов.

Со временем в компании поняли, что при автоматическом отборе на технические должности женщины отсеивались. Это стало ясно только через год. Оказалось, система, анализируя резюме за последние 10 лет, «запомнила», что большинство заявок поступало именно от мужчин, и сделала вывод, что мужчины для компании предпочтительнее. Кроме этого недостатка был обнаружен и ряд других, так что проект был закрыт.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Боты «легкого поведения»

Есть еще история о группе ботов, которые зарабатывали флиртом. В 2002 году в Канаде была создана социальная сеть для семейных людей Ashley Madison под слоганом: «Жизнь коротка. Заведите роман».

В 2015 году группа хакеров взломала сервис и выложила в сеть данные 37 миллионов пользователей сети, истории их поиска и транзакции по кредитным картам. Тогда же всплыла интересная деталь. Во-первых, была опровергнута статистика соцсети о том, что якобы мужчин и женщин, желающих завести роман «на стороне», поровну. Оказалось, что это не так. В сети действительно мужских и женских аккаунтов было поровну, однако в качестве женских большинство были ботами. Мужчин в соцсети оказалось не менее 70%. Во-вторых, система зарабатывала на мужчинах. Сервис работал по продуманной схеме: женщины-боты вели себя фривольно и «раскручивали» мужчин на плату за доступ, а те, в свою очередь, ни о чем не подозревая делились с ботами своими фантазиями.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Эта история подтверждает, что боты могут быть очень похожими на людей. Важно, чтобы пользователям было так же комфортно с чат-ботами, как с другими людьми, но человек хотел бы понимать, с кем общается. Это уже вопрос этики.

INDEPENDENT

Материал подготовлен совместно с компанией ManGO! Games