Чтобы безопасно взаимодействовать с ИИ не надо принимать его за человека

Изменение того, как мы описываем большие языковые модели, например, ChatGPT, может помочь нам справиться со странным, новым видом их интеллекта. Этому интеллекту посвящена работа исследователей из Имперского колледжа Лондона. Главный вывод, к которому пришли ученые: не надо думать об ИИ, как о человеке, и проникаться к нему сочувствием: в ChatGPT не больше человеческого, чем с поисковике Google.
Владимир Губайловский
Владимир Губайловский
Чтобы безопасно взаимодействовать с ИИ не надо принимать его за человека
Unsplash
Чат-боты настолько похожи на людей, что мы начинаем им сочувствовать и даже доверять им. А вот этого лучше не делать.

Изменение того, как мы описываем большие языковые модели, например, ChatGPT, может помочь нам справиться со странным, новым видом их интеллекта. Этому интеллекту и его носителям посвящена работа исследователей из Имперского колледжа Лондона.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Чат-боты, в основе которых лежат нейросетевые большие языковые модели (БЯМ), могут вызвать у нас полное ощущение, что мы разговариваем с человеком, а не с искусственным интеллектом.

Мозг человека нацелен на установление контактов и сопереживание существам, похожим на людей. И это может создавать проблемы при взаимодействии с чат-ботами и другими сущностями, основанными на искусственном интеллекте. Если БЯМ будут использоваться недобросовестными субъектами, например мошенниками или пропагандистами, то люди могут по ошибке сообщить свои банковские реквизиты или подвергнуться политическому влиянию.

В новой работе ученые сформулировали рекомендации по предотвращению чрезмерного сочувствия к чат-ботам с искусственным интеллектом в ущерб себе. Ведущий автор работы профессор Мюррей Шанахан говорит: «То, как мы обращаемся к БЯМ, делает их до такой степени человекоподобными, что мы начинаем относиться к ним как к родственникам. Говоря, что БЯМ "понимают" нас, "думают" или "чувствуют" определенным образом, мы наделяем их человеческими качествами. Сочувствуя БЯМ, мы становимся уязвимы».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что такое искусственный интеллект: две метафоры

Unsplash

Ученые называют БЯМ «экзотическими артефактами, похожими на разум». Чтобы понять что же это за «артефакты» исследователи предложили две метафоры.

Первая, простая и интуитивно понятная, предлагает считать, что чат-боты — это актеры, играющие роль одного персонажа. Вторая, более тонкая и техническая метафора, заключается в том, что чат-боты поддерживают симуляцию множества возможных ролей, хеджируя свои ставки в рамках мультивселенной возможных персонажей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По словам профессора Шанахана, «обе точки зрения имеют свои преимущества, что позволяет предположить, что наиболее эффективная стратегия осмысления таких агентов заключается не в том, чтобы придерживаться одной метафоры, а в том, чтобы свободно переключаться между несколькими метафорами».

В любом случае необходимо помнить, что информация, которую вы сообщаете чат-боты может попасть в руки злоумышленников. И поэтому надо быть острожным. И не стоит особенно сочувствовать ChatGPT — он вам сочувствовать не будет. По крайней мере пока.