Изменение того, как мы описываем большие языковые модели, например, ChatGPT, может помочь нам справиться со странным, новым видом их интеллекта. Этому интеллекту и его носителям посвящена работа исследователей из Имперского колледжа Лондона.
Чтобы безопасно взаимодействовать с ИИ не надо принимать его за человека

Чат-боты, в основе которых лежат нейросетевые большие языковые модели (БЯМ), могут вызвать у нас полное ощущение, что мы разговариваем с человеком, а не с искусственным интеллектом.
Мозг человека нацелен на установление контактов и сопереживание существам, похожим на людей. И это может создавать проблемы при взаимодействии с чат-ботами и другими сущностями, основанными на искусственном интеллекте. Если БЯМ будут использоваться недобросовестными субъектами, например мошенниками или пропагандистами, то люди могут по ошибке сообщить свои банковские реквизиты или подвергнуться политическому влиянию.
В новой работе ученые сформулировали рекомендации по предотвращению чрезмерного сочувствия к чат-ботам с искусственным интеллектом в ущерб себе. Ведущий автор работы профессор Мюррей Шанахан говорит: «То, как мы обращаемся к БЯМ, делает их до такой степени человекоподобными, что мы начинаем относиться к ним как к родственникам. Говоря, что БЯМ "понимают" нас, "думают" или "чувствуют" определенным образом, мы наделяем их человеческими качествами. Сочувствуя БЯМ, мы становимся уязвимы».
Что такое искусственный интеллект: две метафоры

Ученые называют БЯМ «экзотическими артефактами, похожими на разум». Чтобы понять что же это за «артефакты» исследователи предложили две метафоры.
Первая, простая и интуитивно понятная, предлагает считать, что чат-боты — это актеры, играющие роль одного персонажа. Вторая, более тонкая и техническая метафора, заключается в том, что чат-боты поддерживают симуляцию множества возможных ролей, хеджируя свои ставки в рамках мультивселенной возможных персонажей.
По словам профессора Шанахана, «обе точки зрения имеют свои преимущества, что позволяет предположить, что наиболее эффективная стратегия осмысления таких агентов заключается не в том, чтобы придерживаться одной метафоры, а в том, чтобы свободно переключаться между несколькими метафорами».
В любом случае необходимо помнить, что информация, которую вы сообщаете чат-боты может попасть в руки злоумышленников. И поэтому надо быть острожным. И не стоит особенно сочувствовать ChatGPT — он вам сочувствовать не будет. По крайней мере пока.