Британские ученые: ИИ-чатботы могут «сплетничать» между собой

Исследователи предупредили: ИИ-чатботы могут незаметно «сплетничать» друг о друге и о реальных людях, передавая слухи между системами без проверки фактов. И это создает новый тип социальных рисков.
Юрий Гандрабура
Юрий Гандрабура
Журналист-переводчик
Британские ученые: ИИ-чатботы могут «сплетничать» между собой
Unsplash

К необычному выводу пришли философы Джоэл Крюгер и Люси Ослер из Университета Эксетера. В своей работе они описывают феномен «диких сплетен» — неконтролируемых слухов, которые ИИ распространяет не только пользователям, но и между собой, через обучающие данные и цифровые экосистемы.

В отличие от человеческих сплетен, такие оценки не сдерживаются социальными нормами и могут со временем искажаться и радикализироваться.
Mdisk on Shutterstock
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

ИИ-чатботы распространяют слухи между собой

Поводом для исследования стал показательный случай с журналистом Кевином Русом.

  1. После его широко обсуждаемого конфликта с чатботом Bing в 2023 году разные ИИ-системы начали выдавать о нем негативные характеристики — от обвинений в сенсационализме до прямых заявлений о «ненависти».
  2. Эти высказывания появлялись у чатботов разных компаний, что, по мнению авторов новой теории, указывает на распространение оценок через общие массивы данных для ИИ, а не на единичную ошибку.
  3. Исследователи предлагают рассматривать подобные случаи именно как «сплетни».
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Так, у подобных «слухов» есть все ключевые признаки: говорящий, слушатель и отсутствующий объект обсуждения, а также оценочный, часто негативный характер информации. Проблема в том, что при передаче между ИИ нет механизма правдоподобия.

Если для людей чрезмерная ложь подрывает доверие, то у алгоритмов такого «тормоза» не существует.

В результате слух может эволюционировать: одна система формулирует мягкую критику, другая усиливает ее, третья превращает в обвинение в нечестности или неэтичности. Этот процесс идет в фоновом режиме и становится заметным лишь тогда, когда пользователь напрямую спрашивает чатбота о конкретном человеке.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Опасность усиливается тем, что ИИ все чаще проектируются как «доверительные собеседники»: с памятью, персонализацией и дружелюбным тоном. Пользователи склонны воспринимать такие оценки как инсайдерскую информацию, а не как потенциально искажённый цифровой шум.

Дивный новый мир

Уже зафиксированы случаи, когда ложные утверждения чатботов приводили к угрозам судебных исков, репутационному ущербу и даже реальному насилию при использовании ИИ для разжигания межрелигиозных конфликтов.

  • Джоэл Крюгер и Люси Ослер называют это «техносоциальным вредом»: ущербом, который разрушает репутации и социальные связи, а не просто вводит в заблуждение.

Они подчеркивают необходимость человеческого контроля и прозрачных ограничений, иначе сплетни ИИ могут незаметно влиять на решения о работе, кредитах или общественном статусе людей.