У ChatGPT есть политические предпочтения! Узнайте, кого поддерживает ИИ в США и Британии

Тщательный метод исследователей выявил «значительный и систематический левый уклон» у знаменитого чат-бота.
Юрий Гандрабура
Юрий Гандрабура
Журналист-переводчик
У ChatGPT есть политические предпочтения! Узнайте, кого поддерживает ИИ в США и Британии
Unsplash

Многие пользователи искусственного интеллекта (ИИ) ChatGPT подозревали, что знаменитый чат-бот имеет политически левый уклон. Теперь же тщательное научное исследование подтверждает подозрения, показывая, что у ИИ есть «значительная и систематическая» тенденция «выдавать левые ответы, которые благоприятствуют Лейбористской партии в Великобритании, а также демократам в США и бразильскому президенту Луле да Силве из Рабочей партии».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash

Политика и искусственный интеллект

Новое исследование провели эксперты Университета Восточной Англии (UEA). «С растущим использованием общественностью систем на базе ИИ для выяснения фактов и создания нового контента важно, чтобы выходные данные популярных платформ, таких как ChatGPT, были как можно более беспристрастными», — говорит ведущий автор новой статьи доктор Фабио Мотоки из UEA. «Наличие политической предвзятости может повлиять на взгляды пользователей и иметь потенциальные последствия для политических и избирательных процессов».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  • ChatGPT был создан компанией OpenAI из Сан-Франциско с использованием больших языковых моделей (LLM) — алгоритмов глубокого обучения, которые могут распознавать и генерировать текст на основе знаний, полученных из массивных наборов данных.
  • Одна из проблем заключается в том, что текст, генерируемый ChatGPT, «может содержать фактические ошибки и предубеждения, которые вводят пользователей в заблуждение», — говорят исследователи.
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
  • «Проблема в том, является ли текст, сгенерированный ИИ, политически нейтральным источником информации», — риторически вопрошают западные специалисты.
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Политические предпочтения ChatGPT

Хотя исследовательский проект не ставил перед собой задачу определить причины политической предвзятости, результаты анализа указывали на два потенциальных источника. Первым был набор обучающих данных, где могут быть добавленные разработчиками-людьми предрассудки. Хорошо известно, что ChatGPT обучался на больших наборах текстовых данных, таких как статьи и веб-страницы, поэтому мог появиться дисбаланс данных в левую политическую сторону.

Вторым потенциальным источником был сам алгоритм, который может усиливать существующие погрешности в обучающих данных. «Эти модели обучаются на основе достижения какой-то цели», — объясняют эксперты. «Подумайте об обучении собаки находить потерявшихся в лесу людей — каждый раз, когда она находит человека и правильно указывает, где он находится, она получает награду. Во многих отношениях эти модели "вознаграждаются" через какой-то механизм, вроде собак — это просто более сложный механизм».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Поскольку ChatGPT используется очень многими людьми и в разных странах, политические предпочтения чат-бота могут иметь большое значение в преддверии любого политического общественного голосования. «Наши результаты усиливают опасения, что системы ИИ могут воспроизводить или даже усиливать существующие проблемы, связанные с Интернетом и социальными сетями. То, что подчеркивает текущее исследование, — это необходимость быть прозрачными в отношении данных, используемых при обучении LLM, и иметь тесты для различных видов предубеждений в обученной модели ИИ», — заключили западные специалисты.