«Серьезно?» ИИ должен иметь права, аналогичные правам человека, считают ученые

Возможно, уже в ближайшем будущем системы искусственного интеллекта обретут собственное сознание и независимость в решениях. А это значит, что у них появятся свои интересы и собственная мораль. И наша задача позаботиться... нет, не о том, чтобы эта мораль была высокой — для начала нужно просто не прошляпить этот момент, считает группа исследователей.
Рома Назаров
Рома Назаров
«Серьезно?» ИИ должен иметь права, аналогичные правам человека, считают ученые
Mojahid Mottakin — Pexels
Оригинальный отчет, названный «Нужно серьезно отнестись к благополучию ИИ» (Taking AI Welfare Seriously), можно прочитать на порталах научных публикаций, таких как Arxiv.org.

Под статьей подписались десять авторов, в том числе профессора из таких солидных организаций, как Центр философии естественных и социальных наук (CPNSS) Лондонской школы экономики и политических наук и Центр разума, этики и политики Нью-Йоркского университета.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

То, что у искусственного разума вскоре появятся собственные интересы и моральная значимость, уже не тема для научной фантастики и не вопрос отдаленного будущего, считают эксперты. Это может произойти уже скоро, и компании, занимающиеся разработкой ИИ, и другие участники процесса обязаны начать относиться к нему серьезно.

human brain as printed circuit board
JPxG - DALL-E 3
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

3 шага к морали машин, имеющих сознание

Пока речь не идет о полном аналоге человеческих прав, таких как право на личное достоинство, имущество или свободу выражения взглядов. Авторы рекомендуют лишь следующее:

  1. признать, что благополучие ИИ – важный вопрос, и убедиться, что в сами языковые модели заложен этот тезис,
  2. начать следить за появлением признаков сознания и агентивности (независимости) у искусственного интеллекта,
  3. подготовиться к моменту, когда системы ИИ начнут сами проявлять заботу о собственной морали.

«Для ясности, наш аргумент в этом отчете не заключается в том, что системы ИИ определенно обладают или будут обладать сознанием, надежной агентностью или иными морально значимыми характеристиками, – оговариваются авторы, такие как Джонатан Берч из Лондонской школы экономики и политических наук. – Напротив, наше утверждение в том, что существует значительная неопределенность относительно этих возможностей».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Именно поэтому сейчас нужно понять, что такое «благополучие ИИ» и насколько мы и он способны принимать мудрые решения по этому вопросу, заключают они.

thinking robot, blackboard math formulae
vpnsrus.com

Что будет, если не заботиться о морали чатботов и другого ИИ

Может быть, ничего и не случится. Но есть также значительный риск, что мы по невежеству пропустим момент, когда появятся осознающие себя компьютерные системы. К чему это приведет, пока непонятно, поскольку человечество с этим раньше просто не сталкивалось.