Под статьей подписались десять авторов, в том числе профессора из таких солидных организаций, как Центр философии естественных и социальных наук (CPNSS) Лондонской школы экономики и политических наук и Центр разума, этики и политики Нью-Йоркского университета.
«Серьезно?» ИИ должен иметь права, аналогичные правам человека, считают ученые

То, что у искусственного разума вскоре появятся собственные интересы и моральная значимость, уже не тема для научной фантастики и не вопрос отдаленного будущего, считают эксперты. Это может произойти уже скоро, и компании, занимающиеся разработкой ИИ, и другие участники процесса обязаны начать относиться к нему серьезно.

3 шага к морали машин, имеющих сознание
Пока речь не идет о полном аналоге человеческих прав, таких как право на личное достоинство, имущество или свободу выражения взглядов. Авторы рекомендуют лишь следующее:
- признать, что благополучие ИИ – важный вопрос, и убедиться, что в сами языковые модели заложен этот тезис,
- начать следить за появлением признаков сознания и агентивности (независимости) у искусственного интеллекта,
- подготовиться к моменту, когда системы ИИ начнут сами проявлять заботу о собственной морали.
«Для ясности, наш аргумент в этом отчете не заключается в том, что системы ИИ определенно обладают или будут обладать сознанием, надежной агентностью или иными морально значимыми характеристиками, – оговариваются авторы, такие как Джонатан Берч из Лондонской школы экономики и политических наук. – Напротив, наше утверждение в том, что существует значительная неопределенность относительно этих возможностей».
Именно поэтому сейчас нужно понять, что такое «благополучие ИИ» и насколько мы и он способны принимать мудрые решения по этому вопросу, заключают они.

Что будет, если не заботиться о морали чатботов и другого ИИ
Может быть, ничего и не случится. Но есть также значительный риск, что мы по невежеству пропустим момент, когда появятся осознающие себя компьютерные системы. К чему это приведет, пока непонятно, поскольку человечество с этим раньше просто не сталкивалось.