Ученые: управлять сверхразумным ИИ будет невозможно

Насколько вероятно, что мы сможем управлять компьютерным сверхразумом высокого уровня? Ученые еще в 2021 году подсчитали наши шансы. Ответ? Почти наверняка сдержать искусственный интеллект мы не сможем.
Ученые: управлять сверхразумным ИИ будет невозможно
к/ф «2001: Космическая одиссея»
Опасения по поводу ИИ не безосновательны — нейросети действительно могут выйти из-под контроля.

Об идее искусственного интеллекта, который свергнет человечество, говорили десятилетиями, а такие программы, как ChatGPT, только возобновили эти опасения. Мы не боимся только до тех пор, пока управляем и контролируем ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Но загвоздка в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется симуляция этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии это понять, создать такую симуляцию просто невозможно.

Будем ли мы управлять ИИ

Такие правила, как «не причинять вреда людям», не могут быть установлены, если мы не понимаем, какие сценарии может придумать ИИ, предполагают ученые. Как только компьютерная система заработает на уровне, превышающем возможности наших программистов, мы больше не сможем устанавливать ограничения.

«Сверхразум ставит принципиально иную проблему, чем те, которые обычно изучаются под лозунгом "этики роботов"", - писали исследователи еще в 2021 году.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Это потому, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непостижимы для людей, не говоря уже о том, что ими можно управлять».

Часть рассуждений команды исходит из проблемы остановки, выдвинутой Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы знать, придет ли компьютерная программа к выводу и ответу (и остановится) или просто навечно зациклится, пытаясь его найти.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как доказал Тьюринг, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана.

Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно хранить в своей памяти все возможные компьютерные программы.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Например, любая программа, написанная для того, чтобы ИИ не причинил вреда людям и не разрушил мир, может прийти к какому–то выводу (и остановиться) или нет — в любом случае математически невозможно быть абсолютно уверенным, что такой сверхразум можно будет сдержать. Это означает, что контролировать его будет невозможно.

Альтернативой обучению ИИ некоторой этике и приказу ему не разрушать мир – в чем, по словам исследователей, ни один алгоритм не может быть абсолютно уверен, – является ограничение возможностей сверхразума. Например, он может быть отрезан от части Интернета или от определенных сетей.

Исследование 2021 года также отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта – аргумент заключается в том, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем его вообще создавать?

Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится неподконтрольный нам сверхразум, настолько он непостижим. Это означает, что нам нужно начать задавать некоторые серьезные вопросы о направлениях, в которых мы движемся.