Илон Маск и сооснователь Apple призвали остановить развитие нейросетей, чтобы спасти наш мир

Более тысячи ученых, предпринимателей и экспертов подписали письмо с предложением ввести мораторий на развитие нейросетей на полгода.
Илон Маск и сооснователь Apple призвали остановить развитие нейросетей, чтобы спасти наш мир
Ars Technica
«Сильные мира сего» боятся развития искусственного интеллекта, но замедлить прогресс они не смогут.

В среду «Институт будущего жизни» опубликовал на своем веб-сайте открытое письмо, призывающее лаборатории искусственного интеллекта «немедленно приостановить, по крайней мере, на 6 месяцев, подготовку систем искусственного интеллекта, более мощных, чем GPT—4». Подписанное Илоном Маском и несколькими известными исследователями ИИ, письмо быстро начало привлекать внимание прессы и критиков в социальных сетях.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Почему пытаются ограничить развитие ИИ?

Ранее в этом месяце OpenAI выпустила GPT-4, модель ИИ, которая может выполнять композиционные задачи и предположительно проходить стандартизированные тесты на человеческом уровне, хотя эти утверждения все еще оцениваются исследованиями. Несмотря на это, расширение возможностей GPT-4 и Bing Chat по сравнению с предыдущими моделями ИИ напугало некоторых экспертов, которые считают, что мы движемся к сверхинтеллектуальным системам ИИ быстрее, чем ожидалось ранее.

В соответствии с этим Институт будущего жизни утверждает, что недавние достижения в области ИИ привели к «бесконтрольной гонке» за разработкой и внедрением нейросетевых моделей, которые трудно предсказать или контролировать. Они считают, что отсутствие планирования и управления этими системами ИИ вызывает беспокойство и что подобные мощные системы следует разрабатывать только после того, как их эффекты будут хорошо поняты и управляемы. Вот что пишут авторы письма:

«Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьезные риски для общества и человечества, как показали обширные исследования и признания ведущих лабораторий ИИ. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его развитие следует планировать и управлять им с соответствующей осторожностью и ресурсами».