В OpenAI предупредили о риске вымирания человечества из-за искусственного интеллекта

Во вторник Центр безопасности искусственного интеллекта (CAIS) опубликовал заявление из одного предложения, подписанное руководителями OpenAI и DeepMind, лауреатами премии Тьюринга и другими исследователями искусственного интеллекта, предупреждающими, что работа их жизни потенциально может уничтожить все человечество.
В OpenAI предупредили о риске вымирания человечества из-за искусственного интеллекта
Stable Diffusion
Каким бы дружелюбным не казался нам искусственный интеллект, потенциально он может уничтожить все человечество.

Краткое заявление, которое, по словам CAIS, призвано открыть дискуссию на тему «широкого спектра важных и неотложных рисков, связанных с ИИ», гласит: «Снижение риска вымирания человечества из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Вымирание человечества

Среди известных подписантов заявления — лауреаты премии Тьюринга Джеффри Хинтон и Йошуа Бенгио, генеральный директор OpenAI Сэм Альтман, главный научный сотрудник OpenAI Илья Суцкевер, технический директор OpenAI Мира Мурати, генеральный директор DeepMind Демис Хассабис, генеральный директор Anthropic Дарио Амодей и профессора из Калифорнийского университета в Беркли, Стэнфорда и Массачусетского технологического института.

Это заявление появилось во время путешествий Альтмана по миру, в ходе которых он проводит встречи с главами государств по поводу искусственного интеллекта и его потенциальных опасностей. Ранее в мае Альтман выступал за регулирование своей отрасли перед Сенатом США.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Учитывая его небольшой объем, открытое письмо CAIS примечательно тем, чего в нем нет. Например, в нем не уточняется, что именно подразумевается под «искусственным интеллектом», учитывая, что термин может применяться к чему угодно, от виртуальных соперников в играх до языковых моделей, которые могут писать сонеты в стиле поэтов Серебряного века. В письме также не предлагается, как можно снизить риски вымирания, только то, что это должно быть «глобальным приоритетом».