Сэм Альтман руководитель компании OpenAI разработчика Chatbot выступил на слушаньях о развитии ИИ

16 мая глава компании OpenAI разработчика ChatGPT Сэм Альтман ответил на вопросы американских конгрессменов. Альтман сказал, что вмешательство государства будет иметь важное значение для снижения рисков, связанных со все более мощными системами искусственного интеллекта. Но лидеры отрасли считают, что надо регулировать не развитие технологии, а ее применения.
Сэм Альтман руководитель компании OpenAI разработчика Chatbot выступил на слушаньях о развитии ИИ
Сэм Альтман отвечает на вопросы конгрессменов. Washington Post

Генеральный директор OpenAI Сэм Альтман: «По мере развития технологии ИИ мы понимаем, что люди обеспокоены тем, как она может изменить наш образ жизни. Мы тоже».

Альтман предложил создать глобальное агентство, которое будет представлять собой аналог МАГАТЭ. Такое агентство будет лицензировать самые мощные системы искусственного интеллекта и иметь полномочия «отбирать эту лицензию и обеспечивать соблюдение стандартов безопасности».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Стартап OpenAI, базирующийся в Сан-Франциско, привлек внимание общественности после того, как в конце прошлого года он выпустил ChatGPT — самое быстро растущее приложение в истории. Сегодня оно насчитывает сотни миллионов пользователей.

Все началось с настоящей паники среди преподавателей университетов и школ по поводу использования ChatGPT для автоматической подготовки домашних заданий. Но быстро возникла более широкая озабоченность по поводу способности новейших инструментов «генеративного ИИ» вводить людей в заблуждение, распространять ложь, нарушать авторские права и занимать рабочие места.

Пока нет никаких признаков, что Конгресс США разработает новые правила ИИ, как это сделали европейские законодатели: 11 мая Евросоюз принял AI Act, регулирующий и ограничивающий использование ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как ИИ «заменил» сенатора

Сенатор Ричард Блюменталь, возглавляющий подкомитет по неприкосновенности частной жизни, технологиям и законодательству судебного комитета Сената, открыл слушания записанной речью, которая звучала как речь сенатора, но на самом деле это был голосовой клон, натренированный на выступлениях Блюменталя и произносящий написанный ChatGPT текст.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Блюменталь спросил: а что было бы, если бы его голосовой клон сказал что-то этически и законодательно неприемлемое?

Блюменталь заявил, что компании, занимающиеся разработкой искусственного интеллекта, обязаны раскрывать общественности известные риски перед выпуском продукта, и выразил особую озабоченность тем, что будущие системы ИИ могут дестабилизировать рынок труда.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что тревожит самих разработчиков ИИ

Когда Альтмана спросили о его собственных худших опасениях относительно ИИ, он уклонился от конкретных примеров, но сказал, что эта отрасль может нанести «значительный вред миру», если ее развитие с самого начала пойдет в неправильном направлении, «то все может пойти совсем не так».

Но Альтман предложил новому регулирующему органа (которого пока не существует) блокировать модели ИИ, которые могут «самовоспроизводиться и самораспространяться в дикой природе». Альтман имел ввиду футуристические опасения относительно продвинутых систем ИИ, которые смогут манипулировать людьми и захватят контроль над развитием технологий.

«Именно страх перед этими (сверхмощными) системами и наше непонимание их сути заставляет всех коллективно сходить с ума», — сказал Суреш Венкатасубраманиан, исследователь из Университета Брауна, - «Этот страх необоснован и отвлекает от реальных проблем, с которыми мы сейчас имеем дело».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Путь Сэма Алтмана

Так увидел художник «самовоспроизводящуюся систему ИИ»
Так увидел художник «самовоспроизводящуюся систему ИИ»
Unsplash.com
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

OpenAI выражает опасения развитием ИИ с момента своего создания. Основанный Альтманом в 2015 году при поддержке Илона Маска стартап превратился из некоммерческой исследовательской лаборатории в крупную компанию, которая видит свою миссию в том числе в обеспечении безопасности в бизнесе. Среди других популярных продуктов компании, созданных на основе ИИ, — генератор картинок по текстовому описанию DALL-E. Microsoft инвестировала миллиарды долларов в стартап и интегрировала его технологию в свои продукты, включая поисковую систему Bing.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В этом месяце Альтман планирует отправиться в мировое турне по столицам государств и крупным городам на шести континентах, чтобы рассказать о технологии ИИ политикам и общественности. Накануне своего выступления в Сенате он пообедал с десятками американских законодателей, некоторые из которых сказали, что были впечатлены его комментариями.

За и против

В слушаньях приняли участие Кристина Монтгомери, руководитель отдела конфиденциальности IBM и Гэри Маркус, заслуженный профессор Нью-Йоркского университета. Маркус (как и Илон Маск) вошел в группу экспертов по ИИ, подписавших письмо, призвавшее OpenAI и другие технологические компании приостановить разработку более мощных моделей ИИ на 6 месяцев, чтобы дать обществу больше времени для рассмотрения рисков. Письмо стало ответом на выпуск в марте последней модели OpenAI — GPT-4, которая оказалась намного более мощной, чем GPT-3.5.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Гэри Маркус и Сэм Алтман
Гэри Маркус и Сэм Алтман
Andrew Caballero-Reynolds/AFP/Getty Images

Альтман и Маркус призвали к созданию регулятора, ориентированного на ИИ, желательно международного, при этом Альтман сослался на прецедент МАГАТЭ — ядерного агентства ООН. Маркус сравнил будущего регулятора ИИ Управлением по контролю за продуктами и лекарствами США (FDA).

Кристина Монтгомери из IBM вместо этого попросила Конгресс применить подход «точечного регулирования». «Мы считаем, что регулирование ИИ должно осуществляться, по сути, в точке риска», — сказала Монтгомери, то есть стоит установить правила, регулирующие развертывание конкретных видов использования ИИ, а не саму технологию.