Создатели ChatGPT утверждают, что через 10 лет ИИ превзойдет человека. К этому надо быть готовым

Создатели ChatGPT — СЕО компании OpenAI Сэм Альтман и ведущие разработчики модели GPT — Грэг Брокман и Илья Суцкевер разместили на сайте компании пост, в котором они описали свое видение будущего ИИ. Они назвали колонку «Управление суперинтеллектом». Это не официальный документ компании, а именно частное мнение ведущих специалистов по разработке ИИ.
Создатели ChatGPT утверждают, что через 10 лет ИИ превзойдет человека. К этому надо быть готовым
Рисунок выполнен системой генерирования изображений DALL-E. OpenAI

Создатели ChatGPT назвали будущую модель ИИ «суперинтеллектом». По их мнению уже скоро он превзойдет человека

Создатели ChatGPT — СЕО компании OpenAI Сэм Альтман и ведущие разработчики модели GPT — Грэг Брокман и Илья Суцкевер разместили на сайте компании пост, в котором они описали свое видение будущего ИИ. Они назвали колонку «Управление суперинтеллектом». Это не официальный документ компании, а именно частное мнение ведущих специалистов по разработке ИИ.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Начинают они со смелого прогноза: «Учитывая картину, которую мы видим сейчас, можно предположить, что в течение следующих десяти лет системы ИИ превзойдут уровень квалификации экспертов в большинстве областей и будут вести столь же продуктивную деятельность, как крупнейшие современные корпорации».

Такой прогноз в первую очередь основан на темпах развития большой лингвистической модели генеративного ИИ — GPT, созданной компанией OpenAI. Эти темпы действительно впечатляют. Особенно сильное впечатление произвел не только на специалистов, но и на публику прогресс между ChatGPT 3.5 (запущенной в ноябре 2022 года) и ChatGPT 4.0 (апрель 2023 года). Иначе как оглушительным этот скачок, кажется, никто уже не называет. Потрясение было настолько велико, что Илон Маск, который давно предупреждает об опасности ИИ, и целый ряд экспертов призвали остановить развитие генеративных ИИ. Затем Сэм Альтман выступал в Белом Доме и Сенате США, где отвечал на вопросы озабоченных политиков. Развитии ИИ обсуждалось и на саммите G7

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Специалисты OpenAI пишут: «Суперинтеллект будет более мощным, чем любые другие технологии, с которыми человечеству приходилось когда-либо сталкиваться. Чтобы наше будущее было процветающим, нам необходимо управлять рисками. Ядерная энергия — исторический пример технологии с такими рисками, синтетическая биология — другой пример. Мы должны оценивать и снижать риски и по отношению к сегодняшним технологиям ИИ, но суперинтеллект потребует особого отношения»

Управление развитием суперинтеллекта

Сэм Альтман выступает в Сенате США
Сэм Альтман выступает в Сенате США
WP
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ведущие специалисты OpanAI предлагают развивать глобальную координацию, которая может сделать суперинтеллект благом человечества. Вот что они предлагают.

Первое. Нам необходима координация между развитием суперинтеллекта и безопасностью человечества. Это можно реализовать разными способами: правительства крупнейших стран мира могут создать проект, частью которого станут текущие разработки ИИ. А темпы роста возможностей ИИ специально ограничить (что и предлагается в письме Илона Маска и экспертов).

Второе: Необходим аналог МАГАТЭ (агентство по ядерной энергетике при ООН). Любые усилия по созданию суперинтеллекта, превышающие определенный порог возможностей (или ресурсов, например, вычислительных), должны регулироваться международным органом, который может инспектировать системы, требовать аудит, проверять соответствие стандартам безопасности и т. д. Мы действительно может контролировать использования вычислений и энергии, так что сама идея такого контроля вполне осуществима.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Третье. Нам нужны технические возможности для того, чтобы сделать суперинтеллект безопасным. Это открытый исследовательский вопрос, над которым OpenAI и другие компании сейчас работают. Проще говоря, как ловить сумасшедшую зверушку, если она вырвется из клетки?

И наконец, на исследовательские проекты с открытым исходным кодом и модели ниже определенного вычислительного порога мощности никаких ограничений накладывать нельзя. Иначе мы остановим нормальный процесс научного поиска.

Зачем нужен человечеству суперинтеллект

Специалисты OpenAI задаются естественным вопросом: «Учитывая риски и трудности, стоит подумать, а зачем мы вообще создаем эту технологию?».

И отвечают: «У нас, в OpenAI, есть две фундаментальные причины. Во-первых, мы верим, что это приведет к созданию гораздо лучшего мира, чем тот, который мы можем себе представить сегодня. Мир сталкивается с множеством проблем, для решения которых нам нужен сильный помощник. Эта технология может улучшить наше общество. Творческие способности каждого, несомненно, вырастут, как и экономический рост и качество жизни».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Во-вторых, мы считаем, что остановить создание суперинтеллекта будет крайне сложно. Поскольку положительные его стороны очень велики, а затраты на его создание снижаются с каждым годом. Число работающих в этом направлении компаний быстро растет. Суперинтеллект является неотъемлемой частью технологического пути, по которому мы идем. Его остановка потребует чего-то вроде режима глобального наблюдения, и даже это может не сработать. Поэтому мы должны сделать это правильно».