OpenAI срочно собрала людей, которые должны помочь остановить сверхразумный ИИ, если он выйдет из-под контроля

Генеральный директор OpenAI Сэм Альтман настолько обеспокоен развитием ИИ, что его компания объявила о создании подразделения под названием Superalignment, целью которого является разработать меры защиты от апокалипсиса, вызванного искусственным интеллектом.
OpenAI срочно собрала людей, которые должны помочь остановить сверхразумный ИИ, если он выйдет из-под контроля
Терминатор

«Суперинтеллект станет самой эффективной технологией, которую когда-либо изобретало человечество, и может помочь нам решить многие из важнейших мировых проблем, - говорится в сообщении OpenAI, посвященном новой инициативе. — Но огромная мощь сверхразума также может быть очень опасной и привести к бесправию человечества или даже к его вымиранию».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Подразделение по «укрощению» ИИ

OpenAI заявила, что, хотя может показаться, что до сверхразумного ИИ еще далеко, она считает, что он может быть разработан к 2030 году. Компания признается, что в настоящее время не существует системы, которая управляла бы потенциально сверхразумным ИИ и предотвращала бы его выход из-под контроля.

Чтобы справиться с ситуацией, OpenAI хочет создать программу, которая выполняла бы проверки безопасности сверхразумного ИИ. Также, OpenAI заявляет, что для управления этими рисками потребуются новые институты управления и решение проблемы выравнивания сверхразума.

Для того, чтобы новые меры имели эффект, OpenAI необходимо собрать отличную команду из ведущих исследователей и инженеров в области машинного обучения.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Компания, похоже, очень откровенна в своих усилиях, описывая их как «невероятно амбициозную цель», а также признавая, что «успех затеи не гарантирован». Тем не менее, компания настроена оптимистично и верит, что целенаправленные, согласованные усилия могут решить эту проблему.

Новые инструменты искусственного интеллекта, такие как ChatGPT от OpenAI и Bard от Google, среди многих других, настолько революционны, что эксперты уверены: даже на этом уровне, предшествующем развитию сверхразума, рабочее место и общество в целом столкнутся с фундаментальными изменениями в ближайшей перспективе.

Вот почему правительства по всему миру пытаются играть в догонялки, спешно вводя правила для быстро развивающейся индустрии искусственного интеллекта в попытке обеспечить безопасное и ответственное внедрение технологии.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Однако, если не будет сформирован единый орган, у каждой страны будут свои взгляды на то, как наилучшим образом использовать технологию, а это означает, что эти правила могут сильно различаться и приводить к заметно отличающимся результатам. И именно эти различные подходы сделают достижение цели Superalignment еще более трудным.