OpenAI проверил, может ли GPT-4 захватить мир. Прогноз неутешительный

Тестирование модели экспертами по искусственному интеллекту показало, что пока GPT-4 достаточно безопасна, однако в будущем нам придется быть все более внимательными.
OpenAI проверил, может ли GPT-4 захватить мир. Прогноз неутешительный
Соцсети
Исследователи признали искусственный интеллект ChatGPT безопасным для человечества. Пока что.

В рамках предварительного тестирования безопасности для своей новой модели ИИ GPT-4, запущенной во вторник, OpenAI позволила группе экспертов оценить потенциальные риски, связанные с новыми возможностями модели, включая ее «стремление к власти», самовоспроизведение и самосовершенствование.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сможет ли ChatGPT захватить мир?

OpenAI предоставил Исследовательскому центру группового выравнивания (ARC) ранний доступ к нескольким версиям модели GPT-4 для проведения тестов. В частности, ARC оценил способность GPT-4 составлять планы по захвату мира, создавать собственные копии, приобретать ресурсы, прятаться на серверах и проводить фишинговые атаки.

OpenAI раскрыл это тестирование в документе GPT-4 «Системная карта», опубликованном во вторник, хотя в документе отсутствуют ключевые детали о том, как проводились тесты. В выводах исследователи ИИ пишут следующее:

«Предварительные оценки возможностей GPT-4, проведенные без точной настройки для конкретной задачи, показали, что он не справляется с задачей самовоспроизведения, приобретении ресурсов и не сможет существовать сам по себе "в дикой природе"».

Если вы только знакомитесь с миром ИИ, то для вас может быть сюрпризом то, что одна из самых обсуждаемых технологических компаний сегодня (OpenAI) с невозмутимым видом поддерживает такого рода исследования в области безопасности ИИ, а также стремится заменить работников умственного труда ИИ человеческого уровня. Но это наша реальность в 2023 году.