Наступление ИИ. Стоит ли его бояться. Главные научные новости недели

Новости 20-26 мая. Разработчики ChatGPT призвали к созданию международной комиссии по контролю развития ИИ. Опасность ИИ обсуждали лидеры G7. Надежность распознавания фейковых сочинений и защита от плагиата. Поддельные снимки. Вероятность ошибок в ответах чат-ботов.
Наступление ИИ. Стоит ли его бояться. Главные научные новости недели
Unsplash.com

И разработчики, и политики призывают к той или иной форме контроля ИИ. А в тоже время ИИ развивается самыми быстрыми темпами в истории

Создатели ChatGPT: СЕО компании OpenAI Сэм Альтман и ведущие разработчики GPT — Грэг Брокман и Илья Суцкевер разместили на сайте компании пост, в котором они описали свое видение будущего ИИ. Они назвали колонку «Управление суперинтеллектом». Это не официальный документ компании, а именно частное мнение ведущих специалистов по разработке ИИ. Начинают они со смелого прогноза: «Учитывая картину, которую мы видим сейчас, можно предположить, что в течение следующих десяти лет системы ИИ превзойдут уровень квалификации экспертов в большинстве областей и будут вести столь же продуктивную деятельность, как крупнейшие современные корпорации».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Такой прогноз в первую очередь основан на темпах развития большой лингвистической модели генеративного ИИ — GPT, созданной компанией OpenAI. Эти темпы действительно впечатляют. Особенно сильное впечатление произвел не только на специалистов, но и на публику прогресс между ChatGPT 3.5 (запущенной в ноябре 2022 года) и ChatGPT 4.0 (апрель 2023 года). Потрясение было настолько сильным, что Илон Маск, который давно предупреждает об опасности ИИ, и целый ряд экспертов призвали остановить развитие генеративных ИИ.

Картина создана системой DALL-E компании OpenAI
Картина создана системой DALL-E компании OpenAI
OpenAI
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В письме Маска был призыв остановить разработки больших лингвистических моделей, таких как GPT, на полгода. Теперь и разработчики GPT согласились с этим призывом. Они написали, что развитие крупных систем должно быть контролируемым, и можно его иногда и притормозить. Кто будет решать пора ли тормозить? Некоторое международное агентство — аналог МАГАТЭ (агентство по ядерной энергетике ООН). И такое агентство надо создать.

Гэри Маркус (слева) и Сэм Альтман на слушаньях в Сенате США
Гэри Маркус (слева) и Сэм Альтман на слушаньях в Сенате США
WP
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сэм Альтман выступал в Белом Доме и Сенате США, где отвечал на вопросы озабоченных политиков. Развитие ИИ обсуждалось и на саммите G7. И там тоже решили создавать агентство по контролю ИИ. Обсуждение уже началось. И до конца года первые предложения должны появиться. Не очень понятно, как все эти системы контроля повлияют на невероятно быстрое развитии самых разных приложений ИИ.

Чего бояться? Есть несколько моментов о которых всегда говорят, когда речь заходит о «плохом» ИИ. И это, как правило, не страх перед тем, что ИИ займет все возможные рабочие места. То, что ИИ, скорее всего, не рабочие места займет, а переформатирует рынок труда (и произойдет это совсем не завтра), это понимают многие, хотя и не все.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Вставка фигуры в изображение
Вставка фигуры в изображение
Вставка фигуры в изображение. https://arxiv.org/abs/2304.14406
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Что больше всего беспокоит — это фейки. И глубокие, и не очень. Например, на этой неделе была анонсирована система, которая идеально вписывает изображение человека в любую сцену. Это не копи-паст. Система как бы заново генерирует сцену, но уже с человек внутри нее. Распознать подделку практически невозможно. Сделана система, конечно, из благих побуждений. Например, это позволяет осуществлять виртуальную примерку одежды. Да, это тоже можно. Но можно и другое. И не всегда безобидное. Сэм Альтман и его коллеги говорят, что картинки и тексты, созданные ИИ, должны содержать своего рода «водяные знаки», чтобы другие ИИ их легко находили. Но это, судя по всему, возможно не всегда.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Студенты — это группа риска для приложений ИИ
Студенты — это группа риска для приложений ИИ
Unsplash.com

Например, сегодня есть системы ИИ (так называемые детекторы), которые должны распознавать тексты, созданные машиной. Но они работают крайне ненадежно. По крайней мере, 20% текстов, написанных человеком, все существующие на сегодня детекторы считают созданными машиной. Это очень опасно, поскольку ведет к обвинениям людей в плагиате. Самой уязвимой группой оказываются студенты. Обычно детекторы машинного текста приписывают машине тексты, написанные людьми, для которых английский неродной. И ясно, что, например, при сдаче TOEFL такой детектор использовать нельзя. А ведь именно здесь самое уязвимое место: велика вероятность, что недобросовестный студент ради TOEFL «попросит» помощи у GPT. Но если в картинку еще можно куда-то встроить водяной знак, то куда его встроить в короткий текст — непонятно.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Unsplash.com

Есть и другой момент, он связан с использованием ChatGPT и других чат-ботов в поиске. Чат-боты дают гладко изложенные и, на первый взгляд, полезные ответы. Но это на «первый взгляд». Проверили. Оказалось, что «видимая достоверность» ответов, это вообще-то не хорошо, а плохо. Потому что она маскирует довольно безрадостную картинку: примерно половина утверждений не были подкреплены пруфами, у четверти цитат ссылки вели куда-то не туда совсем. Приписать Гёте цитату из Шиллера или вовсе что-нибудь новенькое ему присочинить, это еще самое безобидное. При быстром поиске человек, как правило, не погружается слишком глубоко в выяснение надежности ссылок. А излагают чат-боты довольно гладко. Берем, что они говорят. И получается в результате не здорово.

Но все равно остается вопрос и к разработчикам ChatGPT, и к Илону Маску, и к другим экспертам: неужели нет никакого другого способа защитить человечество от ИИ, кроме глобальной системы контроля (по сути государственной и международной цензуры)? Они, похоже, других методов не знают.