Наступление ИИ. Стоит ли его бояться. Главные научные новости недели
![Наступление ИИ. Стоит ли его бояться. Главные научные новости недели Наступление ИИ. Стоит ли его бояться. Главные научные новости недели](https://images.techinsider.ru/upload/img_cache/d42/d42f5cd921c6cac530bf20c8825e8801_ce_2069x1380x0x1_cropped_510x340.webp)
И разработчики, и политики призывают к той или иной форме контроля ИИ. А в тоже время ИИ развивается самыми быстрыми темпами в истории
Создатели ChatGPT: СЕО компании OpenAI Сэм Альтман и ведущие разработчики GPT — Грэг Брокман и Илья Суцкевер разместили на сайте компании пост, в котором они описали свое видение будущего ИИ. Они назвали колонку «Управление суперинтеллектом». Это не официальный документ компании, а именно частное мнение ведущих специалистов по разработке ИИ. Начинают они со смелого прогноза: «Учитывая картину, которую мы видим сейчас, можно предположить, что в течение следующих десяти лет системы ИИ превзойдут уровень квалификации экспертов в большинстве областей и будут вести столь же продуктивную деятельность, как крупнейшие современные корпорации».
Такой прогноз в первую очередь основан на темпах развития большой лингвистической модели генеративного ИИ — GPT, созданной компанией OpenAI. Эти темпы действительно впечатляют. Особенно сильное впечатление произвел не только на специалистов, но и на публику прогресс между ChatGPT 3.5 (запущенной в ноябре 2022 года) и ChatGPT 4.0 (апрель 2023 года). Потрясение было настолько сильным, что Илон Маск, который давно предупреждает об опасности ИИ, и целый ряд экспертов призвали остановить развитие генеративных ИИ.
![Картина создана системой DALL-E компании OpenAI Картина создана системой DALL-E компании OpenAI](https://images.techinsider.ru/upload/img_cache/27a/27a3df7e8c437ded6a12699f9bb4ae42_cropped_510x510.webp)
В письме Маска был призыв остановить разработки больших лингвистических моделей, таких как GPT, на полгода. Теперь и разработчики GPT согласились с этим призывом. Они написали, что развитие крупных систем должно быть контролируемым, и можно его иногда и притормозить. Кто будет решать пора ли тормозить? Некоторое международное агентство — аналог МАГАТЭ (агентство по ядерной энергетике ООН). И такое агентство надо создать.
![Гэри Маркус (слева) и Сэм Альтман на слушаньях в Сенате США Гэри Маркус (слева) и Сэм Альтман на слушаньях в Сенате США](https://images.techinsider.ru/upload/img_cache/667/667c9d49fc436e7cb043b7edbf39ac03_cropped_510x340.webp)
Сэм Альтман выступал в Белом Доме и Сенате США, где отвечал на вопросы озабоченных политиков. Развитие ИИ обсуждалось и на саммите G7. И там тоже решили создавать агентство по контролю ИИ. Обсуждение уже началось. И до конца года первые предложения должны появиться. Не очень понятно, как все эти системы контроля повлияют на невероятно быстрое развитии самых разных приложений ИИ.
Чего бояться? Есть несколько моментов о которых всегда говорят, когда речь заходит о «плохом» ИИ. И это, как правило, не страх перед тем, что ИИ займет все возможные рабочие места. То, что ИИ, скорее всего, не рабочие места займет, а переформатирует рынок труда (и произойдет это совсем не завтра), это понимают многие, хотя и не все.
![Вставка фигуры в изображение Вставка фигуры в изображение](https://images.techinsider.ru/upload/img_cache/11f/11fbb5313bc7ffa1adba850c364f363c_cropped_510x204.webp)
Что больше всего беспокоит — это фейки. И глубокие, и не очень. Например, на этой неделе была анонсирована система, которая идеально вписывает изображение человека в любую сцену. Это не копи-паст. Система как бы заново генерирует сцену, но уже с человек внутри нее. Распознать подделку практически невозможно. Сделана система, конечно, из благих побуждений. Например, это позволяет осуществлять виртуальную примерку одежды. Да, это тоже можно. Но можно и другое. И не всегда безобидное. Сэм Альтман и его коллеги говорят, что картинки и тексты, созданные ИИ, должны содержать своего рода «водяные знаки», чтобы другие ИИ их легко находили. Но это, судя по всему, возможно не всегда.
![Студенты — это группа риска для приложений ИИ Студенты — это группа риска для приложений ИИ](https://images.techinsider.ru/upload/img_cache/603/6035fc40f4d73061ef7afe9b1f58065f_cropped_510x340.webp)
Например, сегодня есть системы ИИ (так называемые детекторы), которые должны распознавать тексты, созданные машиной. Но они работают крайне ненадежно. По крайней мере, 20% текстов, написанных человеком, все существующие на сегодня детекторы считают созданными машиной. Это очень опасно, поскольку ведет к обвинениям людей в плагиате. Самой уязвимой группой оказываются студенты. Обычно детекторы машинного текста приписывают машине тексты, написанные людьми, для которых английский неродной. И ясно, что, например, при сдаче TOEFL такой детектор использовать нельзя. А ведь именно здесь самое уязвимое место: велика вероятность, что недобросовестный студент ради TOEFL «попросит» помощи у GPT. Но если в картинку еще можно куда-то встроить водяной знак, то куда его встроить в короткий текст — непонятно.
![](https://images.techinsider.ru/upload/img_cache/41a/41aea1eb63a7ae2cd23a1e9244eb4de9_cropped_510x340.webp)
Есть и другой момент, он связан с использованием ChatGPT и других чат-ботов в поиске. Чат-боты дают гладко изложенные и, на первый взгляд, полезные ответы. Но это на «первый взгляд». Проверили. Оказалось, что «видимая достоверность» ответов, это вообще-то не хорошо, а плохо. Потому что она маскирует довольно безрадостную картинку: примерно половина утверждений не были подкреплены пруфами, у четверти цитат ссылки вели куда-то не туда совсем. Приписать Гёте цитату из Шиллера или вовсе что-нибудь новенькое ему присочинить, это еще самое безобидное. При быстром поиске человек, как правило, не погружается слишком глубоко в выяснение надежности ссылок. А излагают чат-боты довольно гладко. Берем, что они говорят. И получается в результате не здорово.
Но все равно остается вопрос и к разработчикам ChatGPT, и к Илону Маску, и к другим экспертам: неужели нет никакого другого способа защитить человечество от ИИ, кроме глобальной системы контроля (по сути государственной и международной цензуры)? Они, похоже, других методов не знают.