Прямо как в Black Mirror: какие сюжеты фантастического сериала могут скоро воплотиться в реальную жизнь
Первые серии Black Mirror вышли в 2011 году, и за это время некоторые сюжеты сериала пугающе приблизились к реальности.
ИИ-нейроимпланты
В каких сериях встречается технология:
- The Entire History of You: в недалеком будущем у большинства людей за ухом имплантировано «зерно», которое записывает все, что они делают, видят или слышат. Это позволяет воспроизводить воспоминания перед глазами человека либо на экране.
- Arkangel: обеспокоенная мать становится участницей проекта по созданию системы родительского контроля. Ее ребенку вживляют имплант, который позволяет отслеживать в режиме реального времени геолокацию и медицинское состояние, получать, записывать и воспроизводить изображение непосредственного зрения, цензурировать непристойные и стрессовые сцены с помощью пикселизации и искажения звука.
- Crocodile: нейроимпланты используются для записи увиденного и последующего использования этой информации при расследовании преступлений и страховых случаев.
Примеры из реальной жизни
Нейроимпланты для улучшения жизни людей с ограниченными возможностями – пока не столь массовое направление, но в перспективе может получить развитие. В январе 2024 года Илон Маск сообщил о первом опыте по вживлению чипа человеку. Устройство позволило пациенту — парализованному человеку — пользоваться интернетом, публиковать сообщения в социальных сетях, перемещать курсор на ноутбуке, играть в видеоигры.
Одна из российских компаний применяет ИИ в своих разработках, чтобы вернуть людям зрение и слух, побороть тяжелые расстройства нервной системы. Во всех случаях принцип один: блок обработки принимает сигналы окружающей среды, процессор обрабатывает их и преобразует в импульсы, которые достигают мозга по цепочке электродов.
Разработчики отмечают, что ИИ- алгоритмы дорабатывают данные, чтобы мозг получил информацию в пригодном формате. Они «выхватывают» из окружающего пространства очертания объектов, дверные проемы и контуры объектов, которые отправляют в виде электрических импульсов в зрительную кору головного мозга. Второй уровень алгоритмов с помощью машинного зрения подсказывает пациенту, какие именно объекты находятся впереди него. Таким образом получается, например, читать книгу — ИИ-алгоритм распознает и озвучивает текст.
Уже на этом этапе ИИ начинает отвечать за то, какая информация поступает в мозг человека. Значит, ничто не мешает воспроизводить не реальную картинку, а дополнительные изображения — от дополненной реальности до мультимедийных потоков, как это показано в Black Mirror. На производствах с техническими секретами у сотрудников появятся специальные очки — а в более отдаленном будущем, возможно, и имплантаты. Они позволят работодателю отслеживать, не посещает ли сотрудник закрытые для него зоны и не читает ли информацию, к которой у него не должно быть доступа, а при необходимости цензурировать запретные данные, как в Arkangel.
1. ИИ-боты как реальные люди
В каких сериях встречается технология:
- Be right back: онлайн-сервис позволяет людям оставаться на связи с умершим человеком. Используя онлайн-сообщения и профили в социальных сетях, можно создать бота — копию покойного.
- The Waldo Moment — актер, озвучивший мультяшного медведя по имени Уолдо, оказывается вовлеченным в политику, когда его персонаж баллотируется на выборах и выходит из-под контроля автора.
Примеры из реальной жизни
Эти фантазии также гораздо ближе к реальности, чем можно подумать. Уже в нынешнем учебном году в РУДН поступил ИИ-студент «Григорий ИИсаев». По сути своей это модель машинного обучения на базе GigaChat, которая будет осваивать материал наравне с «живыми» студентами, наглядно демонстрируя процесс накопления знаний. Можно предположить, что такая технология способна дать ценные инсайты о том, как слушатели курсов воспринимают учебные материалы, где нагрузка оказывается слишком сильной, а где — дает выдохнуть.
Сейчас с «Григорием» приходится взаимодействовать с помощью текста. В будущем ему планируют сделать графический образ и дать голос, чтобы общение с роботом не отличалось от разговора с другим студентом.
А вот «Алиса» от «Яндекса» давно умеет поддерживать разговор на свободные темы, озвучивая свои мысли голосом. Разработчики предлагают пользователям играть голосовым ассистентом в города и просить рассказать сказку, то есть буквально заявляют о цели создать искусственного компаньона, а то и друга.
Так, робота Nikola, несмотря на европейское имя, создали в японской лаборатории в рамках проекта Guardian Robot. Разработчики стремятся «объединить психологию, науку о мозге, когнитивную науку и исследования в области искусственного интеллекта для создания будущего общества, в котором люди, искусственный интеллект и роботы смогут гибко сосуществовать».
У Nikola голова робота-ребенка с лицом из силиконовой кожи, под которой скрываются почти 30 пневматических приводов, управляющие искусственными мышцами. Создатели робота использовали наработки системы кодирования лицевых движений (Facial Action Coding System, FACS), которая широко используется для изучения выражений лица. Опираясь на «единицы лицевых движений» вроде поднятия щек и сморщивания губ, исследователи научили Nikola имитировать человеческие эмоции: счастье, печаль, страх, гнев, удивление и отвращение.
Впрочем, каждый, кто за последние пару лет общался с банковскими колл-центрами, уже знает, каково это — общаться с роботами. Интерактивные голосовые меню сейчас позволяют решать до 40% вопросов, с которыми обращаются клиенты, а с простыми задачами справляются на 70% эффективнее «живых» сотрудников (то есть дешевле для бизнеса).
При этом радужные прогнозы о внедрении ИИ зачастую разбиваются... О кибербезопасность. Финтех и e-commerce в этом плане наиболее уязвимые отрасли, так как массово используют открытый код в разработке клиентских сервисов и приложений. Зачастую для разработки скриптов в чат-ботах используются непроверенные датасеты. И если разработчики пропускают этапы проверки, всегда есть риск, что сработают «закладки», которые приведут к потере персональных данных пользователей.
Например, для атак на цифровые ресурсы, которые используют ИИ-боты для коммуникации с клиентами, хакеры могут воспользоваться уязвимостями цифровых платформ и систем аутентификации в личных кабинетах. Они могут «угнать» куки-файлы, чтобы захватить контроль над учетными записями и получить доступ к истории взаимодействия. Кибербезопасность в этом случае обеспечивают решения для безопасной разработки, технологии идентификации и управления доступом.
2. ИИ для принятия решений и управления человеком
В каких сериях встречается технология:
- Hang the DJ: люди пытаются найти себе пару, полагаясь на сервис знакомств, который принимает все решения за пользователей-участников.
- Nosedive: героиня живет в мире, где все люди оценивают друг друга по пятизвездочной шкале — от друзей до незнакомцев, которых встречают на улице. Пользоваться общественными благами, например жить в лучших районах, могут только обладатели высокого рейтинга.
Примеры из реальной жизни
ИИ-системы, принимающие решения о человеке за него самого, — наверное, главный страх с самого начала фантазий о таких технологиях. Еще в «Космической одиссее: 2001» компьютер HAL сообщал командиру космонавтов, что решил не пускать его на борт по собственным соображениям. Нейросети по умолчанию представляют собой «черный ящик»: не всегда получается объяснить, как именно модель обрабатывает данные, прежде чем перерисовать картинку в стиле Ван Гога или написать пост на заданную тему. Поэтому появляются научные исследования, о том, как думает LLM или как интерпретировать работу нейросети, снимая данные с ее внутренних слоев.
Теоретически компьютеру можно поручить решения практически в любой отрасли, где нужно учитывать множество меняющихся факторов. Аналитические решения предыдущих поколений сталкивались с ограничениями с точки зрения гибкости работы, ограниченными возможностями интеграции данных и ручными операциями.
Например, Microsoft представила экспериментальную Python-библиотеку TinyTroupe, которая предназначена для моделирования поведения людей. Она работает на базе больших языковых моделей и будет полезна для оценки эффективности рекламных кампаний, организации тестирования ПО или генерации данных для обучения нейросетей.
Более того, ритейлеры уже активно применяют системы на базе ИИ, чтобы прогнозировать спрос, управлять запасами и оптимизировать ценообразование. Получается, что наличие или отсутствие товара в магазине может зависеть от решений робота, а люди могут покупать те или иные товары только потому, что ИИ решил, что сейчас их нужно поставить на полку.
Зачастую мы сами отдаем контроль за своими данными. Ради скидки в магазинах мы открываем торговым сетям свои страницы в соцсетях, заполняем подробные анкеты, которые затем используются для создания наших цифровых профилей. Такие компании, как Palantir в США или российская Data Sapience, продают клиентам возможность принимать бизнес-решения на основе огромных массивов актуальных данных о том, как на самом деле мы живем, покупаем, работаем и отдыхаем.
Но не хочется окрашивать будущее только в мрачные тона. Те же компании, работающие с большими данными, говорят о мире, в котором нам будет удобнее выбирать профессию и легче учиться, где реклама будет предлагать только те товары, которые нам действительно нужны.
В конце концов, главная ценность «черного ящика» нейросетей именно в том, что он «черный». Мы применяем технологии машинного обучения, чтобы обнаружить скрытые паттерны в данных и принимать лучшие решения. Например, ИИ-модуль UBA в DLP-системе Solar Dozor распознает необычные действия и аномалии, которые могут говорить о попытке похитить информацию. Встроенная в систему нейросеть распознает речь на 50 языках и переводит ее в текст. Все эти данные используются для расследования утечек информации и действий инсайдеров в компаниях.
Ну а в будущем роботизированная система безопасности сможет распознать минимальные отличия, выдающие фальшивку, если человека, например, пытаются обмануть поддельным голосовым сообщением якобы от близкого родственника или начальника. Поэтому для ИИ появятся новые задачи − распознавать фейки в виде голоса, текста или видеоряда, которые могут подделывать сообщения специалистов компании, ее партнеров и контрагентов.
Вероятность появления таких сверхнатуральных подделок будет расти, потому что данные о жизни и работе человека собирает все больше систем и устройств. Сейчас даже новички в машинном обучении могут сходить на курсы по дообучения LLM-моделей, дообучить их на своих данных. Нетрудно представить себе будущее, в котором роботы-киберпреступники будут планировать и проводить кибератаки на компании, защищаемые такими же роботами.
Мораль всей истории
Футурологи часто говорят о технологической сингулярности — гипотетическом событии в будущем, после которого развитие технологий выйдет из-под контроля человека. Поэтому все мрачные сценарии «Черного зеркала» основаны на страхе перед побочными эффектами новых технологий и их последствиями. Во многом, опасения общества связаны с рождением настоящего искусственного интеллекта, который на несколько голов превзойдет возможности существующих моделей машинного обучения.
В попытке обуздать эти технологии мировое научное сообщество сформулировало несколько законов роботехники. В приоритете стоит безопасность и польза для людей, этические принципы безопасности, прозрачности и ответственности, уважения прав других людей. Эти же принципы развивает российское сообщество. Например, эксперты Высшей школы экономики разработали декларацию этических принципов создания и использования систем ИИ. Первым же пунктом там значится «приоритет человеческого общения» — можно предположить, что это ограничение не позволит заменять сотрудников роботизированной системой.
Или опыт Консорциума по искусственному интеллекту, который создан при поддержке Минцифры России. Научное сообщество в партнерстве с технологическими компаниями развивает несколько направлений, связанных с ИИ. Эксперты фокусируются на разработке защищенных технологий для работы с данными, криптографических методах обеспечения безопасности для ИИ, а также развивают вместе с партнерами центры для отраслевых исследований в сфере безопасности машинного обучения.
В попытках регулировать ИИ не стоит забывать, что это обоюдоострое оружие, которое играет и на стороне киберпреступников. Хакеры уже используют крупные языковые модели для совершенствования кибератак, исследования целей, улучшения скриптов и разработки техник социальной инженерии. При этом они массово эксплуатируют человеческие страхи, эмоции, негативные убеждения, чтобы добиться своей цели.
Поэтому, чтобы не оказаться в сценарии следующей антологии «Сумеречная зона», мы ведем исследования для защиты данных от компрометации с помощью ИИ и разрабатываем технологии для выявления фейков, которые могут влиять на наши решения и определять наше будущее.