РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Рост популярности Deepfake: тревога или мировая трансформация

«Фотошопить» видеоматериалы можно было и, скажем, 10 лет назад, но для этого требовались время, высококвалифицированные художники и большие деньги. Технология Deepfake меняет правила игры. С развитием этой области каждый имеет возможность создать фальшивое, но весьма убедительное видео. Теперь любой человек может делать «новости», распространять ложную информацию, клеветать. Иными словами, сегодня благодаря новейшим технологиям каждый может поучаствовать в создании фейковой реальности. Как распознать проделки нейросети, разбираемся вместе с iPavlov.
Mihai Surdu/Shutterstock

"Ложные высказывания от имени государственных деятелей могут легко вызвать международный скандал, панику на фондовом рынке или даже войну. Угроза настолько реальна, что DARPA, (агентство обороны США, ответственное за новые военные технологии), уже создало  официальную лабораторию судебной экспертизы в СМИ, которая работает над бескомпромиссным распознаванием подделок. Крупные игроки отрасли искусственного интеллекта создают чудо-технологии, но вот вопрос: с какими помыслами будет пользоваться этим мир?» - Лоран Акопян, генеральный директор iPavlov.

Один из самых громких скандалов в области кибербезопасности связан с созданием  «голосовых клонов» общественных деятелей и неправомерного их использования. В марте 2019 года глава британской дочерней компании немецкого энергетического концерна внес почти 200 000 фунтов стерлингов на счет венгерского банка  после того, как ему позвонил мошенник с данным указанием, имитирующий голос немецкого генерального директора. Страховщики компании считают, что голос был подделкой, но четкого доказательства не имеется. Сообщается, что в махинациях использовались записанные голосовые сообщения WhatsApp.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Deepfake — позитивистский подход

Цифровые клоны в кресле ведущих новостей

Искусственный интеллект (ИИ) начал проникать в журналистику несколько лет назад благодаря появлению робо-журналистов, таких как OpenAI GPT-2. Нейросети обрели способность писать собственный новостной контент, который будет озвучен голосом диктора. В 2018 году китайское телевидение представило первого в мире цифрового диктора новостей AI. А в 2020 Reuters представили своего собственного полностью автоматизированного ведущего, чтобы показать, как ИИ можно использовать для увеличения масштаба новостного потока и усиления персонального таргета новостей.

Первый в мире AI-ведущий новостей от Xinhua News Agency
Первый в мире AI-ведущий новостей от Xinhua News Agency
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Deepfake в кинематографе и маркетинге — поле для креатива 

Уже сейчас доступно омолаживание или состаривание актеров благодаря нейронным сетям. Самым ярким примером может стать фильм Мартина Скорсезе «Ирландец» (2019), в котором герой Роберта Де Ниро предстает в разные годы жизни: еще молодым и уже старым.

Кадр из фильма "Ирландец"
Кадр из фильма "Ирландец" Fábrica de Cine (2019)
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Цифровые двойники также могут сниматься в рекламных роликах вместо самих актеров. Это открывает дороги пиар-агентствам для уникальной и необычной рекламы. 

Не хотите быть в неприглядном виде в Zoom на утренней встрече? Используйте генерацию своей собственной проекции! Ваши эмоции, мимика, жесты — все сохраняется, но лицо вы можете поменять на любую свою фотографию, то есть сделать Deepfake самого себя. То же самое касается любых мероприятий, на которых вы бы хотели сохранить приватность.

Ну и, конечно, сегодня возможно «очеловечивание» цифровых ассистентов, когда у голосовых помощников появляется свое уникальное лицо.

Как видите, Deepfake имеет огромное количество применений в b2b-отрасли, и совсем не всегда носит мошеннический характер. Для b2c-аудитории создаются развлекательные приложения, преимущественно с функцией face swap. 

Как распознать Deepfake

Во многих Deepfake видео, сделанных в приложениях на смартфоне, подделка заметна невооруженным взглядом. Но что делать с контентом от production-студии или свободных контент-мейкеров на YouTube, творения которых действительно неотличимы от правды? 

Никогда в жизни мы бы не догадались, что этот аккаунт ведет не Том Круз, а нейросеть! 

Чтобы распознать Deepfake, учёные из Университета Олбани провели эксперимент, в котором выявили, что в среднем люди моргают 17 раз в минуту. Эта цифра увеличивается до 26 раз во время разговора, и падает до 4,5 раз во время чтения. На основании этого ученые предложили свой метод распознавания фейковых видеороликов: многие из политиков читают текст своей речи, когда их снимают, и если спикер на видео не моргает вообще, легко определить, что данный материал был создан искусственным интеллектом. Также выяснилось, что нейронные сети часто упускают спонтанные и непроизвольные физиологические действия. Например, дыхание во время речи или движение глаз.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Команда исследователей из UAlbany использовала обнаружение моргания на исходном видео (вверху) и сгенерированном нейросетями (внизу), чтобы определить, является ли видео поддельным. Вверху моргание обнаруживается в течение шести секунд, внизу - ни разу за тот же промежуток времени.
Команда исследователей из UAlbany использовала обнаружение моргания на исходном видео (вверху) и сгенерированном нейросетями (внизу), чтобы определить, является ли видео поддельным. Вверху моргание обнаруживается в течение шести секунд, внизу - ни разу за тот же промежуток времени.

Существуют также готовые решения, позволяющие отличить правду от фейка. Например, анализируя частоту морганий, нейросеть Deepfake распознаёт поддельные видео c 99% точностью. Изучение отражения в глазах дает не такие высокие результаты: точность составляет 94%. Поскольку глаза человека расположены гораздо ближе друг к другу, чем источник света, на реальной фотографии отражения в обоих глазах почти одинаковы за исключением редких случаев, например, если свет от одного из источников попадает только на один глаз. Однако в алгоритмах для подмены или создания лиц нет физических ограничений, описывающих поведение отражений, поэтому на создаваемых ими изображениях отражения в глазах разнятся.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
распознавание Deepfake по отражению в глазах. На настоящих видео и фото, отражения одинаковы в обоих глазах, на созданных алгоритмами синтеза или замены лиц - различны
Распознавание deepfake по отражению в глазах. На настоящих видео и фото, отражения одинаковы в обоих глазах, на созданных алгоритмами синтеза или замены лиц - различны. Shu Hu et al / arXiv.org, 2020

Люди уже научились отличать Deepfake с помощью алгоритмов, но каждые полгода появляется что-то новое, требующее других методов и подходов.

"Стандарты проверки Deepfake должны развиваться параллельно прогрессу фальсифицированных видео, в противном случае, однажды мы не сможем доверять видеоконтенту. На каждое действие, конечно, находится противодействие. Стоит задуматься о новой индустрии «верификации контента» в эпоху расцвета таких цифровых технологий, как Deepfake. Это свободная ниша, которая может стать площадкой для следующей масштабной цифровой революции», — Лоран Акопян. 

Материал подготовлен совместно с компанией iPavlov

Больше информации о Deepfake вы найдете в нашем материале

Загрузка статьи...