Нейросеть нарисовала несуществующих людей, которые выглядят реалистичнее настоящих снимков

Даже если вы думаете, что хорошо разбираетесь в лицах, то ученые с вами не согласятся. Исследования показывают, что многие люди не могут уверенно отличить фотографии реальных лиц от изображений, созданных компьютером.
Нейросеть нарисовала несуществующих людей, которые выглядят реалистичнее настоящих снимков
NVIDIA/thispersondoesnotexist.com

Отличить живого человка от нарисованного алгоритмом скоро будет все сложнее и сложнее

Недавно фальшивый профиль LinkedIn с фотографией, сгенерированной алгоритмом, попал в новости, поскольку смог успешно связаться с официальными лицами США и другими влиятельными лицами на сетевой платформе. Эксперты контрразведки даже говорят, что шпионы регулярно создают фантомные профили с такими фотографиями, чтобы отслеживать иностранные цели через социальные сети.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Эти так называемые «дипфейки» (от англ. deep fake, то есть «фальшивка») уже получили широкое распространение в повседневной культуре. А потому исследователи считают, что люди должны лучше знать, как они используются в маркетинге, рекламе и социальных сетях. Подобные изображения также используются в злонамеренных целях, таких как политическая пропаганда, шпионаж и информационная война.

На что способны нейросети

Для создания несуществующих лиц используется так называемая глубокая нейронная сеть, компьютерная система, которая имитирует способ обучения человеческого мозга. Она «обучается» по мере того, как специалисты в ее базу данных все больше фотографий реальных людей и заставляют алгоритм раз за разом выдавать все более качественный результат.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По сути, две глубокие нейронные сети настроены друг против друга, соревнуясь в создании наиболее реалистичных изображений. В результате конечные продукты называются «образами GAN», где GAN расшифровывается как Generative Adversarial Networks. Этот процесс генерирует новые изображения, которые статистически неотличимы от обучающих снимков.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
На этой картинке нет реальных людей — всех их нарисовал алгоритм
На этой картинке нет реальных людей — всех их нарисовал алгоритм
NVIDIA/thispersondoesnotexist.com
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В новом исследовании, опубликованном в iScience, ученые показали, что неспособность отличить искусственные лица от настоящих влияет на наше поведение в сети. Работа продемонстрировала, что поддельные изображения могут подорвать наше доверие к другим людям и коренным образом изменить то, как мы общаемся в Интернете.

Проблема личного восприятия

Команда обнаружила, что люди воспринимали лица GAN как более реалистичные, чем настоящие фотографии лиц реальных людей. Хотя пока неясно, почему именно это происходит, это открытие подчеркивает последние достижения в технологии, используемой для создания искусственных изображений.

Исследователи также обнаружили интересную связь с привлекательностью: лица, которые были оценены как менее привлекательные, также кажутся нам более реалистичными. Менее привлекательные лица воспринимаются как нечто типичное, потому что они больше похожи на ментальные шаблоны, которые люди выстраивают в процессе повседневной жизни. В самом деле — согласитесь, нас редко окружают исключительно фотомодели.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В психологии термин «мониторинг реальности» используется для того, чтобы правильно определить, исходит ли конкретное явление из внешнего мира или является продуктом нашего собственного сознания. Развитие технологий, которые могут создавать поддельные, но очень реалистичные лица, изображения и видеозвонки, по мнению ученых означает, что мониторинг реальности должен основываться на информации, которая подкреплена не только нашими собственными суждениями.