Как спасти свой голос от похищения: новая защита от дипфейков

Ученые из Инженерной школы Маккелви Вашингтонского университета в Сент-Луисе, разработали инструмент ИИ под названием AntiFake — новый защитный механизм, предназначенный для предотвращения несанкционированного синтеза речи и противоправного использования голоса человека. AntiFake так меняет голос человека, что мошенническое ИИ не может его использовать, а люди никаких изменений не слышат.
Как спасти свой голос от похищения: новая защита от дипфейков
Public Domain
Кража голоса, то есть использование вашего голоса в мошеннических целях, вполне реальна сегодня. И надо учиться от этого защищаться.

Недавние достижения в области генеративного искусственного интеллекта стимулировали развитие реалистичного синтеза речи. Хотя эта технология потенциально может улучшить жизнь благодаря персонализированным голосовым помощникам и средствам связи, повышающим доступность, она также привела к появлению дипфейков, в которых синтезированная речь может использоваться не по назначению для обмана людей и машин в гнусных целях.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Ученые из Инженерной школы Маккелви Вашингтонского университета в Сент-Луисе, разработали инструмент ИИ под названием AntiFake — новый защитный механизм, предназначенный для предотвращения несанкционированного синтеза речи и противоправного использования голоса человека.

Тот кто нам мешает, нам поможет

Схема работы приложения Antifake
Схема работы приложения Antifake
https://dl.acm.org/doi/10.1145/3576915.3623209
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Традиционные методы обнаружения дипфейков, которые используются для оценки и обнаружения синтетического звука, начинают работу уже после того, как голос похищен и используется дипфейком. AntiFake работает не так. Он предотвращает синтез речи, затрудняя инструментам ИИ считывание необходимых характеристик из голосовых записей.

«AntiFake гарантирует, что когда мы публикуем голосовые данные, преступникам будет сложно использовать эту информацию для синтеза наших голосов», — говорит соавтор работы Нин Чжан. — «AntiFake использует технику состязательного искусственного интеллекта, которая изначально была частью набора инструментов киберпреступников, но теперь мы используем ее для защиты от них. Мы лишь немного искажаем записанный аудиосигнал, возмущаем его ровно настолько, чтобы для людей-слушателей отличия были неуловимы, но для ИИ голос звучал совершенно по-другому».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Чтобы гарантировать, что AntiFake сможет противостоять постоянно меняющимся инструментам потенциальных злоумышленников и неизвестным моделям синтеза, ученые создали инструмент, который способен развиваться и разбираться в новых моделях. Они протестировали его на пяти современных моделях синтеза речи. AntiFake достиг уровня защиты более 95% даже от ранее неизвестных ему коммерческих приложений. Ученые также протестировали удобство использования AntiFake с участием 24 человек, чтобы подтвердить, что инструмент технически доступен.

Защита голоса

В настоящее время AntiFake может защищать короткие фрагменты речи, нацеленные на наиболее распространенный тип имитации голоса. Но, по словам Чжана, ничто не мешает расширению этого инструмента для защиты более длинных записей или даже музыки в продолжающейся борьбе с дипфейками.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Защита голоса становится насущной проблемой
Защита голоса становится насущной проблемой
Unsplash

«В конечном счете мы хотим полностью защищать наши голоса», — говорит Чжан. — «Хотя я не знаю, что будет дальше с голосовыми технологиями искусственного интеллекта — новые инструменты и функции разрабатываются постоянно, — я все же думаю, что наша стратегия использования методов злоумышленников против них самих будет по-прежнему эффективной. ИИ остается уязвимым для состязательных атак. Мы сможем сохранить эту стратегию как выигрышную».