Дипфейковые голоса сбивают с толку: люди с трудом отличают фальшь от настоящего

Дожили: люди практически перестали отличать голоса реальных людей от сгенерированных с помощью ИИ. Если поначалу искусственные голоса звучали характерно, были плоскими и откровенно машинными, то теперь роботы научились говорить не хуже людей, что придает им убедительности.
Татьяна Афонина
Татьяна Афонина
Редактор Techinsider.ru
Дипфейковые голоса сбивают с толку: люди с трудом отличают фальшь от настоящего
Freepik
А это уже опасно: клонирование чужого голоса открывает мошенникам невероятный простор для фантазии.

Но чтобы оценить масштаб бедствия, исследователи из Великобритании провели эксперимент. Они предложили участникам прослушать записи 80 голосов, половина из которых была сгенерирована искусственным интеллектом. Задачей добровольцев было определить, какие из образцов представляли собой голоса реальных людей.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

В итоге 58% добровольцев приняли искусственные голоса за реальные. При этом настоящие голоса показались таковыми лишь 62% участников, остальные искали подвох там, где его не было.

звуковые волны
Freepik

Последствия развития технологий

Исследователи обращают внимание на то, что такая тенденция может обернуться серьезными последствиями. Одна из главных опасностей – использование дипфейковых голосов для вымогательства. Злоумышленники могут, например, подделать голос руководителя и убедить сотрудников перевести деньги или раскрыть конфиденциальную информацию.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

С помощью этой технологии можно распространять ложную информацию или осуществлять кибератаки, что уже становится серьезной проблемой для бизнеса и государственных структур.

разговор с роботом
Freepik

На фоне всего этого подрывается уровень доверия в обществе, поскольку аудиозапись перестает быть гарантией или доказательством чего-либо. А в результате даже сгенерированные исключительно для развлечения дипфейковые голоса могут стать инструментами преступлений, нарушая безопасность и приватность людей.

Поэтому важно развивать не только саму технологию, которая уже заметно продвинулась вперед, судя по результатам исследования, но и системы защиты и регулирования использования этой технологии, чтобы минимизировать ее потенциальный вред.