Но чтобы оценить масштаб бедствия, исследователи из Великобритании провели эксперимент. Они предложили участникам прослушать записи 80 голосов, половина из которых была сгенерирована искусственным интеллектом. Задачей добровольцев было определить, какие из образцов представляли собой голоса реальных людей.
Дипфейковые голоса сбивают с толку: люди с трудом отличают фальшь от настоящего

В итоге 58% добровольцев приняли искусственные голоса за реальные. При этом настоящие голоса показались таковыми лишь 62% участников, остальные искали подвох там, где его не было.

Последствия развития технологий
Исследователи обращают внимание на то, что такая тенденция может обернуться серьезными последствиями. Одна из главных опасностей – использование дипфейковых голосов для вымогательства. Злоумышленники могут, например, подделать голос руководителя и убедить сотрудников перевести деньги или раскрыть конфиденциальную информацию.
С помощью этой технологии можно распространять ложную информацию или осуществлять кибератаки, что уже становится серьезной проблемой для бизнеса и государственных структур.

На фоне всего этого подрывается уровень доверия в обществе, поскольку аудиозапись перестает быть гарантией или доказательством чего-либо. А в результате даже сгенерированные исключительно для развлечения дипфейковые голоса могут стать инструментами преступлений, нарушая безопасность и приватность людей.
Поэтому важно развивать не только саму технологию, которая уже заметно продвинулась вперед, судя по результатам исследования, но и системы защиты и регулирования использования этой технологии, чтобы минимизировать ее потенциальный вред.