Стремительное распространение дипфейков и текстов, созданных нейросетями, породило новый вид мошенничества. Профессиональные фактчекеры обнаружили сеть сервисов, которые намеренно выдают ложные результаты проверки, пишет AFP.
ИИ «опознают» текст, как созданный ИИ, и предлагают его «очеловечить» за плату

Инструменты JustDone AI, TextGuard и Refinely тестировались на разных языках, включая английский, греческий и венгерский. В каждом случае сервисы находили высокий процент «искусственного» вмешательства даже в классической литературе начала XX века. Система работает по коварной схеме: пользователю показывают пугающий отчет о том, что его текст якобы на 80-90% написан роботом, а затем предлагают за плату «очистить» его от следов ИИ.
Мошенники обещают сделать текст на 100% уникальным, требуя за подписку около 10 долларов. Анализ показал, что некоторые из этих программ работают даже без доступа к облаку, что прямо указывает на использование заранее прописанных сценариев вместо реальных алгоритмов анализа.
Опасность «дивиденда лжеца»
Подобные инструменты становятся мощным оружием в руках дезинформаторов. В некоторых странах проправительственные активисты использовали скриншоты сомнительных детекторов, чтобы дискредитировать программу оппозиции, называя ее полностью сгенерированной нейросетью.
Это явление эксперты называют «дивидендом лжеца», когда подлинный контент объявляется подделкой для подрыва доверия. Дебора Вебер-Вульфф, исследовательница из Германии, изучающая инструменты обнаружения, отмечает: «Это не детекторы ИИ, а мошеннические схемы для продажи инструментов "гуманизации", которые зачастую просто заменяют слова на бессмысленный жаргон».
В результате страдает не только репутация отдельных людей, но и вся экосистема проверки информации. Студенты и ученые оказываются в зоне риска, так как мошенники прикрываются названиями престижных вузов для привлечения аудитории. Но необходимо помнить, что даже качественные технологии обнаружения не дают полной гарантии обнаружения ИИ-фейка, что делает опору исключительно на онлайн-сервисы опасной стратегией в борьбе с цифровой ложью — человек по-прежнему нужен, хотя и он ошибается.


