ИИ «опознают» текст, как созданный ИИ, и предлагают его «очеловечить» за плату

ИИ-детекторы часто ошибаются, а многие онлайн-сервисы намеренно завышают процент «машинного» текста. В ходе расследования, проведенного агентством AFP, были выявлены инструменты, которые называют подлинные работы ИИ-фейками, чтобы затем продать услугу «гуманизации» контента.
Владимир Губайловский
Владимир Губайловский
ИИ «опознают» текст, как созданный ИИ, и предлагают его «очеловечить» за плату
Появление множества мошеннических ИИ-детекторов — якобы инструментов для обнаружения произведений искусственного интеллекта — грозит созданием еще одного уровня онлайн-мошенничества. Unsplash
«Дивиденд лжеца». Так часто характеризуют ситуацию, когда само существование технологий ИИ помогает политикам и мошенникам избегать ответственности. Теперь любой человек, уличенный в чем-либо неподобающем или постыдном на подлинной видеозаписи или в документе, может просто заявить: «Это сгенерировал компьютер». Ложные детекторы подкрепляют эту тактику, предоставляя «цифровые доказательства» там, где их на самом деле нет, что окончательно размывает границу между правдой и вымыслом.

Стремительное распространение дипфейков и текстов, созданных нейросетями, породило новый вид мошенничества. Профессиональные фактчекеры обнаружили сеть сервисов, которые намеренно выдают ложные результаты проверки, пишет AFP.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Инструменты JustDone AI, TextGuard и Refinely тестировались на разных языках, включая английский, греческий и венгерский. В каждом случае сервисы находили высокий процент «искусственного» вмешательства даже в классической литературе начала XX века. Система работает по коварной схеме: пользователю показывают пугающий отчет о том, что его текст якобы на 80-90% написан роботом, а затем предлагают за плату «очистить» его от следов ИИ.

Мошенники обещают сделать текст на 100% уникальным, требуя за подписку около 10 долларов. Анализ показал, что некоторые из этих программ работают даже без доступа к облаку, что прямо указывает на использование заранее прописанных сценариев вместо реальных алгоритмов анализа.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Опасность «дивиденда лжеца»

ИИ-детектор.
ИИ-детектор. https://vocal.media
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Подобные инструменты становятся мощным оружием в руках дезинформаторов. В некоторых странах проправительственные активисты использовали скриншоты сомнительных детекторов, чтобы дискредитировать программу оппозиции, называя ее полностью сгенерированной нейросетью.

Это явление эксперты называют «дивидендом лжеца», когда подлинный контент объявляется подделкой для подрыва доверия. Дебора Вебер-Вульфф, исследовательница из Германии, изучающая инструменты обнаружения, отмечает: «Это не детекторы ИИ, а мошеннические схемы для продажи инструментов "гуманизации", которые зачастую просто заменяют слова на бессмысленный жаргон».

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
Подумай.
Подумай. https://punchng.com/

В результате страдает не только репутация отдельных людей, но и вся экосистема проверки информации. Студенты и ученые оказываются в зоне риска, так как мошенники прикрываются названиями престижных вузов для привлечения аудитории. Но необходимо помнить, что даже качественные технологии обнаружения не дают полной гарантии обнаружения ИИ-фейка, что делает опору исключительно на онлайн-сервисы опасной стратегией в борьбе с цифровой ложью — человек по-прежнему нужен, хотя и он ошибается.