Нейросеть Gemini научилась верифицировать ИИ-контент

Google расширила возможности своей системы проверки искусственного интеллекта Gemini, добавив функцию определения видео, которые были созданы или отредактированы с помощью собственных AI-моделей компании. Смотрим!
Юлия Мискевич
Юлия Мискевич
Редакция
Нейросеть Gemini научилась верифицировать ИИ-контент
www.theverge.com
Компания Google добавила в свое приложение Gemini новую функцию, которая позволяет проверять, создано ли видео с помощью искусственного интеллекта.

Теперь достаточно загрузить ролик и спросить: «Было ли это создано с помощью Google AI?» — и нейросеть просканирует его на наличие скрытой цифровой метки.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Метка называется SynthID — это невидимый водяной знак, который Google встраивает во все видео и аудио, созданные ее ИИ. Gemini может точно указать, в какие моменты ролика появляется этот скрытый «штамп». Ранее этой функцией можно было проверять фото.

Apple SPb Event

Правда, есть нюансы. Как выяснилось, при запуске видео-генератора Sora от OpenAI, некоторые водяные знаки можно относительно легко удалить. Google утверждает, что SynthID «незаметен», но насколько он устойчив к редактированию — пока неизвестно.

Также непонятно, смогут ли другие платформы (например, соцсети) научиться автоматически обнаруживать эту метку и помечать контент как созданный ИИ.

Пока единого стандарта маркировки AI-контента не существует. Изображения, созданные в Gemini, содержат метаданные C2PA, но в социальных сетях их часто игнорируют. Из-за этого дипфейки и поддельные видео могут распространяться без каких-либо предупреждений.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Gemini принимает для проверки видео размером до 100 МБ и длительностью до 90 секунд. Функция доступна во всех странах, где работает приложение, и на всех языках.

The Boston Globe

Да, Google делает шаг к прозрачности в мире AI-контента. Правда, пока это работает только для материалов, созданных именно с помощью инструментов Google. Но если другие компании подхватят инициативу, возможно, скоро мы сможем проверять происхождение любого подозрительного ролика одним нажатием (но с помощью нейросети — ха-ха).

Осталось только научиться доверять самому ИИ, который проверяет другие ИИ. Круг замкнулся.