Google поставит невидимую вотермарку на изображения, созданные ИИ

Теперь на изображениях, сгенерированных ИИ, появится невидимый водяной знак. Такая технология поможет бороться с дипфейками.
Google поставит невидимую вотермарку на изображения, созданные ИИ
Unsplash

Технология называется SynthID, и она встраивает водяной знак в изображения, созданные нейросетью Imagen. Метку генерирует искусственный интеллект, на нее не влияют фильтры или цветокоррекция. SynthID также может сканировать изображения и определять вероятность того, что они были созданы Imagen.

Imagen — нейросеть Google, которая создает изображения по текстовому запросу.

Бета-версия программы пока доступна некоторым разработчикам платформы машинного обучения Vertex AI. Но Google планирует внедрять технологию как в свои продукты, так и в ПО других компаний.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

SynthID и борьба с дипфейками

В 2023 году число видеодипфейков выросло в три раза. Но программы, способные их распознать, еще не придумали.
В 2023 году число видеодипфейков выросло в три раза. Но программы, способные их распознать, еще не придумали.
Unsplash

Еще до того, как Дональду Трампу было предъявлено обвинение в суде, в сети появились фотографии с его ареста. А в последние месяцы в Европе стало вирусным изображение Папы Франциска в пуховике. Обе фотографии были сгенерированы ИИ, их тяжело отличить от реальных, но люди на них настоящие. Чем больше фейковых изображений появляется, тем сложнее их фильтровать и отличать произошедшие события от выдуманных.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

SynthID создана не для документации «авторского права» искусственного интеллекта, а для распознавания дипфейков, чем уже занимаются Truepic и Reality Defender. В мае Google впервые попыталась создать похожий инструмент — «Об этом изображении». Он предлагает пользователям узнать, когда фото впервые искали через Google, и на каком сайте оно появилось.

Но поскольку нейросети развиваются слишком быстро, неясно, смогут ли все эти технологии решить проблему дипфейков. OpenAI ранее в этом году признала, что даже обнаружить тексты, написанные ИИ, сложно, поэтому к любой информации стоит подходить критически.