Новостные агентства требуют, чтобы при обучении ИИ, не использовались тексты и изображения без разрешения

Консорциум новостных групп заявил, что компании, занимающиеся разработкой ИИ, должны запрашивать разрешение на использование защищенных авторским правом текстов и изображений для создания контента. Медиа-организации, включая AFP, Getty Images и Associated Press, заявили в открытом письме, что инструменты искусственного интеллекта разрушают их бизнес-модели, наполняют Интернет дезинформацией и нарушают законы об авторском праве.
Новостные агентства требуют, чтобы при обучении ИИ, не использовались тексты и изображения без разрешения
AFP

Когда вы вводите несколько слов и получаете готовую картинку, вы ведь понимаете, что ее нарисовал не Stable Diffusion. Он здорово научился складывать и вычитать изображения. Это немало. Но это еще не все. Без людей — художников и фотографов — генератор бессилен. А люди считают, что их труд должен быть оплачен.

Консорциум новостных групп заявил, что компании, занимающиеся разработкой искусственного интеллекта, должны запрашивать разрешение на использование защищенных авторским правом текстов и изображений при создании своего контента.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Медиа-организации, включая AFP, Getty Images и Associated Press, заявили в открытом письме, что инструменты искусственного интеллекта разрушают их бизнес-модели, наполняют Интернет дезинформацией и нарушают законы об авторском праве.

Такие инструменты искусственного интеллекта, как чат-бот ChatGPT и генераторы изображений DALL-E 2, Stable Diffusion и Midjourney, добились популярности благодаря своей способности генерировать огромное количество контента на основе всего лишь коротких текстовых запросов.

Однако компании, создавшие эти инструменты, в том числе OpenAI и Stability AI, уже столкнулись с судебными исками от художников, авторов и других лиц, утверждающих, что их работы были украдены.

Открытое письмо, опубликованное новостными организациями, включая European Pressphoto Agency и Gannett/U.S. TODAY, является последней попыткой повлиять на ход дискуссии со стороны организаций, которые многое теряют, если ИИ-компании продолжат беспрепятственно заимствовать материалы из Интернета.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Обещание использовать водяные знаки

Unsplash.com
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

«Генеративный ИИ и большие языковые модели позволяют любому субъекту, независимо от его намерений, производить и распространять синтетический контент в масштабах, значительно превышающих наш прошлый опыт», — пишут новостные агентства в открытом письме.

Они перечислили потенциальные проблемы, включая нарушение авторских прав, поток ложного или необъективного контента, и создание порочного круга, в котором медиагруппы не смогут больше финансировать журналистику для предоставления достоверной информации.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Организации заявили, что хотят стать частью решения проблемы, и призвали к переговорам по обеспечению легального доступа к контенту. Компании, занимающиеся разработкой искусственного интеллекта, привлекли миллиардные инвестиции, и все крупные технологические компании переориентировались на эту технологию, а Google и Microsoft заняли лидирующие позиции.

Крупнейшие компании в этой области создали несколько коалиций, в том числе Партнерство по ИИ (Partnership on AI) и Форум передовых моделей (the Frontier Model Forum), и в основном настаивают на саморегулировании. В июле они обязались принять такие меры, как нанесение водяных знаков на контент, связанный с ИИ, а также взяли на себя широкие обязательства по борьбе с дезинформацией, однако конкретных сроков и мер не назвали.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Решение вопроса об авторском праве, вероятно, еще более сложная и потенциально дорогостоящая проблема. В начале этого года компания Google провела публичные консультации в Австралии, чтобы призвать к введению в законодательство об авторском праве исключения «добросовестного отношения», специально для того, чтобы разрешить предоставление данных для обучения ИИ. Но новостные агентства не согласны с таким расширенным толкованием.