Влияние ИИ на медиапроцессы уже невозможно игнорировать — оно чувствуется и на уровне потребителя, и в самих механиках создания контента. Особенно остро это проявилось в индустрии развлечений, где технологии начинают менять профессии. Отсюда — и новые возможности, и конфликты: от протестов в Голливуде до опыта с цифровыми двойниками. Эксперименты с технологиями приносят как пользу, так и трудовые конфликты.
Генерации, дипфейки и лента рекомендаций: эксперт рассказал, что происходит с медиасферой в эпоху нейросетей

ИИ в кадре и за кадром
Результатом протестов Гильдии сценаристов Америки (WGA) и профсоюза актеров SAG-AFTRA стало компромиссное решение. ИИ можно использовать как вспомогательный инструмент, но не как замену творческой работы: студии не могут рассматривать сгенерированные сценарии как основу для адаптации, а без прямого согласия актера и оплаты любое использование его цифрового двойника невозможно.
Меры, конечно, несовершенные, однако они закрепили важный принцип: ни создатели контента, ни исполнители не могут быть вытеснены искусственным интеллектом. Это отражает и более широкий сдвиг в индустрии: ИИ становится все более совершенным, пригодным для выполнения сложных творческих задач.
Тем не менее, споры продолжаются. Один из резонансных кейсов — заставка к сериалу Marvel Secret Invasion, полностью сгенерированная ИИ. Несмотря на заявления студии, что никто из художников не лишился работы, а заставка была лишь стилистическим решением, реакция сообщества оказалась резко негативной: использование нейросетей в творческих ролях до сих пор воспринимается как угроза профессии.

Экономический эффект значителен: мировой рынок ИИ в медиа и развлечениях оценивался в почти 26 млрд долларов в 2024 году и, по прогнозам, вырастет почти вчетверо — до 99 млрд долларов к 2030 году. Лидером остается Северная Америка (примерно треть рынка в 2024), но регион Азии и Тихоокеанского бассейна быстро набирает обороты.
Алгоритм знает, что вы посмотрите дальше
ИИ меняет не только то, как создается контент, но и как он потребляется. По сути, именно рекомендательные алгоритмы решают, что человек увидит, услышит или прочитает.
Наиболее показательный пример — TikTok с лентой For You, которая анализирует поведение пользователя и предлагает персонализированный бесконечный поток контента. Успех платформы во многом объясняется именно точностью алгоритма. В отличие от более старых алгоритмов, которые опирались только на лайки, площадка тестирует контент в реальном времени, непрерывно обучаясь. Считается, что именно персонализированный ИИ-контент — это основной фактор, обеспечивший стремительный успех TikTok.
Netflix и Spotify развивают похожие механизмы: они обучаются на истории просмотров и прослушиваний, предлагая контент «по теме» и удерживая внимание. Так, компания Netflix одной из первых начала анализировать паттерны просмотров, чтобы предлагать фильмы, которые с высокой вероятностью понравятся конкретному пользователю. К 2024 году эти рекомендательные системы стали еще более продвинутыми, а система рекомендаций экономит для компании миллиарды на удержании пользователей.
При этом пользователи привыкли, что приложения «понимают» их вкусы. Но алгоритмическое влияние на общественное мнение вызывает все больше споров. В США обсуждают, как платформы распространяют дезинформацию через ИИ. В Китае, где агрегатор Toutiao формирует повестку для миллионов, власти настаивают на прозрачности алгоритмов и продвижения «позитивного» контента. С 2022 года разработчики обязаны регистрироваться и раскрывать, как работают их системы.
Тем временем появляются ИИ-системы нового поколения, которые пробуют учитывать не только историю кликов, но и настроение, социальный контекст — и потенциально смогут формировать индивидуальные новостные сводки в режиме реального времени. Глава ИИ-направления агентства Reuters Джейн Барретт описала возможный сценарий: если человек едет в беспилотнике 22 минуты, ИИ может собрать для него персональный новостной выпуск — ровно на это время и по интересующим темам.

Кто ответит за последствия?
Рост влияния ИИ в медиа поставил перед индустрией серьезные этические и управленческие вопросы. Главные опасения — это распространение дезинформации и дипфейков. ИИ сегодня способен создавать невероятно реалистичный фейковый контент: от поддельных изображений и видео с людьми, якобы говорящими то, чего они никогда не говорили, до целых статей в стиле известных изданий. Это представляет прямую угрозу достоверности информации, а значит, подрывает и базовое доверие к медиа как институту: пользователю все труднее отличить подделку от реальности.
Нередко подобные цифровые инструменты используют для манипуляции политическими кампаниями. На такие вызовы медиаиндустрия реагирует разработкой этических стандартов и инструментов верификации. Во многих редакциях сотрудников обучают выявлению фейков и проверке источников. Такие агентства, как Reuters и AP, ввели жесткие правила: любой ИИ-контент должен быть отмечен как созданный машиной и использоваться только в иллюстративных целях. Принцип прозрачности набирает популярность: по результатам исследований, большинство американцев хочет, чтобы редакции открыто указывали участие ИИ в создании материалов.
Китай занял особенно жесткую позицию. С января 2023 года в стране действует правило: весь ИИ-контент, способный ввести в заблуждение, должен быть явно помечен. Поставщики генеративных моделей обязаны встраивать водяные знаки и метаданные в изображения и видео. С конца 2024 года маркировка стала обязательной и постоянной — она должна сохраняться при любом использовании контента. Платформы и пользователи несут ответственность: если кто-то публикует неотмеченные материалы, площадка обязана выявить и промаркировать их.
Что касается российского опыта, в видеохостинге Rutube на уровне премодерации уже работает распознавание дипфейков. Пока такие технологии не получили широкого распространения, но платформа отслеживает их появление и своевременно реагирует.
Западные страны действуют более осторожно: Евросоюз утвердил закон об ИИ (AI Act), который поэтапно вступает в силу с 2025 года. Он обязывает указывать происхождение ИИ-контента, маркировать сгенерированные изображения и раскрывать, если чат-бот имитирует человека. Закон также вводит запрет на ряд высокорисковых практик.
В США власти давят на компании, требуя саморегулирования. В сентябре 2023 года Белый дом добился от OpenAI и других IT-гигантов обещания встраивать водяные знаки в ИИ-контент, где это возможно. В Калифорнии рассматривается закон, обязывающий маркировать ИИ-контент и предоставлять пользователям средства его распознавания, который должен вступить в силу в 2026 году. Нарушителям грозят штрафы.

Очевидно, международный опыт внедрения ИИ в медиа динамичен, но неоднозначен. США и Китай демонстрируют контраст: американская медиасреда строится на открытых инновациях, но сталкивается с этическими вызовами и трудовыми конфликтами, тогда как КНР стремительно внедряет ИИ, но под контролем государства.
Период 2024-2025 — поворотный. Генеративный ИИ окончательно перестал быть «игрушкой» и стал рабочим инструментом. Это неизбежно трансформирует медиаотрасль. Будущее баланса между пользой и рисками ИИ будет определяться через инновации, регулирование и, главное, присутствие человека — и в отечественном опыте тоже.
В российских реалиях ИИ помогает решать конкретные задачи — но каждый такой инструмент должен быть встроен осознанно: не ради моды, а ради повышения эффективности.