Генерации, дипфейки и лента рекомендаций: эксперт рассказал, что происходит с медиасферой в эпоху нейросетей

Что бы вы ни читали, ни смотрели и ни слушали в сети — во многих случаях за этим стоит алгоритм. Искусственный интеллект уже пишет тексты, озвучивает новости, рисует заставки и решает, что пользователь увидит следующим в своей ленте. В мире к этому относятся по-разному: пока в США бастуют против цифровых двойников, Китай развивает технологии искусственного интеллекта под контролем государства.
Сергей Косинский
Сергей Косинский
Эксперт
Генерации, дипфейки и лента рекомендаций: эксперт рассказал, что происходит с медиасферой в эпоху нейросетей
Freepik / Created with AI
Редакция Techinsider.ru спросила у заместителя генерального директора, руководителя цифровых активов «Газпром-Медиа Холдинга» Сергея Косинского, где проходит граница между помощником и заменой человека, кто контролирует эту трансформацию и что это значит для медиарынка будущего.
СергейКосинский
заместитель генерального директора, руководитель цифровых активов
«Газпром-Медиа Холдинга»

ИИ в кадре и за кадром

Влияние ИИ на медиапроцессы уже невозможно игнорировать — оно чувствуется и на уровне потребителя, и в самих механиках создания контента. Особенно остро это проявилось в индустрии развлечений, где технологии начинают менять профессии. Отсюда — и новые возможности, и конфликты: от протестов в Голливуде до опыта с цифровыми двойниками. Эксперименты с технологиями приносят как пользу, так и трудовые конфликты.

Так, в 2023 году голливудские студии начали использовать ИИ для спецэффектов, «омоложения» актеров и даже генерации сценариев — что вызвало протест как со стороны сценаристов, так и актеров.

Результатом протестов Гильдии сценаристов Америки (WGA) и профсоюза актеров SAG-AFTRA стало компромиссное решение. ИИ можно использовать как вспомогательный инструмент, но не как замену творческой работы: студии не могут рассматривать сгенерированные сценарии как основу для адаптации, а без прямого согласия актера и оплаты любое использование его цифрового двойника невозможно.

Мы как медиахолдинг тоже применяем ИИ в сценарной работе: генеративные модели, обученные на нашей собственной базе, помогают писать фрагменты сценариев — однако не истории целиком

Меры, конечно, несовершенные, однако они закрепили важный принцип: ни создатели контента, ни исполнители не могут быть вытеснены искусственным интеллектом. Это отражает и более широкий сдвиг в индустрии: ИИ становится все более совершенным, пригодным для выполнения сложных творческих задач.

Тем не менее, споры продолжаются. Один из резонансных кейсов — заставка к сериалу Marvel Secret Invasion, полностью сгенерированная ИИ. Несмотря на заявления студии, что никто из художников не лишился работы, а заставка была лишь стилистическим решением, реакция сообщества оказалась резко негативной: использование нейросетей в творческих ролях до сих пор воспринимается как угроза профессии.

ИИ-контент в соцсетях
Freepik / Created with AI
Тренд заметен и в Азии: там растут инвестиции в «виртуальных айдолов» и ИИ-инфлюенсеров. В Китае и Японии появляются виртуальные поп-звезды и стримеры на базе искусственного интеллекта.

Экономический эффект значителен: мировой рынок ИИ в медиа и развлечениях оценивался в почти 26 млрд долларов в 2024 году и, по прогнозам, вырастет почти вчетверо — до 99 млрд долларов к 2030 году. Лидером остается Северная Америка (примерно треть рынка в 2024), но регион Азии и Тихоокеанского бассейна быстро набирает обороты.

Алгоритм знает, что вы посмотрите дальше

ИИ меняет не только то, как создается контент, но и как он потребляется. По сути, именно рекомендательные алгоритмы решают, что человек увидит, услышит или прочитает.

Наиболее показательный пример — TikTok с лентой For You, которая анализирует поведение пользователя и предлагает персонализированный бесконечный поток контента. Успех платформы во многом объясняется именно точностью алгоритма. В отличие от более старых алгоритмов, которые опирались только на лайки, площадка тестирует контент в реальном времени, непрерывно обучаясь. Считается, что именно персонализированный ИИ-контент — это основной фактор, обеспечивший стремительный успех TikTok.

Netflix и Spotify развивают похожие механизмы: они обучаются на истории просмотров и прослушиваний, предлагая контент «по теме» и удерживая внимание. Так, компания Netflix одной из первых начала анализировать паттерны просмотров, чтобы предлагать фильмы, которые с высокой вероятностью понравятся конкретному пользователю. К 2024 году эти рекомендательные системы стали еще более продвинутыми, а система рекомендаций экономит для компании миллиарды на удержании пользователей.

Но у этой силы есть и обратная сторона: алгоритмы создают «информационные пузыри», усиливая искажения восприятия, а в ряде случаев — распространяют дезинформацию.

При этом пользователи привыкли, что приложения «понимают» их вкусы. Но алгоритмическое влияние на общественное мнение вызывает все больше споров. В США обсуждают, как платформы распространяют дезинформацию через ИИ. В Китае, где агрегатор Toutiao формирует повестку для миллионов, власти настаивают на прозрачности алгоритмов и продвижения «позитивного» контента. С 2022 года разработчики обязаны регистрироваться и раскрывать, как работают их системы.

Тем временем появляются ИИ-системы нового поколения, которые пробуют учитывать не только историю кликов, но и настроение, социальный контекст — и потенциально смогут формировать индивидуальные новостные сводки в режиме реального времени. Глава ИИ-направления агентства Reuters Джейн Барретт описала возможный сценарий: если человек едет в беспилотнике 22 минуты, ИИ может собрать для него персональный новостной выпуск — ровно на это время и по интересующим темам.

Ленты рекомендаций на основе нейросетей
Freepik / Created with AI

Такие идеи пока остаются экспериментами, но уже ясно: ИИ меняет саму логику медиапотребления, делая ее все более индивидуализированной и адаптивной к конкретному пользователю.

Кто ответит за последствия?

Рост влияния ИИ в медиа поставил перед индустрией серьезные этические и управленческие вопросы. Главные опасения — это распространение дезинформации и дипфейков. ИИ сегодня способен создавать невероятно реалистичный фейковый контент: от поддельных изображений и видео с людьми, якобы говорящими то, чего они никогда не говорили, до целых статей в стиле известных изданий. Это представляет прямую угрозу достоверности информации, а значит, подрывает и базовое доверие к медиа как институту: пользователю все труднее отличить подделку от реальности.

Нередко подобные цифровые инструменты используют для манипуляции политическими кампаниями. На такие вызовы медиаиндустрия реагирует разработкой этических стандартов и инструментов верификации. Во многих редакциях сотрудников обучают выявлению фейков и проверке источников. Такие агентства, как Reuters и AP, ввели жесткие правила: любой ИИ-контент должен быть отмечен как созданный машиной и использоваться только в иллюстративных целях. Принцип прозрачности набирает популярность: по результатам исследований, большинство американцев хочет, чтобы редакции открыто указывали участие ИИ в создании материалов.

Китай занял особенно жесткую позицию. С января 2023 года в стране действует правило: весь ИИ-контент, способный ввести в заблуждение, должен быть явно помечен. Поставщики генеративных моделей обязаны встраивать водяные знаки и метаданные в изображения и видео. С конца 2024 года маркировка стала обязательной и постоянной — она должна сохраняться при любом использовании контента. Платформы и пользователи несут ответственность: если кто-то публикует неотмеченные материалы, площадка обязана выявить и промаркировать их.

Что касается российского опыта, в видеохостинге Rutube на уровне премодерации уже работает распознавание дипфейков. Пока такие технологии не получили широкого распространения, но платформа отслеживает их появление и своевременно реагирует.

Западные страны действуют более осторожно: Евросоюз утвердил закон об ИИ (AI Act), который поэтапно вступает в силу с 2025 года. Он обязывает указывать происхождение ИИ-контента, маркировать сгенерированные изображения и раскрывать, если чат-бот имитирует человека. Закон также вводит запрет на ряд высокорисковых практик.

В США власти давят на компании, требуя саморегулирования. В сентябре 2023 года Белый дом добился от OpenAI и других IT-гигантов обещания встраивать водяные знаки в ИИ-контент, где это возможно. В Калифорнии рассматривается закон, обязывающий маркировать ИИ-контент и предоставлять пользователям средства его распознавания, который должен вступить в силу в 2026 году. Нарушителям грозят штрафы.

будет ли маркироваться ИИ-контент
Freepik / Created with AI

Очевидно, международный опыт внедрения ИИ в медиа динамичен, но неоднозначен. США и Китай демонстрируют контраст: американская медиасреда строится на открытых инновациях, но сталкивается с этическими вызовами и трудовыми конфликтами, тогда как КНР стремительно внедряет ИИ, но под контролем государства.

Период 2024-2025 — поворотный. Генеративный ИИ окончательно перестал быть «игрушкой» и стал рабочим инструментом. Это неизбежно трансформирует медиаотрасль. Будущее баланса между пользой и рисками ИИ будет определяться через инновации, регулирование и, главное, присутствие человека — и в отечественном опыте тоже.

В российских реалиях ИИ помогает решать конкретные задачи — но каждый такой инструмент должен быть встроен осознанно: не ради моды, а ради повышения эффективности.

Я сам предпочитаю называть искусственный интеллект в его нынешнем виде сотворцом