Статью можно прослушать

Как переизбыток ИИ-контента может «убить» интернет? Вот почему нужно развивать ИИ-гигиену

Алгоритмы питаются контентом, который создают другие алгоритмы. Базы и данные для ИИ все чаще становятся неоднозначными. Ученые уже фиксируют: искусственный интеллект может сам себя обнулить — и заодно убить интернет.
Юрий Гандрабура
Юрий Гандрабура
Журналист-переводчик
Как переизбыток ИИ-контента может «убить» интернет? Вот почему нужно развивать ИИ-гигиену
Love God &God Love You
Послушать текст

Популярность ИИ продолжает расти, но вместе с ней растет и тревога. Исследования уже показывали: если генеративные модели учатся на данных, созданных другими ИИ, они начинают деградировать.

Это явление назвали «коллапс модели». Его последствия могут затронуть не только технологии, но и саму суть цифровой информации.
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как ИИ может убить интернет

Ученые обнаружили, что уже на пятом цикле «самообучения» ИИ-ответы становятся заметно хуже, а к девятому — полностью теряют смысл.

Алгоритм буквально «засоряет» сам себя и перестает распознавать даже базовые закономерности. Это особенно опасно, учитывая, что уже сегодня большая часть контента онлайн создается машинами. Например, в прошлые годы предсказывалось, якобы в 2025 году ИИ должен производить до 90% интернет-текстов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Если тренд сохранится, ИИ будет обучаться на искаженной, низкокачественной информации — и со временем не сможет отличать реальность от вымысла. Эксперты уверены, что проблема уже очевидна: от переведенных машиной статей до искаженных описаний википедий.

Один из наглядных примеров — статья про готические шпили XIV века, которая через 9 циклов обучения ИИ превратилась в набор фраз о разноцветных зайцах.
Unsplash
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Почему ИИ может деградировать

Суть деградации в том, что ИИ теряет доступ к «минорным» данным — менее распространенным фактам и объектам. Например, редкие породы собак исчезают из выборки, уступая место популярным в ответах от ИИ-алгоритмов.

Так, алгоритм запоминает лишь то, что повторяется, и постепенно сужает свое представление о мире. В итоге — искажение, обобщение, «галлюцинации» и рост недостоверной информации.

  • Чтобы избежать цифрового обнуления, некоторые специалисты предлагают обеспечить доступ ИИ к новым, оригинальным данным, которые будут создавать исключительно люди.
  • Однако это сложно: с каждым днем становится труднее отделять тексты, написанные человеком, от машинных. Платформы запирают контент, авторские права ограничивают доступ, а объемы «искусственной информации» продолжают расти.

Пока решений нет. Возможно, интернету понадобится система верификации — вроде блокчейна или специальной «печати доверия» — чтобы отличать реальность от симуляции.

Иначе нас ждет не просто крах ИИ, а крах самой идеи истины в цифровом пространстве.