Популярность ИИ продолжает расти, но вместе с ней растет и тревога. Исследования уже показывали: если генеративные модели учатся на данных, созданных другими ИИ, они начинают деградировать.
Как переизбыток ИИ-контента может «убить» интернет? Вот почему нужно развивать ИИ-гигиену


Как ИИ может убить интернет
Ученые обнаружили, что уже на пятом цикле «самообучения» ИИ-ответы становятся заметно хуже, а к девятому — полностью теряют смысл.
Алгоритм буквально «засоряет» сам себя и перестает распознавать даже базовые закономерности. Это особенно опасно, учитывая, что уже сегодня большая часть контента онлайн создается машинами. Например, в прошлые годы предсказывалось, якобы в 2025 году ИИ должен производить до 90% интернет-текстов.
Если тренд сохранится, ИИ будет обучаться на искаженной, низкокачественной информации — и со временем не сможет отличать реальность от вымысла. Эксперты уверены, что проблема уже очевидна: от переведенных машиной статей до искаженных описаний википедий.

Почему ИИ может деградировать
Суть деградации в том, что ИИ теряет доступ к «минорным» данным — менее распространенным фактам и объектам. Например, редкие породы собак исчезают из выборки, уступая место популярным в ответах от ИИ-алгоритмов.
Так, алгоритм запоминает лишь то, что повторяется, и постепенно сужает свое представление о мире. В итоге — искажение, обобщение, «галлюцинации» и рост недостоверной информации.
- Чтобы избежать цифрового обнуления, некоторые специалисты предлагают обеспечить доступ ИИ к новым, оригинальным данным, которые будут создавать исключительно люди.
- Однако это сложно: с каждым днем становится труднее отделять тексты, написанные человеком, от машинных. Платформы запирают контент, авторские права ограничивают доступ, а объемы «искусственной информации» продолжают расти.
Пока решений нет. Возможно, интернету понадобится система верификации — вроде блокчейна или специальной «печати доверия» — чтобы отличать реальность от симуляции.