Ненасытный интеллект: сколько электроэнергии потребляют нейросети

Создание искусственных интеллектов следующих поколений, еще более масштабных, сложных и точных, столкнулось с неожиданным препятствием: их работа требует так много электричества, что существующие мощности могут просто не справиться с генерацией.
Федор Соннов
Федор Соннов
Ненасытный интеллект: сколько электроэнергии потребляют нейросети
Generated by techinsider.ru using AI

Узкое горлышко

Чем крупнее, тем «умнее» становятся нейросети. При обучении они перерабатывают огромные массивы данных, настраивая миллиарды, а то и триллионы своих внутренних переменных. Чем больше у модели таких параметров, тем проще ей находить закономерности и связи. Вышедшая в 2018 году GPT-1 использовала 117 млн переменных, GPT-2 — около 1,5 млрд, а в GPT-4, по некоторым данным, их более 1,7 трлн. Однако по мере увеличения размеров нейросети оказываются все более «прожорливыми»: если обучение GPT-2 обошлось компании OpenAI всего в 50 тысяч долларов, то на GPT-4 пришлось потратить уже более 100 млн.

Ведущие разработчики ИИ активно инвестируют в энергетическую инфраструктуру для собственных нужд. Google и Amazon Web Services запустили проекты по строительству атомных реакторов специально для питания своих серверов. А корпорация Microsoft и вовсе анонсировала возведение термоядерной электростанции Helion, которая обеспечит ее вычислительные мощности в штате Вашингтон.

Деньги нужны на инфраструктуру и работу дата-центров, питание и охлаждение десятков и сотен тысяч графических процессоров. Энергетические затраты, как и финансовые, растут экспоненциально. Эксперты подсчитали, что для подготовки GPT-4 было затрачено 51–62 ГВт*ч — такого количества электроэнергии мегаполису Сан-Франциско хватило бы на несколько дней.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По данным Международного энергетического агентства (МЭА), на вычисление и хранение данных сегодня уходит до 1,5% всей мировой электроэнергии. В США эта цифра уже достигла 4,4%; ожидается, что к 2028 году она вырастет до 12%. Однако новые огромные дата-центры для будущих нейросетей грозят сделать ситуацию куда более напряженной. В Вайоминге запланировано строительство дата-центра, который будет поглощать до 87,6 ТВт·ч в год — в пять раз больше, чем все жители штата, вместе взятые, и вдвое больше текущих возможностей генерации.

«Ненасытный спрос ИИ на электроэнергию опережает десятилетние циклы развития энергосистемы, создавая критическое "узкое горлышко"»
доклад агентства Goldman Sachs

По капле

Энергия расходуется не только на обучение нейросети, но и на ее использование, то есть на обработку запросов. Каждая такая задача требует не слишком много ресурса, но если их приходится решать миллионами, непрерывным потоком, то цифры становятся весьма значительными.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
компьютеры, искусственный интеллект, провода
Generated by techinsider.ru using AI

По данным исследователей Университета Карнеги – Меллона, типичный текстовый запрос требует всего 0,47 Вт*ч, но в месяц GPT-4, обрабатывающий порядка 1,2 млрд подобных задач, потратит более 550 МВт*ч. Генерация изображений еще более затратна: согласно тому же докладу, на создание одной картинки требуется примерно столько же энергии, сколько на зарядку смартфона. К сожалению, точная оценка энергопотребления конкретных языковых моделей затруднена, поскольку компании разработчики не спешат раскрывать информацию.

Актуальной официальной статистики по потреблению электроэнергии системами ИИ в России, к сожалению, нет. По оценкам экспертов компании Gbig Holdings, за 2025 год оно составит 8–12 ТВт*ч — менее 1% от общей генерации. При консервативном (самом вероятном) сценарии к 2030 году нейросети будут расходовать 30–50 ТВт*ч, а при агрессивном (предусматривающем активное внедрение ИИ в промышленности и государственном управлении) — до 80–100 ТВт*ч. Все это пока сравнительно невысокий уровень, неспособный опасно перегрузить энергосистему страны или потребовать серьезных инвестиций в ее развитие.

Летом 2025 года глава OpenAI Сэм Альтман сообщил, что один запрос к GPT-4 требует 0,34 Вт*ч, а корпорация Google заявила, что на каждое обращение к ее модели Gemini расходуется 0,24 Вт*ч. И хотя названные цифры невелики, рядовые пользователи уже начали сталкиваться с ограничениями на использование нейросетей или платным доступом к ним. С другой стороны, проблема стимулирует разработчиков учитывать и новый, прежде не столь важный фактор — «энергетическую стоимость» создания и эксплуатации моделей. Недаром китайская DeepSeek стала таким заметным событием: предлагая многие функции «настоящих» масштабных нейросетей, она потребляет в 2–2,5 раза меньше ресурсов.