26 декабря 2025 г.

Выражение «что-то там — это новая нефть» употребляли за последние годы так часто, к месту и нет, что указание на непреходящую ценность ископаемого энергоносителя (и, шире, энергии как таковой) воспринимается уже как трюизм. А поскольку роль генеративного ИИ в глобальной экономике неуклонно возрастает — в отсутствие электропитания облачные серверы, благодаря которым тот функционирует, работать не будут, — проблемы энергетики в 2025 г. оказались для мировой ИТ-отрасли едва ли не ключевыми.

Уже в конце 2024 г. в США, согласно официальному отчёту, на питание дата-центров уходило 4,4% суммарной энергетической выработки страны. За 2025-й ситуация только усугубилась: одно лишь обучение GPT-4, до недавнего времени основной «рабочей лошадки» OpenAI, потребовало 50 ГВт·ч электроэнергии, — чего хватило бы на питание целого Сан-Франциско на протяжении трёх суток. Инференс же (inference) — обработка пользовательских запросов к уже натренированной модели — на протяжении жизненного цикла очередной версии коммерческого ИИ по энергетическому бюджету превосходит этап обучения по меньшей мере на порядок.

По оценке Goldman Sachs, ближе к исходу 2025 г. доля энергетического бюджета США, что уходит на питание ЦОДов, выросла до 6% — и к 2030-му увеличится, судя по всему, до 11%. Пока на эту страну приходится 44% общемировых энергозатрат на дата-центры; больше, чем расходуют КНР, Евросоюз, Япония, Южная Корея и Индия вместе взятые. Но перемены уже грядут: те же аналитики предупреждают, что Китай — которому по политическим причинам отрезали доступ к самым передовым полупроводниковым разработкам — не только развивает суверенную чипмейкерскую отрасль, но и методично накапливает энергетические мощности.

И когда так или иначе материковые китайские производители уверенно освоят хотя бы «5-нм» технологический процесс — а время это уже не за горами, — к услугам перспективных дата-центров, заполняемых собранными на соответствующих чипах ИИ-серверами местной выделки, окажутся в 2030 г. около 400 ГВт свободных энергетических мощностей. Такой роскоши ни США, ни другие соперники КНР в ИИ-гонке позволить себе со всей очевидностью не смогут, — разве только в России огромное разнообразие источников энергии обеспечит адекватную почву для развития сопоставимой вычислительной инфраструктуры. Правда, для той потребуются, опять-таки, соответствующие чипы, желательно суверенные, — но это уже вопрос особый.

Глава Nvidia Жэньсюнь Хуан (Jensen Huang) прямо предупреждал ближе к исходу 2025-го, что именно нехватка энергогенерации — точнее, недостаточность темпов, которыми вводятся в строй новые её мощности, — грозит сильнее всего помешать США удерживать за собой бесспорное пока первенство в глобальной ИИ-гонке. И это проблема не одного только Западного полушария: в Лондоне уже откладывают возведение новых жилых домов из-за невозможности обеспечить им адекватное энергоснабжение — что, в свою очередь, стало следствием резкого ускорения ввода в строй новых дата-центров.

В Голландии (в той самой, где базируется компания ASML, единственный в мире производитель самых передовых фотолитографов для микроэлектронных производств) 12 тыс. коммерческих потребителей ожидают своей очереди на подключение к электросетям — страна уже сегодня расходует больше энергии, чем совсем недавно планировалось производить в 2030 г. Уже к 2027-му, подсчитали в Германии, суммарное потребление энергии ИИ-моделями в мире (для тренировки и инференса в совокупности) достигнет 134 ТВт·ч. В McKinsey подчёркивают, что уже сегодня энергопотребление типичной стойки в среднем по миру ЦОДе выросло с прежних единиц кВт до 30, а кое-где и до 150 кВт, — а ведь столь «горячее железо» требует дополнительных расходов на охлаждение, что кратно увеличивает энергетический бюджет дата-центра.

Исследователи из PJM Interconnection предупреждают, что всего-то лет через пять свободной электроэнергии в мире (даже с учётом накапливаемых в КНР мощностей) перестанет хватать для обеспечения работы ориентированных на ИИ дата-центров. А значит, разработчикам придётся корректировать свои подходы к дальнейшему развитию искусственного интеллекта; возможно, переключаясь с генеративных архитектур, задействующих многослойные нейронные сети с триллионами рабочих параметров, на какие-то более экономичные — точнее, энергоэффективные — стратегии.


Источник: Максим Белоус, IT Channel News