1 апреля 2026 г.

Пока рассматривали потенциальные проблемы с ИТ, возникли вполне реальные: об усложнении ситуации с инженерной инфраструктурой в дата-центрах сообщает РБК. Развитие ситуации идет довольно стремительно — сам факт того, что проблемы попали в медиа и их не удалось «замести под ковер», довольно показателен.

Пока эксперты говорят о небольшом количестве инцидентов — в пределах десятков — но при этом отмечают, что еще в прошлом году с таковыми они вообще не сталкивались. Оборудование положено заменять через 5-7 лет эксплуатации, причем даже при условии своевременного фирменного обслуживания — сертифицированными инженерами, при наличии запчастей и пр. Прецеденты были связаны с дата-центрами возраста более 10-15 лет, но более молодые площадки, для построения которых использовали импортозамещающее оборудование, тоже находятся в зоне риска или, как минимум, приближаются к ней. В ближайшие годы количество инцидентов будет расти, отмечают эксперты.

Важно понимать, что проблемы характерны не только для ряда крупных российских дата-центров, введенных в эксплуатацию в доковидные времена. Заметим, что «крупных» по российским меркам, разумеется, объектов, сравнимых с ЦОДами китайских или североамериканских гиперскейлеров, в рублевой зоне нет. Ситуация с износом инженерной инфраструктуры напрямую касается многих тысяч небольших площадок: серверных, которые начинают называть «малыми ЦОДами» — многие из них работают с давних времен.

Ситуация с «инженеркой» несколько похожа на рассмотренную ранее для вычислительных решений, с которыми тоже все непросто, но есть и существенные различия.

Устаревание серверов — риски для «завтра»...

В большинстве случаев возрастной сервер — проработавший более 5-7 лет — способен функционировать и за пределами этого периода. Конечно, такое древнее оборудование проблематично применять для перспективных нагрузок — обучения моделей, инференса, высокопроизводительных вычислений и пр.

Есть масса областей применения, для которых оно актуально. Пусть сервер будет морально устаревшим. Пусть он не будет в полной мере соответствовать требованиям ни по вычислительной мощности, ни по соотношению производительность/энергопотребление. Пусть его обслуживание окажется дороже из-за несовместимости с новейшими средствами администрирования и защиты информации (то есть часть операций придется выполнять вручную и/или при помощи разнообразных «костылей»). Пусть его надежность окажется несколько ниже, чем была, и поэтому данный модуль будет требовать повышенного внимания и контроля. Разумеется, и все это не лучшим образом скажется на ТСО, но сервер продолжит работать, его можно перепрофилировать на решение других задач, включить в состав кластеров, использовать в составе резервных вычислительных мощностей и т. д. — есть разные варианты применения (см. врезку).

Устаревание вычислительных решений создает проблемы для технологического развития, но имеющиеся задачи выполнять позволяет. С «инженеркой» все серьезней.

Старые серверные решения можно передать учебным заведениям, что внезапно может стать актуальным для лицензированных ИТ-компаний, большинство из которых не соответствуют обновленным государством требованиям по аккредитации, а именно по сотрудничеству с вузами, сообщают «Ведомости». Лишение аккредитации приведет к снятию ряда льгот как с компаний, так и с их сотрудников. Утрата прав на льготную ипотеку и «бронь» от призыва вызовет масштабное движение профильных специалистов на российском рынке труда и за его пределами, что создаст серьезнейшие проблемы у игроков (если не напрямую, то по «цепочке поставок»). Возможная передача вузам серверного оборудования проблему полностью, конечно, не решит, но местами может смягчить, что уже неплохо.

...запредельный износ «инженерки» — риски для «сегодня»

Инженерная инфраструктура дата-центров включает ряд подсистем, которые подвержены естественному износу. Проблемы в каждой из них ставят под угрозу штатное функционирование развернутого оборудования и, как следствие, операционную деятельность компаний, то есть создают риск здесь-и-сейчас.

Требующая замены отдельных блоков система резервного электропитания видимых проблем на протяжении какого-то времени может и не создать — перебои в электросетях случаются нечасто, но с другими инженерными системами ситуация более мрачная. Система пожаротушения, требующая замены, может и не создаст прямых проблем — пожары в ЦОДах все же редкость, — но проблемы с комплаенсом будут: пожарная охрана к нарушениям регламентов относится очень серьезно.

Перебои с системами вентиляции и кондиционирования быстро — в самом негативном варианте через в считанные часы после возникновения — отразятся на стабильности работы серверов и прочих систем дата-центра. Это оборудование — в силу наличия в его конструкции механических элементов — подвержено износу в процессе функционирования, поэтому именно оно находится в зоне риска. Конечно, при проектировании таких систем закладывали резервы по мощностям теплоотвода, а местами есть и резервирование, но соответствующие возможности имеют определенные пределы.

Если инженерное оборудование начнет работать неустойчиво — а при выработке ресурсов компонентов систем, отвечающих за теплоотвод, вероятность такого развития событий возрастает, — это создаст проблемы ЦОДу, как минимум, в размерах зала. Это способно привести к нестабильной работе, временной остановке или даже к выходу из строя серверов, размещенных на площадке. Для бизнес-процессов такая ситуация будет катастрофой — их непрерывность будет нарушена в непредсказуемых масштабах.

На первый взгляд, все просто...

Проблемы с «инженеркой» предсказуемы — они никак не могут быть «черными лебедями». С изменением энергопотребления серверов — а оно в пересчете на стойку демонстрирует рост на порядок и более — требования обновления инфраструктуры назревают уже давно. Более того, для решения этих проблем не нужны эвристические подходы — технологии давно доведены до тиражируемых инженерных решений.

Но серьезные проблемы начинаются на стадии реализации. Вопрос первый: где взять деньги? Денег потребуется много: комплексная замена «инженерки» в требуемых масштабах сравнима с созданием нового ЦОДа в уже имеющихся помещениях (формат «браунфилд»). Вопрос второй: где брать оборудование в таких масштабах? Напомним, что проблема охватывает как традиционные дата-центры, так и серверные — «малые ЦОДы» — которых у российских корпоративных заказчиков многие тысячи. Ответы тоже известны — организация внутри рублевой зоны производства того, что может быть произведено здесь, налаживание каналов «серого импорта» и поиск китайских производителей, — но все варианты обладают существенными внутренними рисками.

Но если первые два вопроса технически имеют ответы, то третий более серьезен: где размещать имеющееся оборудование на время проведения работ по замене «инженерки»? Времена, когда работающие серверы можно было «на пока» переместить в подсобку или разместить в коридоре, закончились лет 30 назад. Напомним, что резервной емкости «в стойках» у российского парка ЦОДов практически нет. Практически заполнены как имеющиеся стойки, так и «на корню» проданы в рамках фьючерсных арендных контрактов большинство стоек на площадках, которые готовят к сдаче только через несколько кварталов.

Вместо заключения

Российский ИТ-рынок «внезапно» — еще раз подчеркнем, что никакой внезапности нет, и что ситуация к «черным лебедям» отношения не имеет — столкнулся с широким спектром рисков, угрожающим функционированию ядра инфраструктуры. Проблема масштабна, охватывает широкий ряд аспектов как в ИТ, так и в сопредельных сегментах экономики (например, в страховом бизнесе).

Комплексного решения проблема не имеет — потому что ситуация сильно зависит от технических особенностей площадки, экономического состояния владельцев и пр., — но про кейсы, интересные в техническом плане или доступные для переноса и/или масштабирования, мы будем рассказывать по мере их появления.

Источник: Александр Маляревский, внештатный обозреватель IT Channel News