Каталог товаров
0
Корзина
Пустая корзина

В корзине пока ничего нет

Вы можете начать свой выбор с нашего каталога товаров или воспользоваться поиском, если ищете что-то конкретное.

Выбрать товары
Итоговая стоимость
+
Отложенные
Пустая корзина

В корзине пока ничего нет

Вы можете начать свой выбор с нашего каталога товаров или воспользоваться поиском, если ищете что-то конкретное.

Выбрать товары
Итого

Инженерная база знаний: Термоменеджмент ЦОД, оптимизация PUE и архитектура жидкостного охлаждения

Сергей Коваль
Автор статьи: Сергей Коваль
(koval@andpro.ru) Опубликовано: 28 декабря 2023 Изменено: 21 апреля 2026
Термоменеджмент ЦОД, оптимизация PUE и архитектура жидкостного охлаждения Инженерный разбор эволюции систем охлаждения и энергораспределения в корпоративных ЦОД. Отказ от оценки «будущего серверных» в пользу прикладного термоменеджмента: расчет коэффициента PUE (Power Usage Effectiveness), преодоление физических лимитов воздушного охлаждения (CRAC/CRAH) и проектирование High-Density стоек на базе прямого жидкостного (DLC) и иммерсионного охлаждения для вычислительных AI-кластеров.

В корпоративной ИТ-инфраструктуре экстенсивный путь наращивания вычислительных мощностей столкнулся с жестким физическим барьером — энергетической плотностью (Power Density) серверного оборудования. Интеграция топовых CPU (с тепловым пакетом свыше 400 Вт), GPU-ускорителей архитектуры Blackwell, высокочастотной ОЗУ стандарта DDR6 и шины PCIe 6.0 привела к тому, что энергопотребление одной стандартной стойки 42U в AI-кластерах превышает 40–50 кВт.

Проектирование серверных помещений требует перехода от базового кондиционирования к прецизионному инженерному термоменеджменту и строгому контролю показателя энергоэффективности.

Метрика PUE (Power Usage Effectiveness)

Отраслевым стандартом оценки эффективности ЦОД является коэффициент PUE, вычисляемый как отношение общего энергопотребления дата-центра к энергопотреблению непосредственно вычислительного (ИТ) оборудования.

Устаревшие серверные комнаты с бытовыми сплит-системами демонстрируют PUE на уровне 2.0–2.5 (на каждый киловатт, потребленный сервером, тратится более киловатта на работу кондиционеров и ИБП). Архитектурная цель проектирования современной инфраструктуры — достижение PUE ниже 1.2. Это требует радикального пересмотра топологии машинных залов и систем отвода тепла.

Пределы воздушного охлаждения и изоляция коридоров

Классические системы воздушного охлаждения на базе прецизионных кондиционеров (CRAC / CRAH) с подачей холодного воздуха под фальшпол достигают предела рентабельности при тепловыделении около 15–20 кВт на стойку. Дальнейшее повышение мощности приводит к неконтролируемым локальным перегревам (Hot Spots).

Первым этапом оптимизации PUE в существующих ЦОД является физическая изоляция воздушных потоков:

  • Cold Aisle Containment (Изоляция холодного коридора): Предотвращает подмес отработанного горячего воздуха к холодному потоку на входе в серверы.

  • Внутрирядные кондиционеры (In-Row Cooling): Установка теплообменников непосредственно между серверными шкафами для максимального сокращения пути прохождения воздушных масс и снижения мощности вентиляторов.

Переход к архитектуре жидкостного охлаждения

Для High-Density узлов (Blade-системы, Multi-Node серверы и GPU-кластеры) теплоемкость воздуха недостаточна для предотвращения температурного троттлинга (Thermal Throttling) кремниевых компонентов. Отраслевой стандарт 2026 года диктует переход на системы жидкостного охлаждения, чья теплоемкость в тысячи раз превосходит воздушную.

Архитектура охлаждения

Инженерный принцип действия

Целевая плотность (кВт на стойку)

Direct Liquid Cooling (DLC)

Прямое контактное охлаждение. Теплосъемные водоблоки (Cold Plates) устанавливаются непосредственно на CPU/GPU/VRM. Теплоноситель циркулирует по герметичным магистралям внутри серверного шасси.

От 20 кВт до 80 кВт. Отраслевой стандарт для тяжелых кластеров и суперкомпьютеров.

Rear Door Heat Exchangers (RDHx)

Жидкостные теплообменники монтируются в виде задних дверей серверных шкафов. Забирают тепло из отработанного воздуха до его выхода в машзал.

От 15 кВт до 35 кВт. Промежуточное решение для модернизации существующих машинных залов (Brownfield).

Иммерсионное охлаждение

Полное погружение вычислительных плат (без корпусов и вентиляторов) в ванны с диэлектрической жидкостью (однофазной или двухфазной).

Свыше 100 кВт. Экстремальная плотность для криптовалютного майнинга и монолитных AI-моделей.


Оптимизация TCO и Sustainability

Внедрение систем класса DLC или иммерсионного охлаждения требует существенных первоначальных капитальных затрат (CAPEX) на модификацию инженерных коммуникаций (прокладка труб, насосные станции). Однако в разрезе совокупной стоимости владения (TCO) на горизонте 3–5 лет такие решения обеспечивают драматическое снижение OPEX (до 40–50%) за счет полного отказа от мощных компрессоров CRAC и отключения высокооборотистых вентиляторов внутри самих серверов (которые могут потреблять до 15% энергии всего узла).

Дополнительным преимуществом интегрированных жидкостных систем является возможность рекуперации тепла (Heat Reuse). Теплоноситель с температурой 40–60°C может быть направлен в контуры отопления офисных зданий, что соответствует современным корпоративным стандартам устойчивого развития (ESG).

Резюме

Проблема энергоэффективности серверных вышла за рамки «экологических инициатив» и стала строгим физическим барьером масштабирования ИТ-бизнеса. Проектирование новых кластеров требует синхронной работы ИТ-архитекторов и инженеров по климату на этапе закладки мощностей (CTO). Использование серверов с экстремальным TDP в неподготовленных залах неизбежно приведет к деградации аппаратных компонентов и нарушению SLA доступности сервисов.

Технический аудит и экспертная оценка: Сергей Коваль

Также вас может заинтересовать