Компании Hewlett Packard Enterprise и Supermicro анонсировали системы жидкостного охлаждения, которые рассчитаны на отведение тепла, выделяемого при масштабном развертывании рабочих нагрузок искусственного интеллекта.

В HPE представили решение прямого жидкостного охлаждения, которое, как подчеркивают разработчики, не требует вентиляторов.

Его компоненты осуществляют отвод тепла графических и центральных процессоров, серверов-лезвий, локального хранилища данных, сетевой инфраструктуры, стоек и шкафов, а также модулей или кластеров. В их состав входят также блоки распределения охлаждающей жидкости (coolant distribution unit, CDU).

По данным HPE, решение, которое может применяться в системах высокой плотности, имеет ПО для мониторинга, а его конструкция предусматривает установку различных типов ускорителей.

В HPE утверждают также, что прямое безвентиляторное  жидкостное охлаждения на 90% снижает энергопотребление по сравнению с традиционными воздушными системами, на 37% уменьшает энергопотребление серверной стойки по сравнению с гибридным прямым жидкостным охлаждением, а также в два раза сокращает  требуемую для серверов площадь за счет поддержки более высокой плотности размещения оборудования.

Эксперты отмечают, что решение HPE не является совершенно новой разработкой, так подобная технология охлаждения применяется в суперкомпьютерах Cray EX, а теперь предлагается для более широкого распространения.

В Supermicro также создали новую систему отвода тепла, которую назвали комплексным решением для жидкостного охлаждения.

В его состав входят блоки CDU, охлаждающие пластины, распределительные коллекторы охлаждающей жидкости (Coolant distribution manifold, CDM), градирни и ПО управления.

Система SuperClusters, созданная специалистами компании, предназначена для платформы Nvidia GB200 Grace Blackwell Superchip NVL72. В ней применяются новые усовершенствованные внутристоечные или внутрирядные блоки распределения охлаждающей жидкости и специальные охлаждающие пластины, разработанные для вычислительного лотка в форм-факторе 1U, вмещающего два чипа GB200.

Охлаждающие пластины отводят до 1600 Вт мощности, что достаточно даже для самых разогреваемых чипов Nvidia.

Стоечное решение рассчитано на 72 графических процессора Blackwell и 36 центральных процессоров Grace, объединенных межсоединениями  Nvidia NVLink пятого поколения с  производительностью до 130 Тбайт/с.

В настоящее время проводятся испытания образцов новых систем охлаждения, чтобы определить заказчиков для их поставок в конце четвертого квартала.