Компании Hewlett Packard Enterprise и Supermicro анонсировали системы жидкостного охлаждения, которые рассчитаны на отведение тепла, выделяемого при масштабном развертывании рабочих нагрузок искусственного интеллекта.
В HPE представили решение прямого жидкостного охлаждения, которое, как подчеркивают разработчики, не требует вентиляторов.
Его компоненты осуществляют отвод тепла графических и центральных процессоров, серверов-лезвий, локального хранилища данных, сетевой инфраструктуры, стоек и шкафов, а также модулей или кластеров. В их состав входят также блоки распределения охлаждающей жидкости (coolant distribution unit, CDU).
По данным HPE, решение, которое может применяться в системах высокой плотности, имеет ПО для мониторинга, а его конструкция предусматривает установку различных типов ускорителей.
В HPE утверждают также, что прямое безвентиляторное жидкостное охлаждения на 90% снижает энергопотребление по сравнению с традиционными воздушными системами, на 37% уменьшает энергопотребление серверной стойки по сравнению с гибридным прямым жидкостным охлаждением, а также в два раза сокращает требуемую для серверов площадь за счет поддержки более высокой плотности размещения оборудования.
Эксперты отмечают, что решение HPE не является совершенно новой разработкой, так подобная технология охлаждения применяется в суперкомпьютерах Cray EX, а теперь предлагается для более широкого распространения.
В Supermicro также создали новую систему отвода тепла, которую назвали комплексным решением для жидкостного охлаждения.
В его состав входят блоки CDU, охлаждающие пластины, распределительные коллекторы охлаждающей жидкости (Coolant distribution manifold, CDM), градирни и ПО управления.
Система SuperClusters, созданная специалистами компании, предназначена для платформы Nvidia GB200 Grace Blackwell Superchip NVL72. В ней применяются новые усовершенствованные внутристоечные или внутрирядные блоки распределения охлаждающей жидкости и специальные охлаждающие пластины, разработанные для вычислительного лотка в форм-факторе 1U, вмещающего два чипа GB200.
Охлаждающие пластины отводят до 1600 Вт мощности, что достаточно даже для самых разогреваемых чипов Nvidia.
Стоечное решение рассчитано на 72 графических процессора Blackwell и 36 центральных процессоров Grace, объединенных межсоединениями Nvidia NVLink пятого поколения с производительностью до 130 Тбайт/с.
В настоящее время проводятся испытания образцов новых систем охлаждения, чтобы определить заказчиков для их поставок в конце четвертого квартала.