В условиях кризиса эксперты сфокусировали свое внимание на экономически эффективных решениях.
В зависимости от характера использования ЦОД эти решения могут быть разными. Зачастую технологическое решение, оптимальное для коммерческого ЦОД, не подходит для провайдера интернет-сервисов. И совершенно иные подходы нужны при создании корпоративных дата-центров или ЦОД, ориентированных на выполнение научных задач.
Модульность и фреон
Руководитель направления по работе с партнерами Schneider Electric Максим Чижов полагает, что российский рынок коммерческих ЦОД находится под влиянием глобальных тенденций, связанных с распространением облачных технологий и переходом сервисов на аутсорсинг, а также местных реалий, обусловленных санкционным давлением и новыми правилами хранения персональных данных. Это вынуждает операторов коммерческих дата-центров искать пути снижения рисков, повышать требования к технологическим решениям для инфраструктуры ЦОД и к их производителям.
«В сложившихся условиях невозможно сделать ЦОД более эффективным, более надежным, более гибким и менее затратным, просто улучшая его отдельные компоненты. Мы смотрим на эту проблему комплексно, и наш ответ — сборные модульные (prefabricated) решения», — заявил Чижов.
Среди основных преимуществ подобных решений он назвал ответственность производителя за подбор инженерных элементов ЦОД и их качество, а также минимальное время запуска объекта в эксплуатацию. Кроме того, для сборных ЦОД характерны сбалансированные показатели энергоэффективности. В условиях кризиса это очень важный фактор, так как от него зависит себестоимость ИТ-услуг.
Подобные решения уже используются в России. К примеру, компания DataPro построила в Москве ЦОД, где наряду с классической организацией машинных залов внедрена модульная система холодоснабжения Schneider Electric EcoBreeze.
Алексей Солдатов: «В условиях кризиса дорогостоящие энергоэффективные системы охлаждения уходят за горизонт коммерческого планирования» |
Как сообщил генеральный директор DataPro Алексей Солдатов, благодаря возможности перенаправления формируемых системами EcoBreeze потоков охлаждающего воздуха из одного машинного зала в другой в ЦОД DataPro удалось повысить уровень утилизации мощности системы холодоснабжения до 80%.
«Если бы мы использовали классическое решение, половина мощности системы охлаждения была бы выброшена в пустоту», — подчеркнул Солдатов.
Докладчик заострил внимание аудитории на выборе типа системы кондиционирования в кризисных условиях. По его расчетам, строительство системы охлаждения, где в качестве хладагента используется фреон, в пересчете на один киловатт мощности обойдется владельцам дата-центра в 900 долл., при этом энергоэффективность системы по показателю PUE составит 1,4. Соответствующие показатели для систем охлаждения на воде и для систем, использующих для охлаждения только внешний воздух, составят 1600 долл. (PUE составит 1,2) и 2000 долл. (PUE составит 1,1).
«До недавней девальвации национальной валюты в России срок окупаемости водяной системы охлаждения ЦОД составлял примерно четыре года, а теперь он увеличился до семи лет. И это при стопроцентной загруженности ЦОД, а если он загружен коммерческими заказами лишь на 60%, срок окупаемости вырастет до десяти лет», — утверждает Солдатов.
Сроки окупаемости воздушной системы охлаждения будут еще выше. Поэтому альтернативы фреону при строительстве ЦОД в России сейчас практически нет, считает глава DataPro.
Стойки и воздух
«В ближайшее время наша компания на фреоне строить ЦОД не будет», — заявил Михаил Деев, менеджер проектов отдела проектирования инженерных систем компании «Яндекс». Он рассказал о возведении неподалеку от Хельсинки дата-центра компании, где система охлаждения основана на полном прямом фрикулинге.
Этот ЦОД предназначен для обработки запросов пользователей интернет-сервисов «Яндекса». Поэтому главная задача, которую ставила перед собой компания, реализуя проект в финском поселке Мансала, заключалась в минимизации операционных издержек и упрощении процедур обслуживания ЦОД.
Основным средством оптимизации системы охлаждения в ЦОД Деев назвал серверную стойку – в «Яндексе» разработали и заказали для себя партию специальных серверов, оптимизированных под собственные бизнес-задачи и способных исправно функционировать в диапазоне температур от 40 до 42 °C. Эти серверы были установлены в специально разработанные стойки с единой системой вентиляторов. Вторая часть ноу-хау «Яндекса» — это адаптированная под прямой фрикулинг архитектура здания ЦОД и особая конфигурация системы воздушной вентиляции. Кондиционирование в таком помещении основано на поддержании перепадов давления между внешним пространством (цехом), холодным коридором и горячим коридором. Энергоэффективность ЦОД очень высока. По словам Деева, она достигает 1,05-1,06. И часть тепла от серверов даже поставляется жителям поселка.
Научный гибрид
Преимущества решения, предложенного «Яндексом», очевидны, но такой подход можно реализовать лишь одновременно со строительством нового здания ЦОД, а интегрировать подобную систему в старое помещение очень сложно.
Именно проблему адаптации системы охлаждения к существующим условиям пришлось решать при строительстве ЦОД для суперкомпьютера в МГУ им. М. В. Ломоносова. Как сообщил Максим Сохань, генеральный директор компании «АМДтехнологии», участвовавшей в этом проекте, под строительство ЦОД были отведены неприспособленные помещения подземной автостоянки и первого этажа лабораторного корпуса нового здания университета с ограничениями по установленной энергетической мощности. В этих условиях наиболее эффективным решением стала гибридная система отвода тепла. Она объединила в себе подсистему водяного охлаждения вычислительных узлов суперкомпьютера и систему воздушного охлаждения вспомогательного оборудования.
«Несмотря на сложные начальные условия, система охлаждения суперкомпьютера по своим технологическим и экономическим параметрам получилась очень эффективной, в ней даже предусмотрена утилизация излишков тепла для отопления помещений МГУ в зимний период», — утверждает Сохань.
Корпоративная специфика
Созданию корпоративных ЦОД присуща своя специфика. Сергей Чекмасов, начальник службы эксплуатации программно-аппаратного комплекса филиала «СО ЕЭС» Карельского РДУ, напомнил, что в условиях кризиса развитие ИТ-инфраструктуры финансируется очень скупо. Это накладывает особую ответственность на сотрудников ИТ-департаментов при выборе инфраструктурных решений и определении их параметров. Если выбор окажется ошибочным (кем был он ни был подсказан – вендором, интегратором или коллегами из ИТ-департамента другого предприятия), последствия могут быть плачевными. Поэтому Чекмасов рекомендует ИТ-специалистам предприятий выбирать технологическое решение самостоятельно. Он рассказал, как Карельское РДУ выбрало для себя систему резервного копирования данных.
Сначала на предприятии произвели классификацию сервисов и точно определили, какие из них допускают те или иные перерывы в работе и какими данными они оперируют – важными или не представляющими ценности. На основе этой классификации был составлен оптимальный график резервного копирования, с указанием для каждой категории сервисов максимального времени хранения данных и периодичности их копирования. Также для каждой категории сервисов было определено предельное время восстановления данных. Затем для каждого сервиса был просчитан ущерб от рисков, зависящий от времени простоя сервисов, определены объемы защищаемых данных и установлены источники, из которых они поступают.
Собранные сведения помогли менеджерам компании ответить на несколько важных вопросов: от каких сервисов можно отказаться в критической ситуации, а каким нужно обеспечить резервирование в приоритетном порядке; какую методику копирования данных предпочесть и др. Это позволило определить наиболее подходящую архитектуру системы резервирования и подготовить технические требования к ней. Теперь, обратившись к вендору или его партнеру, компания сможет исключить риск ошибочного выбора технического решения и сценария его внедрения, утверждает Чекмасов.