РУСЛАН ЗАЕДИНОВ: «Эволюция ЦОД не обязательно означает, что они становятся лучше; дата-центры четвертой волны будут дешевыми» |
Понятия «ЦОД» и «высокие затраты» фактически стали синонимами, поэтому одной из наиболее актуальных тенденций в ИТ является оптимизация инфраструктуры центров обработки данных. С таким тезисом выступил на открытии форума «Мир ЦОД 2011» Руслан Заединов, заместитель генерального директора компании «Крок». О новаторских подходах к построению вычислительных комплексов он рассказал еженедельнику Computerworld Россия.
Ваш призыв к оптимизации капитальных и эксплуатационных затрат, без сомнения, был поддержан всеми участниками конференции. Но как определить источники необоснованных потерь в ЦОД?
Главным индикатором является PUE (Power Usage Effectiveness) — эффективность использования электроэнергии, то есть соотношение всей энергии, потребляемой в ЦОД, и той полезной части электроэнергии, которая доходит до ИТ-оборудования — серверов, систем хранения и телекоммуникационных устройств. В большинстве ЦОД этот коэффициент почти равен двум. То есть только половина электроэнергии, приходящей в ЦОД, доходит до целевых потребителей. Чем полнее используются вычислительные ресурсы, тем PUE будет ниже. Также этот показатель зависит от времени года: зимой он будет скорее ближе к единице — за счет снижения нагрузки на системы кондиционирования. Величина PUE определяется и наличием отработанных практик эксплуатации — аккуратного распределения «горячих» и «холодных» зон и т. п. Поэтому корректное значение PUE можно получить лишь по результатам регулярных измерений в течение длительного периода, например года. Как только вы его рассчитали, у вас есть ориентир — метрика, за которую стоит бороться.
А как бороться?
Половина потребляемой в ЦОД энергии уходит на «обогрев пространства»: примерно 30% приходится на систему охлаждения (если она построена традиционным образом); порядка 10% теряется в системе бесперебойного питания; еще какие-то единицы процентов теряются в кабельной инфраструктуре и сопутствующих системах, которые сложно оптимизировать, — оборудовании контроля доступа, видеонаблюдении и пр. Нетрудно понять, с чем бороться в первую очередь, — с неэффективной системой охлаждения.
Но этот пример относится к новым ЦОД. А как быть владельцам центров, построенных пять или десять лет назад?
На этот счет есть несколько практических рекомендаций. И самое интересное, что не все они относятся к инженерным системам. К примеру, нужно помнить, что на энергоэффективность ЦОД сильно влияет разность температур на входе и на выходе вычислительного оборудования. Эта температурная дельта используется при проектировании инфраструктуры ЦОД. В старые добрые времена все производители ИТ-оборудования говорили: «Нам нужно на входе похолодней — желательно 18 °C». Но сейчас все без исключения производители уже перешли на диапазон температур от 25 до 30 °C на входе. На выходе из серверов также допускается температура более 30 °C. Это означает, что поставщики мотивируют владельцев ЦОД сокращать температурную дельту на входе и выходе из сервера, что естественно ведет к сокращению затрат на кондиционирование. Поэтому избавление от старого ИТ-оборудования, а также простая перенастройка существующих климатических систем могут привести к значительной оптимизации эксплуатационных затрат в ЦОД. Другой способ — физическая изоляция горячих и холодных коридоров, чтобы исключить воздухообмен между ними. Свободный воздухообмен — второе зло, с которым нужно бороться. Изолировать разные части помещения очень просто — достаточно установить пластиковые конструкции. Они будут стоить очень недорого, но принесут ощутимый эффект.
Как развиваются технологии строительства ЦОД — постепенно эволюционируют или здесь можно выделить какие-то важнейшие этапы?
ЦОД первой волны просуществовали с конца 60-х по 80-е годы и строились под большие ЭВМ. Они проектировались фактически без всякого резервирования, и, если что-то ломалось, останавливалась вся система; возможно, только у военных было иначе. В каком-то смысле такие дата-центры соответствуют современному понятию Tier I. За последние годы в мире были построены ЦОД второго поколения, которые сейчас и приходится модернизировать, делая их более эффективными. По своей архитектуре они приближаются к уровню Tier II. Такие центры могут быть хорошо или плохо зарезервированы, но главное в том, что они обеспечивают работу ИТ-систем в режиме онлайн, и резервирование в них обеспечивается за счет неэффективного использования электроэнергии. Третье поколение дата-центров строится сейчас. Не знаю, станут ли они более отказоустойчивыми, но с точки зрения энергоэффективности они превзойдут своих предшественников. Приходится умещаться в те мегаватты, которые нам отпущены.
Какой будет четвертая волна?
Эволюция ЦОД не обязательно означает, что они становятся лучше. Дата-центры четвертой волны в определенном смысле будут хуже: произойдет скатывание с Tier III к Tier II. Поясню: вначале мы шли от нерезервированных ЦОД к резервированным, затем — к резервированным энергоэффективным. Почему? Потому что корпорации стремятся консолидировать свои ИТ-активы — запаковать их в ЦОД. И соответствие Tier III ассоциируется у бизнеса с обеспечением непрерывности работы ИТ-систем. Однако они еще не стали отказоустойчивыми. Прогресс же заключается в том, что ИТ-системы будут переработаны так, что сами себя зарезервируют, и даже выключение ЦОД не приостановит их работы. Дата-центры четвертой волны будут дешевыми и почти неотказоустойчивыми; полностью от резервирования не откажутся. Отказоустойчивость в них будет обеспечиваться средствами ИТ и коммуникаций — ЦОД станут сетевыми, за счет этого и понизятся требования к их надежности.
Одна из современных тенденций в области строительства ЦОД состоит в унификации их компонентов, применении модульной архитектуры. Есть ли у этой концепции отрицательные стороны?
Унификация строительных конструкций и инженерных систем ЦОД не может происходить без унификации ИТ-систем. Возьмите любой из представленных на рынке контейнерных дата-центров и попытайтесь в него поставить какой-нибудь высокопроизводительный сервер старшего класса. Ничего не получится. Он просто по механическим характеристикам несовместим с контейнерными конструкциями. А корпоративный сектор от использования высокопроизводительных систем отказаться не может — ему необходимо обеспечить работу «тяжелых» приложений. Вот Google и Microsoft, строя свои контейнерные кластеры ЦОД, опираются на серверы стандартной архитектуры и решают задачи соответствующего масштаба. В случае выхода из строя одного из контейнеров его попросту заменяют другим. При таком подходе модульные системы эффективны и оправданны. Если же речь идет о единичном применении, то скорее нет. Мы прорабатывали эту тему, но за последние три года ни одного контейнера в России не поставили. Как раз потому, что масштаб задач у наших заказчиков таков, что они решаются посредством одного контейнера, а его покупка в большинстве случаев не оправдывает себя. В России невозможно поставить контейнер просто так, под открытым небом. Придется построить для него: фундамент, легкую конструкцию для защиты от пыли и климатических воздействий, обеспечить дополнительное помещение для администраторов. Ради одного контейнерного ЦОД затевать такое строительство никто не будет. Имеет смысл заниматься этим, только если у вас десяток контейнеров.