Значительная часть деловой программы форума «Мир ЦОД 2013» прошла в формате технических потоков, охвативших самые разные аспекты проектирования и эксплуатации ЦОД.
Технические потоки охватили самые разные аспекты проектирования и эксплуатации ЦОД |
Серверы и системы хранения
Открывший заседание технического потока «Серверы и СХД» Грег Кволек, старший директор по развитию облачных технологий HGST, вкратце обрисовал основные тенденции в области проектирования систем хранения ЦОД. Он подчеркнул, что за последние два года создано 50% всей цифровой информации, накопленной человечеством. Темпы увеличения объемов данных неуклонно растут. И если бы накопленные данные со временем просто стирали, так нет! Большинство предприятий, как видно из проведенных опросов, готовы хранить файлы и библиотеки 20-летней давности.
«Из этого вытекает главное требование к проектированию систем хранения ЦОД – гипермасштабируемость», — заявил Кволек.
Вторая важная тенденция – развитие флэш-памяти и рост количества устройств, оснащенных ею. Твердотельные накопители (Solid State Drive, SSD) становятся незаменимым средством при создании систем анализа данных, поскольку обеспечивают доступ к ним без задержек, практически в режиме онлайн. Обеспечить такую скорость доступа к данным, например, из ленточных библиотек невозможно.
Третья тенденция – это дальнейшее развитие жестких дисков, которые пока рано списывать со счетов. В будущем появятся новые технологии, увеличивающие плотность записи на таких устройствах. К числу перспективных можно отнести и термомагнитную запись HAMR, она обещает радикально увеличить емкость жестких дисков (Hard Disk Drive, HDD).
«Я много слышу, что HDD приходит конец, но это не так, — уверен Кволек. — В плане производительности они, конечно, развиваются не столь быстро, как SSD, но зато быстрее дешевеют. Поэтому в настоящее время нет никакого практического смысла в том, чтобы строить хранилище данных с опорой на твердотельные накопители. Последние лучше использовать для повышения производительности серверов. В любом случае HDD и SSD имеют в запасе как минимум десять лет для дальнейшего наращивания производительности за счет новых технологических подходов».
Вопросы хранения данных неразрывно связаны с обеспечением доступа к ним, и эта тема тоже нашла свое отражение в рабочей дискуссии на форуме.
Константин Баканович, технический директор компании DSCon, обратил внимание аудитории на проблематику обеспечения совместного доступа к данным в ЦОД. Традиционно для этого используются IP и Ethernet, но оба эти протокола имеют определенные недостатки, на их основе не всегда возможно увеличить производительность коммуникационной системы до нужных параметров и гарантировать требуемый уровень задержки пакетов трафика. Баканович рекомендовал организовывать совместный доступ к данным ЦОД посредством строительства сети хранения на основе высокопроизводительных протоколов, например Fibre Channel. При этом сетевое хранилище должно быть укомплектовано инструментами управления доступом к данным. Подобное решение, в частности, предлагает на рынке компания Quantum. Оно называется StorNext. Поскольку несколько серверов одномоментно обращаются к одной файловой системе, им требуется регулятор, чтобы избежать записи данных двумя системами в одно и то же место на диске, пояснил Баканович. В StorNext эта функция выполняется при помощи контроллера метаданных (MetaData Controller, MDC). Устройства MDC так же подключаются к системам хранения через высокопроизводительные соединения. StorNext является предпочтительным решением для наиболее требовательных к производительности приложений, таких как обработка потокового видео, высокопроизводительные научные вычисления, анализ Больших Данных.
Александр Зейников, региональный менеджер по развитию бизнеса LSI, в своем выступлении обратился к проблеме ускорения доступа к данным. Он предложил использовать методику выделения из общей массы так называемых горячих данных и переноса их на самые быстрые носители. Как образно выразился Зейников, данные, используемые чаще других, нужно «положить поближе к процессору». Это прежде всего относится к данным корпоративных приложений. Представитель LSI, в частности, рекомендовал использовать в ЦОД ускоритель работы приложений Nytro MegaRAID, основанный на встроенной флэш-памяти и оригинальной технологии LSI RAID on Chip (ROC). Интеллектуальные алгоритмы кэширования Nytro MegaRAID позволяют определять наиболее часто запрашиваемые данные, которые передаются во встроенную флэш-память, что делает процесс доступа к ним более быстрым. Применение таких ускорителей может рассматриваться как выгодная альтернатива массивам на базе только твердотельных накопителей или избыточным дисковым массивам прямого подключения.
Инженерная инфраструктура
Еще одна группа базовых технологий ЦОД обсуждалась в рамках потока «Инженерная инфраструктура».
Александр Ласый, заместитель директора департамента интеллектуальных зданий компании «Крок», обратил внимание, что подходы к проектированию инженерных систем должны быть увязаны со специализацией будущего ЦОД. По его мнению, дата-центры, предназначенные для выполнения специфических научных вычислений и работающие на полную мощность относительно небольшие промежутки времени, должны проектироваться по одним принципам, а коммерческие ЦОД, ориентированные на непрерывное предоставление услуг colocation, – по совершенно другим.
Вместе с тем перед проектировщиками большинства ЦОД всегда встает дилемма: что важнее – достижение заданных критериев Uptime Institute или PUE (Power Usage Effectiveness), то есть гарантированный доступ к данным, или энергоэффективность. Ведь чем выше степень резервирования ресурсов в ЦОД, тем больше энергии им требуется и тем хуже показатель PUE. Достижение баланса в этом вопросе и есть искусство проектирования ЦОД. В «Кроке», как утверждает Ласый, нашли оптимальное соотношение надежности и энергоэффективности в своих дата-центрах прежде всего благодаря точному прогнозу потребностей заказчиков. Как заявил Ласый, «главный враг PUE – недогруженность ресурсов», когда системы ЦОД работают вхолостую. Поэтому энергоэффективность ЦОД в большей степени зависит от искусства продаж предлагаемых сервисов, нежели от технологий энергосбережения. Впрочем, заметил он, PUE сильно зависит и от системы охлаждения, которая сама является одним из главных потребителей электроэнергии в ЦОД. Даже PUE для нее рассчитывается отдельно.
Тема создания эффективных климатических систем стала одной их центральных для технического потока «Инженерная инфраструктура». Денис Беляев, руководитель направления инженерной инфраструктуры ЦОД НР в России, утверждает, что только комплексный подход обеспечивает качественное решение вопросов охлаждения в дата-центре. Методология, предложенная Беляевым, делит процесс проектирования системы охлаждения на несколько этапов. На начальной стадии исходя из требований заказчика происходит формирование технического задания. Затем проводится детальный анализ особенностей места расположения будущего ЦОД, оцениваются макроклиматические параметры, определяется роза ветров и уточняются другие погодные характеристики, выявляются источники загрязнения атмосферы и возможные очаги возникновения пожаров, в частности торфяники.
Учесть местные условия очень важно, так как они обусловливают дополнительные требования к выбору системы охлаждения. К примеру, если рядом с ЦОД имеется посторонний источник загрязнения воздуха или пожароопасный торфяник, может потребоваться установка дополнительных фильтров очистки воздуха от вредных примесей. И тогда не исключено, что все выгоды технологии свободного охлаждения (Free Cooling) будут сведены на нет, поскольку понадобится закупать дорогостоящее очистное оборудование.
На следующих этапах выбирается тип здания, подбираются конструктивные решения для каждого этажа. Затем формируются поэтажные планы размещения оборудования, в которых можно, например, предусмотреть отвод части тепла из машинного зала для отопления диспетчерской. Потом выбирается расположение стоек и шкафов в самом машинном зале, моделируется распределение воздушных потоков. И только на финальной стадии предлагаются варианты размещения оборудования в стойках с учетом достижения оптимального режима охлаждения каждого сервера.
Кабельная инфраструктура
В рамках отдельного потока обсуждалась «Кабельная инфраструктура ЦОД». Владимир Стыцько, директор по продажам компании TE Connectivity — Enterprise Networks в России, заострил внимание на одной из самых злободневных тем, пояснив, какая СКС удовлетворяет требованиям дата-центра, предоставляющего облачные сервисы. По словам Стыцько, первым делом СКС в облачном ЦОД должна поддерживать все существующие и перспективные приложения, которые потребуют от кабельной инфраструктуры большей производительности. В этой связи планируемый переход от соединений 10 Gigabit Ethernet к скоростям 40 и 100 Гбит/с должен быть бесшовным и максимально простым, чего можно добиться, например используя 12- и 24-оптоволоконные соединители. Во-вторых, СКС должна обеспечивать оптимальное оснащение соединениями высокоплотных сегментов ЦОД. И главное, от СКС требуется наличие системы автоматизированного управления. Автоматизация управления СКС обеспечивает высокую отказоустойчивость всей коммуникационной среды в ЦОД, повышает ее надежность благодаря наличию достоверной информации о том, что с чем соединено и какие проблемы следует немедленно нейтрализовать. Также упрощается общее администрирование СКС, что приводит к снижению эксплуатационных расходов, а это очень важно для коммерческих ЦОД. С помощью специальных программ сейчас можно управлять всеми сетевыми устройствами дата-центра, к которым относятся и коммутационные панели, утверждает Стыцько. В современных СКС они представляют собой ИТ-устройства со всем набором функций и возможностей для управления.