Что такое энергоэффективность применительно к микропроцессорам и как для них ее измерять? Казалось бы, странный вопрос. Без упоминания о том, какой прогресс по этой части был достигнут разработчиками, уже не обходится ни одна премьера нового процессора. Но ведь и в целом в ИТ-индустрии, да и вне ее рамок, о рациональном использовании энергоресурсов говорят очень много. Потому и возникает необходимость уточнять критерии рациональности и метрические процедуры их проверки для тех или иных частных случаев.
Энергоэффективность в наши дни стала важным аргументом, используемым при продаже ПК. Знаете, кто это сказал? Питер Гласковски, в прошлом аналитик In-Stat, главный редактор Microprocessor Report. Теперь он старший системный архитектор Intel. Ко мнению такого человека грех не прислушаться. И мнение это тем ценнее, что высказал его Гласковски всего за неделю до того, как начал работать в Санта-Кларе и попрощался с читателями своего блога на CNET.com.
Было это около года назад, после чего желающие не раз имели возможность убедиться: корпорация вполне единодушна со своим старшим системным архитектором во взглядах на энергоэффективность как на маркетинговый инструмент. А уж если в Intel что-то считают важным маркетинговым инструментом, то с этим приходится считаться всей ИТ-индустрии. И, конечно, в числе первых — компании AMD. Извечные фигуранты процессорных войн прежде в попытках доказать преимущество своих боевых единиц, как правило, ограничивались двумя основными критериями — производительностью и ценой, а также их соотношением. Теперь к ним добавился третий.
Первоначальное накопление «страшилок»
С каких пор этот критерий приобрел такую важность? За точку отсчета часто принимают 2006 год — в ходе осеннего форума IDF в Сан-Франциско Пол Отеллини пообещал 300-процентный рост производительности на ватт в процессорах Intel до конца десятилетия. В тот раз на IDF, пожалуй, впервые так много говорилось об энергосбережении. Большой резонанс вызвали слова Луиса Баррозо, инженера из Google, о том, что чуть ли не половина электроэнергии, поступающей на вход компьютерных блоков питания, растрачивается впустую. И еще — что кардинально изменить ситуацию можно, но зависит это не столько от технологий, сколько от совместной работы всей «экосистемы».
Особую роль 2006 года в «битве за энергоэффективность» еще сильнее подчеркнул доклад Агентства по охране окружающей среды США (Environmental Protection Agency, EPA), датированный августом 2007 года. В нем, в частности, было сказано, что суммарное энергопотребление всех американских серверов и центров обработки данных в 2006 году выросло вдвое по сравнению с 2000 годом и составило около 61 млрд киловатт-часов, или 1,5% всего годового объема потребляемой электроэнергии в США. Общая сумма счетов за электричество, соответствующих такому уровню потребления, тоже получилась внушительной — 4,5 млрд долл. По прогнозам экспертов EPA, при сохранении таких темпов роста энергопотребления в 2011 году для работы американских серверов и ЦОД должно было бы потребоваться уже свыше 100 млрд киловатт-часов.
Доклад был широко разобран на цитаты. Он оказался удобен в качестве своеобразной «страшилки»: что будет с нашим миром, если не сделать выбор в пользу новых поколений энергоэффективной ИТ-продукции. И в маркетинговых презентациях Intel тоже можно встретить все те же роковые предсказания экспертов, а рядом с ними — универсальный ответ корпорации на самые сложные вызовы, стоящие перед ИТ-отраслью, то есть закон Мура.
Нынешний директор подразделения Intel Eco-Tech Development and Policy и член совета Climate Savers Computing Initiative Джон Скиннер не раз высказывался в том духе, что закон Мура есть, дескать, «возобновляемый источник технологий», с помощью которого корпорация «непрерывно улучшает энергоэффективность компьютеров и ЦОД». Но где же был «возобновляемый источник» в течение предыдущих сорока лет, пока проблема не стала глобальной?
Можно согласиться с тем, что одним из следствий закона Мура является постепенное снижение энергопотребления в пересчете на один транзистор. Действительно так и происходит каждый раз при переходе к более тонкому техпроцессу. Но транзисторов-то на кристалле становится больше. И уж тем более никакой закон Мура никому не обещал, что снижение энергоемкости транзисторов сможет компенсировать всплеск спроса на электроэнергию, связанный с бурным ростом продаж компьютеров.
На самом деле в Intel все же в какой-то степени упредили проблему, начав работать над ней за несколько лет до того, как она приобрела общественную значимость. Еще в начале 2000-х годов авторы материалов в Intel Technology Journal с тревогой отмечали увеличение энергоемкости процессоров, однозначно коррелирующее с ростом их производительности и провоцирующее эскалацию требований к системам охлаждения. Графики выглядели так, что впору было говорить еще об одной интерпретации закона Мура, угрожающей ни много ни мало самому закону.
Начиная с Pentium M, в Intel всерьез взялись за энергопотребление процессоров, уделяя большое внимание энергосберегающим функциям и совершенствуя микроархитектуру таким образом, чтобы как минимум не увеличивать «энергобюджет». И уже сам факт того, что производителями ведется борьба за его снижение, настраивает аналитиков на оптимистический лад.
«Для процессоров всех типов, от мобильных до серверных, по энергопотреблению достигнуты те пределы, выше которых системы не могут функционировать, и поэтому единственный способ увеличивать производительность сейчас — это поднимать ее в расчете на ватт потребляемой энергии», — отметил Линли Гвеннап, ведущий аналитик Linley Group.
Измерительные метаморфозы
В том, что энергоэффективность следует понимать как производительность в расчете на единицу энергопотребления, в индустрии сегодня наблюдается достаточно широкий консенсус. Однако с измерением этой самой «производительности на ватт» дело обстоит сложнее. Интегральные тесты, определяющие оба показателя и выдающие на выходе их соотношение, существуют. Но их популярность далека от той, что характерна для тестов, вычисляющих «чистую» производительность. К примеру, по состоянию на начало ноября на сайте SPEC было опубликовано лишь около 200 результатов теста SPECpower_ssj2008, хотя со времени его премьеры прошло уже почти три года. Для сравнения: только в течение третьего квартала текущего года на том же сайте SPEC появилось свыше 1600 новых результатов SPEC CPU2006.
Гвеннап склонен считать, что такое положение дел обусловлено особенностями маркетинговых стратегий производителей. «Цели у каждого свои, но при этом каждый хочет выглядеть лучше, чем остальные. Тесты, которые могли бы претендовать на роль отраслевых стандартов, не становятся таковыми, поскольку производители зачастую не стремятся выносить на рассмотрение достигнутые результаты, если те не представляют их в более выгодном свете по отношению к конкурентам», — объяснил он.
У Роба Эндерле, ведущего аналитика Enderle Group, несколько иная точка зрения. По его мнению, причина в том, что результаты тестов характеризуют работу компонентов, тогда как пользователи хотят получить представление о системе в целом.
Это, оказывается, не так просто. Недавний пример — в середине октября на сайте TPC появился отчет о проведении теста TPC-C для четырехпроцессорных систем HP ProLiant DL580 G7 на базе восьмиядерных Intel Xeon 7560/2,27 ГГц. В первую десятку по «чистой» производительности эта система не вошла, но зато возглавила другой рейтинг — тот, в котором учитывается еще и энергопотребление. Прежде в этом рейтинге фигурировали всего две (!) системы, обе — семейства HP ProLiant.
Одна из них — четырехпроцессорный сервер DL585 G7 с 12-ядерными AMD Opteron 6176 SE/2,3 ГГц, по сравнению с которой у системы на основе Xeon 7560 показатель «ватт на единицу производительности» оказался в два с лишним раза ниже! Однако дотошные аналитики из австралийской консалтинговой компании Ideas International выяснили: такая внушительная разница вовсе не свидетельствует о том, что система на базе Xeon 7560 гораздо эффективнее аналогичной, но на базе Opteron 6176 SE, в смысле преобразования электрической мощности в вычислительную.
Ларчик открывался просто. Изучив представленные отчеты, эксперты обнаружили, что при вычислении по результатам тестов показателя «ватт на единицу производительности» энергопотребление рассчитывалось для всей конфигурации тестового стенда — с учетом его клиентской части. А в свою очередь в клиентскую часть входили серверы приложений, выполняющие первичную обработку транзакций от пользователей, работа которых симулируется с помощью эмуляторов удаленных терминалов (Remote Terminal Emulator). В случае с DL585 G7 в качестве серверов приложений использовались 24 однопроцессорные системы ProLiant DL360 G6 (с четырехъядерными Intel Xeon E5530/2,4 ГГц), а в случае с DL580 G7 — двухпроцессорные ProLiant DL360 G7 уже следующего поколения (с более новыми шестиядерными Intel Xeon X5670/2,93 ГГц), причем было их всего четыре. Неудивительно, что в такой конфигурации у первого тестового стенда потребляемая мощность оказалась существенно выше, хотя сам по себе сервер на основе Opteron 6176 SE, пусть и при меньшей производительности, в своем «лобовом» противостоянии с конкурентом по энергопотреблению выглядел все же получше.
Ждем обновления ориентиров
Вообще, как показывает практика, с помощью «производительности на ватт» очень удобно сравнивать новые процессорные поколения с их непосредственными предшественниками. Если разработчикам удается сохранить «энергобюджет» на прежнем уровне, то можно брать практически любой тест — прирост производительности будет означать также и повышение энергоэффективности.
Сложнее, когда речь заходит о разных процессорных семействах одного производителя. С одной стороны, никому в голову не приходит сравнить по энергоэффективности Atom и Xeon: разные задачи, разные сферы применения. С другой стороны, а что бы это сравнение дало? Производительность и энергопотребление у этих процессоров разнятся серьезно. И, разделив одно на другое для каждого из них, мы получим цифры достаточно абстрактные. С другой стороны, если принять, что энергоэффективность годится лишь для сравнения процессоров внутри одного семейства, она получается каким-то второстепенным показателем. И ее исключительная важность, о которой говорится так много, выглядит несколько странно.
Сравнивать процессоры разных производителей еще сложнее. Здесь уже не то что с «производительностью на ватт», а хотя бы с «ваттами» разобраться. В спецификациях Intel указывают показатель TDP (Thermal Design Power), определяющий требования к системе охлаждения. В спецификациях AMD некоторое время назад его место занял показатель ACP (Average CPU Power) — среднее энергопотребление процессора. И в результате теперь у двух крупнейших вендоров на рынке процессоров два разных способа указывать хоть какие-то «ватты» в спецификациях.
А ведь есть еще, например, IBM с процессорами Power, для которых не указывается ни ACP, ни TDP. Зато, покопавшись на сайте IBM, можно найти данные по энергопотреблению систем на основе как Power, так и других процессоров (к примеру, Intel Xeon) при выполнении тех или иных тестов.
По мнению Эндерле, интересам пользователей в наибольшей степени отвечает подход IBM: «В случае с автомобилем вас же интересует реальный расход топлива, а не сколько литров бензина сожжет двигатель при неких идеальных условиях».
В целом аналитики не склонны драматизировать ситуацию с «ваттами» в спецификациях процессоров, и, наверное, в этом с ними можно согласиться. Тем более что, как подчеркнул Гвеннап, проектировщики систем уже давно работают с TDP, а в последнее время успели привыкнуть и к ACP. С другой стороны, энергоэффективность — вообще понятие относительное (как, впрочем, и производительность), и тот же Гвеннап резонно заметил, что нет такой планки, ниже которой процессор не является энергоэффективным, а выше становится таковым. Поэтому в любом случае необходимы какие-то способы, чтобы сравнивать между собой конкурирующие процессоры и системы на их основе. А еще нужны ориентиры, позволяющие независимо от производителей оценивать тот путь, по которому они идут, улучшая «производительность на ватт».
Приближается 2011 год — последний из тех, что были охвачены прогнозом экспертов EPA в упомянутом выше отчете.
А это значит, что по идее им бы пристало в недалеком будущем сопоставить реалии американского ИТ-рынка с прогнозировавшимися сценариями. И, может быть, сравнить эти реалии с положением в Западной Европе, где, согласно исследованиям IDC, в 2008 году наметилась тенденция к сокращению общего энергопотребления серверов и ЦОД. По этим ориентирам, наверное, уже можно будет понять, насколько успешна ИТ-индустрия в целом в своих усилиях по предотвращению надвигающегося энергетического кризиса. И, возможно, даже появится более-менее осмысленный ответ еще на один кажущийся странным вопрос: что же все-таки сильнее, закон Мура или энергетический голод? Будет интересно.
Александр Загнетко, ведущий аналитик компании IDC по рынкам серверов и систем хранения данных:
В современном центре обработки данных, как правило, не более половины потребляемой электроэнергии приходится непосредственно на серверную инфраструктуру. Остальная мощность уходит на ИБП, кондиционирование, преобразования тока и т. д. При этом в самой серверной инфраструктуре не более четверти электроэнергии обеспечивает работу процессора. Приводы устройств, повторные преобразования тока, внутреннее кондиционирование, чипсеты и память «съедают» все остальное. Непосредственно же на вычислительные функции уходят считанные проценты (подчас доли процента) потребляемой энергии. Из-за физических свойств процессора остальное просто уходит в тепло.
Итак, если мы говорим об энергоэффективности процессоров, на кону вроде бы стоит не более одной восьмой расходов на электроснабжение ЦОД. Много это или мало? Если какой-либо производитель в состоянии предложить решение, которое благодаря использованию каких-либо технологий позволит резко повысить КПД процессора по энергопотреблению, то есть резко сократить теплоотдачу, мы сможем заметно сократить расходы не только на питание процессора, но и на кондиционирование, резервирование и пр. И тогда игра, безусловно, стоит свеч.
Однако в большинстве случаев мы видим незначительные улучшения, так как сама технология производства современных процессоров не позволяет принципиально изменить их энергетические характеристики в силу вполне понятных физических ограничений.
В нашей стране очень многие потребители серверов и систем хранения не слишком озабочены затратами на электроэнергию. Такой вывод напрашивается даже не потому, что российскими заказчиками инфраструктурных решений, как правило, являются крупные компании и госучреждения, бюджет которых практически не ограничен. Дело в том, что даже поверхностный аудит состояния ИТ-активов отечественных потребителей показывает, что эффективность их использования по любому вектору параметров может быть увеличена в четыре-пять раз.
В то же время очень часто в России при строительстве ЦОД приходится сталкиваться с проблемой обеспечения этих объектов электроэнергией. В силу целого ряда причин у нас очень сложно обеспечить не то что питание от двух независимых сетей, как того требуют международные стандарты Tier, но даже в полном объеме удовлетворить потребность в мощности. (Стандарты Tier разработаны специалистами Uptime Institute. — Прим. ред.) И это отчасти может стимулировать интерес к энергосберегающим решениям в нашей стране.