Computerworld, США
Участники проекта PDSI исследуют, как масштабировать системы хранения, чтобы они эффективно обрабатывали петабайты данных
Дискуссии о производительности суперкомпьютеров почти всегда сводятся к обсуждению скорости вычислений, к тому, сколько тысяч миллиардов операций в секунду могут выполнять гигантские машины.
Производители и пользователи суперкомпьютеров любят также похвастаться такими вещами, как число процессоров, емкость памяти и пропускная способность передачи данных.
Значительно реже (хотя сейчас они приобретают все большее значение) возникают вопросы о памяти. Сколько жестких дисков и какой емкости имеет компьютер? Насколько быстро можно записать данные в память и прочитать их? Насколько легко и быстро можно перезапустить приложение после того, как на диске возник сбой?
Как масштабировать файловые системы, чтобы они эффективно обрабатывали петабайты данных? Как можно что-то найти, когда система имеет 30 тыс. дисков?
Эти и многие другие вопросы на ближайшие пять лет станут темами исследования института Petascale Data Storage Institute (PDSI), созданного недавно учеными трех университетов и пяти лабораторий Министерства энергетики США в рамках предоставленного министерством гранта в 11 млн. долл.
«Общая цель — сделать более эффективным, надежным, защищенным и простым в управлении хранение данных в системах, объемом десятки или даже сотни петабайт, распределенных между десятками тысяч дисков, возможно используемых десятками тысяч клиентов», — заявил Итан Миллер, профессор информатики университета Санта-Круз.
Эта система может быть совсем непохожей на ту, что используется в вашей бухгалтерии, но сотрудники PDSI считают, что новые технологии, полученные в результате исследований по созданию систем хранения емкостью уровня десятков петабайт, дойдут и до пользователей коммерческих продуктов.
«Использование кластеров высокопроизводительных компьютеров во многих коммерческих приложениях, например, в нефтегазовой отраслях или в биотехнологиях, устойчиво растет», — подчеркнул Гарт Гибсон, ведущий научный сотрудник PDSI и профессор университета Карнеги-Меллона. Он добавил, что коммерческие компании все чаще используют суперкомпьютеры.
«Высокопроизводительные вычисления позволяют не столько снизить издержки, сколько повысить качество выпускаемых продуктов», — отметил Гибсон.
Системы хранения, к сожалению, плохо масштабируются. Вот только часть из проблем, которые намерены решить в PDSI.
- Время доступа к диску не согласуется с емкостью диска. В 90-х годах компьютер мог считать весь жесткий диск менее чем за минуту. Теперь для считывания данных с самых больших по емкости дисков требуется три часа или даже больше.
«И в дальнейшем ситуация будет только ухудшаться. На восстановление после сбоя на диске будет уходить все больше и больше времени», — считает Миллер.
- По мере увеличения числа дисков в системе растет и вероятность того, что один из них в какой-то момент выйдет из строя. Сейчас в крупных системах ведущих лабораторий сбои возникают один-два раза в день, но в системах хранения емкостью несколько десятков петабайт ошибки будут происходить каждые несколько минут.
- В случае если на одном диске произошел сбой, остальным дискам, которые должны восстановить пострадавшие данные, приходится работать с еще большей нагрузкой, что увеличивает вероятность сбоя и на каком-то из них.
Приложения в лабораториях Министерства энергетики США (например, те, которые используются для моделирования старения ядерного оружия) могут работать непрерывно в течение нескольких месяцев. Они генерируют огромные объемы данных, в частности, потому, что периодически копируют содержимое памяти на диск в виде «контрольных точек» на тот случай, если на диске или в процессоре возникнет сбой. Исследователи планируют разработать более быстрые методы формирования контрольных точек и восстановления, а также более эффективные файловые системы и технологии обеспечения отказоустойчивости.
Одной из наиболее перспективных технологий, которые сейчас используются в лабораториях, является так называемое объектное хранение, благодаря которому клиенты могут напрямую получать доступ к устройствам хранения, не обращаясь к центральному серверу файлов. Устройства объектного хранения имеют процессоры, подключенные к ним таким образом, чтобы низкоуровневые функции, например, управление пространством, могли выполняться самими устройствами.
А поскольку объекты данных содержат как сами данные, так и метаданные, можно использовать точно настроенные, интеллектуальные средства управления для обеспечения защиты и достижения других целей. Более того, системы хранения на базе объектов, как правило, лучше масштабируются, чем традиционные системы.
Исследователи займутся также созданием протоколов и API-интерфейсов, в первую очередь, связанных с ОС Linux. Они помогут разработать расширения для стандарта POSIX, которые позволят более эффективно использовать файловые системы в компьютерных кластерах с высокой степенью параллелизма. Сотрудники института будут работать вместе с Open Group и IETF над модернизацией протоколов NFS для доступа к файлам, в большей степени отвечающих требованиям систем с высокой степенью параллелизма.
В PDSI планируют также заниматься множеством новых технологий, такими как оперативная память с изменением фазы (Phase-Change RAM, PRAM). Недавно компания Samsung Electronics анонсировала PRAM, которая поддерживает скорость динамической оперативной памяти и столь же энергонезависима, как флэш-память. По мнению Миллера, такая память удобна для размещения метаданных, поскольку к ней можно значительно быстрее получать доступ, чем к данным на диске.
PRAM можно использовать для хранения индексов, применяемых в механизмах поиска, что также позволит значительно ускорить их работу. Эти быстродействующие системы могут заинтересовать нефтяные компании, которым приходится хранить огромное количество информации, но которые не обладают столь значительными ресурсами, как, например, компании, подобные Google.
Очень немногие корпорации когда-нибудь будут использовать системы, сравнимые по размеру с теми, что установлены в лабораториях Министерства энергетики США и имеют десятки тысяч дисков.
Однако, как заметил Миллер, проблемы, которые намерен решить PDSI, свойственны даже настольным системам, число дисков в которых со временем становится все больше и больше. Эти проблемы, по словам Миллера, общеизвестны и свойственны даже системам начального уровня.