Массовое распространение разнообразных специализированных вычислительных устройств, или «приставок», так называемых appliance (они могут быть аппаратными, программными или виртуальными), оказалось одной из основных тенденций в прогрессе ИТ из числа тех, которыми ознаменовался 2007 год. Это обстоятельство дает основание переосмыслить технологическую политику компании Network Appliance, включившей в свое название слово appliance полтора десятилетия назад.
В апреле 1992 года трое выходцев из компании Auspex Systems — Майкл Макгольм, Дэвид Хитс и Джеймс Лоу основали NetApp, опираясь на опыт, полученный ими ранее при разработке устройств, которые позже стали называть Network Attached Storage. Собственно идея NAS еще старше; она возникла в начале 80-х, когда сервер Novell NetWare «получил» протокол NCP, а компания Sun Microsystems выпустила сетевую файловую систему, позволяющую сетевым серверам предоставлять клиентам доступ к системам хранения. Тогда же на этой основе возникло несколько компаний-«стартапов», одним из наиболее успешных оказалась упомянутая Auspex, основанная Ларри Бучером. Сегодня Auspex уже не существует, но Бучер продолжает работать профессором в Университете Беркли, и к тому же основал еще одну компанию, Alacritech, специализирующуюся на технологии Session Layer Interface Control, позволяющей реализовать протокол TCP/IP на кристалле.
Эта история показывает, что конструкция «специализированной серверной приставки» (server appliance), объединяющей в себе файловый сервер и подключенное к ней устройство хранения, на которой работает усеченная версия операционной системы, сложилась в результате более чем двадцатилетней эволюции и существенно старше концепции сетей хранения (Storage Area Network, SAN), датируемой 1999 годом. В том, что она проверена временем, залог ее успеха. К тому же NetApp осуществляет очень четкую техническую политику, сосредоточившись исключительно на работе с данными и не выходя на уровень приложений. В 1998 году Хитс так сформулировал кредо своей компании: «Мы строим ящики, которые способны делать всего лишь одну вещь, но они делают ее намного быстрее, чем универсальные серверы».
Нынешний генеральный директор компании Даниэль Уорменховен в ходе семинара для европейских партнеров NetApp, прошедшего в декабре в Лейпциге, сформулировал эту же мысль несколько иначе: «Мы строим холодильники для данных. Откройте дверь. Возьмите, что вам нужно. Закройте дверь».
Ориентация на данные позволяет Уорменховену сделать еще одно уверенное заявление: «Серверы не критичны для вашего бизнеса, на них всего лишь работают приложения. В конце концов, вы можете заменить один другим. А данные должны сохраняться всегда».
За многие годы общая постановка задачи трансформировалась, она адаптируется ко времени, но не изменилась по существу. Патрик Роджерс, вице-президент NеtApp по маркетингу, говоря о ее нынешнем видении, выделяет четыре основных пункта, которые актуальны сегодня. Первый, идущий по значимости с большим отрывом от остальных, — виртуализация. Когда говорят о виртуализации, чаще имеют в виду серверы, но виртуализация систем хранения имеет не меньшее значение. Если виртуализируется и таким образом оптимизируется серверная инфраструктура, то очевидно, что и инфраструктура хранения не может остаться неизменной. Точно так же необходимо консолидировать накопители, уменьшив их число, сократив при этом потребление энергии, упростив администрирование. Если на сервере консолидировано какое-то количество виртуальных машин, то это радикальным образом меняет стратегию резервного копирования. Задача становится сложнее, нужны новые технологии создания «мгновенных снимков». В то же время решить ее необходимо, поскольку, по оценкам NetApp, в ближайшие три года более 50% серверов перейдут под управление VMware, а есть еще и другие технологии виртуализации. По этой причине NеtApp активно сотрудничает с основными игроками рынка виртуализации, прежде всего с VMware и Microsoft, а также с компаниями, связанными с платформой Linux. Разрабатывается версия программного обеспечения защиты данных SnapManager для VMware; она позволит делать индивидуальные «снимки» каждой из виртуальных машин.
Второй пункт — эффективное использование дискового пространства. Множественность виртуальных машин приводит к тому, что используемые ими данные повторяются, поэтому требуется технология, исключающая дублирование (deduplication) при создании резервных копий. Она распознает идентичные блоки и оптимизирующее использование дисков. Третий пункт — скорость сохранения данных. По мнению Андреаса Кенига, вице-президента компании по региону EMEA, сегодня скорость значит для потребителей больше, чем стоимость. Для этой цели используются технологии класса Thin Provisioning, предоставляющие системному администратору больше возможностей для управления ресурсами и таким образом позволяющие повышать скорость. И наконец, четвертый пункт — восстановление после катастроф (disaster recovery); эта задача становится актуальнее в связи с тем, что консолидация существенно уменьшает количество серверов, и выход из строя одного из становится более значимым событием.