Построение систем автоматизированного проектирования и конструирования на современном этапе предполагает создание интегрированной среды, связывающей и объединяющей в единое целое все вычислительные комплексы организации.
Вниманию читателей предлагается серия статей о современном подходе и перспективах развития вычислительных комплексов с точки зрения Sun Microsystems.
Рабочее место конструктора представляет собой один из возможных интерфейсов общей вычислительной системы, таких как рабочая станция, персональный компьютер, Java-терминал и т.п.
В таком случае, создание эффективной вычислительной системы определяется выбором платформы, которая должна:
- обладать высокой производительностью;
- обладать масштабируемостью;
- иметь широкий спектр приложений, охватывающий все процессы предприятия;
- иметь высокую надежность;
- быть доступна по цене.
Прежде чем рассуждать о превосходстве того или иного способа повышения производительности компьютерных систем следует понять, для чего вообще повышение нужно. Это дает возможность сравнить разные подходы к такому повышению и выбрать из многих предложенных "оптимальный". К сожалению, такой способ постановки проблемы лишает изложение некоторого элемента интриги. Читателя начинают одолевать сомнения - не притягивается ли обоснование задним числом, после того как стало понятно, что получилось, и вся оптимальность в его глазах приобретает черты вырожденного решения. Поэтому в данной статье мы попытаемся построить изложение в обратном порядке. Сначала приведем результаты, представляющих несомненный интерес тестовых испытаний, затем попытаемся дать краткое объяснение лидирующих позиций Sun, а затем проиллюстрируем на некотором примере то, что подход Sun особенно актуален именно сегодня.
Результаты тестов TPC-C и TPC-D
Оценка производительности вычислительных комплексов при работе с базами данных проводится по результатам испытаний TPC-C и TPC-D. В зависимости от типа предполагаемой нагрузки, будет ли это работа, связанная с постоянной модификацией базы данных, или это аналитическая обработка накопленной информации, - выбирается и тип тестовых испытаний, по результатам которых возможно составление представления о сравнительной производительности систем разных производителей.Работа, связанная с постоянной модификацией базы данных, оценивается в тестах TPC-C1. Оцениваемые параметры - количество проведенных транзакций в минуту (tpmC) и удельная стоимость транзакции ($/tpmC). Для tpmC производители вычислительной техники пытаются показать наиболее высокие результаты, что приводит к созданию очень больших систем для тестовых испытаний и служит хорошим критерием масштабируемости. Попытка создать системы с низкой удельной стоимостью транзакции приводит, в свою очередь, к необходимости тестировать сравнительно небольшие системы.
Тесты TPC-D1 - тесты, оценивающие возможности аналитической обработки накопленной информации. В них оцениваются 3 параметра - мощность QppD, пропускная способность QthD и удельная стоимость $/QphD. В тестах TPC-D нет полярных диапазонов и системы, занимающие лидирующие позиции по одному из оцениваемых параметров, почти наверняка находятся в тройке лидеров и по двум другим. Ценовые группы в этих тестах задаются размером обрабатываемой базы данных. Регистрируются результаты при размерах баз данных 30, 100, 300 и 1000.
Результаты тестов SPECweb96
Оценку производительности вычислительных комплексов при работе в качестве web - серверов дают результаты тестов SPECweb962. Здесь необходимо показать максимально высокий результат, соответствующий относительной мощности данной системы, т.е. максимальное количество операций HTTP в секунду, которое показывает данная система при выполнении теста SPECweb96.Итак, повышение производительности.
HP делает ставку на глубокую оптимизацию исполняемого кода и улучшение работы системы кэш-памяти, повышая скорость работы процессора; использует SMP (Symmetrical Multi-Processing) при создании систем среднего класса и проявляя тяготение к архитектуре NUMA и кластерам в старшем ценовом диапазоне.IBM, используя SMP в моделях младшего и среднего класса, явно предпочитает MPP (Massive Parallel Processing) при построении больших систем.
Digital удалось добиться повышения тактовой частоты процессора и построить очень удачные кластеры на базе SMP-моделей среднего класса.
Стратегический выбор Sun сделан в пользу SMP систем во всем ценовом диапазоне - от однопроцессорной Sun Ultra Enterprise 1 до первой UNIX-системы класса mainframe Sun Ultra Enterprise 10000 с 64 процессорами.
Приведенные результаты констатируют, что многопроцессорные системы Sun превосходят по показателям производительности очень хорошие системы других производителей, причем в некоторых случаях - при равном числе процессоров, т.е. SMP - системы Sun делает очень хорошо.
Как он их делает, мы рассмотрим в следующих разделах, посвященных операционной системе Solaris 2.6 и внутренней архитектуре серверов Sun Ultra Enterprise. Пока же мы ответим на поставленные вначале вопросы.
Первый из них - причина выбора SMP как подхода для построения всей линии серверов и рабочих станций. Ответ до банальности прост - 12000 приложений на платформе Solaris. Это главное богатство Sun Microsystems. Любое изменение архитектуры системы от чистой SMP к MPP, кластерам или архитектуре NUMA приведет к необходимости переписывать приложения. Они уже не будут масштабироваться.
Второй вопрос - где же все-таки в настоящий момент и почему нужна такая степень масштабируемости систем - от одного процессора в Sun Ultra Enterprise 1 до 64 процессоров в Sun
Ultra Enterprise 10000 при полной бинарной совместимости?
Термин Интранет широко используется для того, чтобы описать применение технологии Интернет для работы внутренней сети предприятия. В целом, сети Интранет используются сегодня в промышленности для организации более эффективного обмена информацией, с тем чтобы использовать парадигму поиска и обмена информации, рожденную и развитую в сети Интернет. Такой подход дает, в частности, сотрудникам предприятий осознание распределенного характера всей полноты доступных данных и навыка самостоятельного поиска и получения ответа на сформулированный вопрос. При этом оказывается вполне естественным, то, что сам конечный пользователь просто один-единственный раз уясняет себе как осуществлять поиск в сети Интернет/Интранет, а затем сам развивает и шлифует свое мастерство. При этом сохраняется классическая система обеспечения контроля за правами доступа ко всей информации системы, контроля за безопасностью в своей сети, т.е. шифрование, firewall, выделенные сегменты LAN, виртуальные LAN, систему контроля за использованием вычислительных, сетевых и других ресурсов, а также способы управления правами доступа к этим ресурсам. Новое состоит в том, что рабочее место оператора, клиента имеет WEB - интерфейс, через который он может получить доступ к любым информационным ресурсам в мире. Через тот же самый интерфейс оператор получает доступ к информационным ресурсам своего предприятия.При этом оказывается, что коль скоро ко всем возможным приложениям пользователь получает доступ именно через Java- или WEB - интерфейс, эпоха PC как единственно возможного рабочего места заканчивается. PC уходит в свою экологическую нишу, оставляя значительные области Java-терминалу.
Но наиболее интересным последствием Web-революции стало иное отношение к планированию потребной вычислительной мощности серверов. Действительно, поскольку пользователь, оператор получает практически неограниченную свободу перемещения по сети, никто заранее не может предсказать нагрузку на некоторый выделенный сервер. Вместе с тем, каждый Web-сервер оснащается по возможности максимально притягательным интерфейсом и т.д. Все стремятся привлечь пользователя на свой сервер. И когда этот сервер начинает испытывать затруднения при обслуживании возрастающего потока запросов пользователей, мгновенно, сохраняя полную бинарную совместимость, значительно увеличить его пропускную способность. Здесь, в частности и необходима та способность к масштабированию, которой обладают системы Sun Ultra.