Современный мир начинает жить под знаком «data inside» — сегодня преимущества получает тот, кто сумеет выловить крохи информации из океана данных. Идет ли речь о сведениях о готовящемся теракте, которые надо отфильтровать в потоке трепа социальных сетей, о выявлении нерегулярных событий в массиве телеметрии от территориально размещенных сенсоров или выделении целей для группировки беспилотных летательных аппаратов — везде сейчас требуются высокопроизводительные системы, способные работать с распределенной памятью.
Действительно, как пишут авторы этого номера, посвященного экзафлопсным технологиям, достижения, например в археологии или геодезии, все больше сегодня зависят от того, насколько успешно удается обработать огромные объемы цифровых данных, полученных во время полевых исследований. Возникла даже новая парадигма научных исследований, в соответствии с которой открытия делаются по результатам анализа данных. Высокопроизводительные системы не только позволяют увеличить масштабность работы специалистов из разных областей, но и делают доступными для анализа и принятия решений огромные объемы как оперативных данных, так и данных многолетних наблюдений, лежащих мертвым грузом, как, например в геодезии. Однако для обеспечения реальной возможности работы в эпоху «data inside» требуется решить множество серьезных проблем, и не только технологических.
Как известно, что-либо новое человек делает обычно в том случае, если уже не срабатывает привычный набор средств — это и наблюдается сегодня в HPC-индустрии, оказавшейся перед экзафлопсным барьером. Сегодня пока ни одна ИТ-компания и даже страна не может заявить, что обладает всем пакетом технологий для суперкомпьютера мощностью 1 EFLOPS, для создания которого необходимо комплексное решение задач энергопотребления, повышения эффективности работы с распределенной памятью, распараллеливания приложений и т.п. Только при условии конвергенции усилий всех компетентных разработчиков можно сегодня вести проект создания экзафлопсного суперкомпьютера. В этом номере собраны точки зрения большинства российских разработчиков, обладающих неплохой экспертизой в отдельных областях суперкомпьютеростроения, среди которых: сети, микропроцессоры, инфраструктура, управление, подготовка кадров. Отрадно, что, как отмечается в статье «Суперкластер с глобально адресуемой памятью», в стране в начале 2011 года была предложена концепция создания экзафлопсного суперкомпьютера, но, как пишут авторы другой статьи, скудость информации о проводимых работах не позволяет составить полноценной картины. В определенных пределах это, конечно, оправданно, однако в общем случае закрытость не способствует качественному выполнению таких масштабных проектов.
Вместе с тем некоторые доступные общественности публикации по создаваемым в стране HPC-решениям не раскрывают каких-либо метрик, позволяющих оценить достигнутые результаты. Например, при решении важнейших технических задач, таких как создание систем управления автономными мобильными комплексами, часто применяется трехмерное быстрое преобразование Фурье, и возможности соответствующей компьютерной системы могут отлично иллюстрировать выполнение типового теста NASA NPB. По мнению наших авторов, было бы целесообразно создание на базе академических или вузовских структур центра тестирования, позволяющего объективно оценивать перспективы конкретных экзафлопсных технологий, тем более, что опыт функционирования таких центров в стране имеется.
Некоторые авторы журнала считают, что гонка за экзафлопс не нужна и уже имеющиеся суперкомпьютеры недозагружены. Причина этого может заключаться в несбалансированности навязываемой чиновниками структуры расходов бюджетных средств на высокопроизводительные системы, регламентирующей выделение денег исключительно на оборудование, а не на разработку параллельных приложений, обслуживание, модернизацию и управление систем HPC.
Тема интеграции облаков активно обсуждается сегодня в странах, приобретение сервисов из облаков в которых стало привычным делом. Однако и там глобальным облакам, при всей их привлекательности, не удается пока широко войти в практику работы предприятий — крупные компании создают частные облака, а остальные охвачены ими слабо. Проблема интеграции стала барьером на пути облаков: множество приложений и их поставщиков; множество платформ доставки приложений, обеспечивающих доступ к приложениям отовсюду; множество источников данных, имеющих различную степень структурированности — все это не позволяет применить к облакам обычную клиент-серверную интеграцию.
Сложившееся положение дел, как отмечает Леонид Черняк, может изменить появление облачных брокеров, решающих задачи интеграции облаков. Располагаясь между пользователями и провайдерами облаков, такие брокеры могут придать сервисам необходимые потребительские качества — аналитики считают, что к 2015 году размер образующегося сегмента облачных брокеров на ИТ-рынке может превысить 100 млрд долл.
Идеей экзафлопсного суперкомпьютера озаботились уже во многих странах: одни пока обсуждают и формируют концепцию, другие уже имеют четкий план работ, о ходе которых они дозированно сообщают общественности, третьи развернули мощную государственную программу создания комплекса экстремальных технологий, требуемых для достижения экзафлопса, а в четвертых такая деятельность направлена на распил и амбиции.