В публикациях ноябрьского номера журнала Computer (IEEE CS, Vol. 48, No. 11, 2015) речь идет о современных исследованиях на переднем крае науки, а также о развитии необходимых для этого суперкомпьютерных инфраструктур. Задачи астрофизики, полной разгадки генома, моделирования тектонических процессов и др., связанные с анализом лавин данных, требуют все более мощных компьютеров. Потребность в развитии научного знания — главная движущая сила разработки суперкомпьютеров экзафлопсной производительности.
В статье «Ансамблевые прогнозы погоды с ассимиляцией Больших Данных» (Numerical Weather Prediction with Big Ensemble Data Assimilation) Такемаса Миёси (Takemasa Miyoshi), Кеичи Кондо (Keiichi Kondo) и Кодзи Терасаки (Koji Terasaki) рассматривают проблемы, связанные с ассимиляцией больших объемов данных для повышения точности численных прогнозов погоды. Задача такой ассимиляции — одна из самых сложных с точки зрения потребностей в вычислительных ресурсах, но ее решение обещает возможность более точного предсказания экстремальных погодных явлений. В статье описывается современное положение дел в области численного прогнозирования погоды, демонстрируются преимущества использования множества выборок малого разрешения при ансамблевом моделировании.
Дилан Кеон (Dylan Keon), Черри Пэнкейк (Cherri M. Pancake) и Харри Йей (Harry Yeh), авторы публикации «Защита берегов: моделирование эффектов цунами и штормовых волн» (Protecting Our Shorelines: Modeling the Effects of Tsunamis and Storm Waves), описывают трудности прогнозирования стихийных бедствий. В статье приводится задача моделирования цунами и штормовых волн, требующая большого объема вычислительных ресурсов, для решения которой необходимо обработать колоссальные массивы распределенных данных. Рассматриваются вопросы, связанные c высокопроизводительными вычислениями, доставкой веб-сервисов, дизайном пользовательских интерфейсов и визуализацией.
В статье «Квантовая молекулярная динамика в постпетафлопсную эпоху» (Quantum Molecular Dynamics in the Post-Petaflops Era) Николс Ромеро (Nichols A. Romero), Айичиро Накано (Aiichiro Nakano), Катрин Райли (Katherine M. Riley), Фуюки Шимодзо (Fuyuki Shimojo), Раджив Калиа (Rajiv K. Kalia), Прия Вашиста (Priya Vashishta) и Пол Мессина (Paul C. Messina) приводят подробный обзор современных исследований в области молекулярной динамики, основанных на теории функционала плотности, а также описывают способ масштабирования метода параллельных реплик до очень большого числа процессоров.
В статье «Рейтинг Top500 и прогресс высокопроизводительных вычислений» Эрих Штромайер, Ханс Мойер, Джек Донгарра и Хорст Саймон рассказывают об истории главного суперкомпьютерного рейтинга и о перспективах его дальнейшего использования. Авторы признают наличие слабых сторон у рейтинга и указывают альтернативные тесты, способные заменить Linpack и Top500.
«Перезагрузка» ИТ
Ежегодный геометрический рост быстродействия компьютеров прекратился — близится закат действия закона Мура, долгое время служившего двигателем отрасли, и, чтобы производительность продолжала расти, нужны радикально новые подходы. Декабрьский выпуск Computer (IEEE CS, Vol. 48, No. 12, 2015) повествует о перспективных технологиях, архитектурах и инженерных стратегиях, обещающих продолжение роста быстродействия компьютеров.
Джон Шаф (John M. Shalf) и Роберт Леланд (Robert Leland) в статье «Вычисления после закона Мура» (Computing beyond Moore’s Law) напоминают, что для реализации идей «перезагрузки» понадобятся крупные источники финансирования. Авторы участвовали в разработке Национальной стратегической инициативы в области компьютерной техники, начатой летом 2015 года. Ее задача — разработка технологий, позволяющих продолжить рост быстродействия в следующие десять лет. Шаф и Леланд подчеркивают, что для оценки новых полупроводниковых материалов и инженерных подходов нужны дополнительные долгосрочные исследовательские программы.
В статье «Энергоэффективные вычисления поколения N3XT» (Energy-Efficient Abundant-Data Computing: The N3XT 1,000х) ученые Стэнфорда, Университета Карнеги — Меллона, Калифорнийского университета Беркли и Мичиганского университета описывают технологию Nano-Engineered Computing Systems Technology (N3XT), реализующую новый вариант закона Мура: размер элементов в горизонтальной плоскости предлагается сохранять без изменений, но увеличивать количество «этажей» в микросхемах с пространственной компоновкой. Основа N3XT — углеродные нанотрубки и мемристоры, но возможны и другие варианты. Для компьютеров на базе N3XT подошли бы как нынешние языки программирования, так и новые нейроморфные методы.
В статье «Вычисления на сверхпроводниках в крупномасштабных гибридных системах» (Superconducting Computing in Large-Scale Hybrid Systems) Скотт Холмс (D. Scott Holmes), Алан Кадин (Alan M. Kadin) и Марк Джонсон (Mark W. Johnson) оспаривают утверждение, что все компьютеры должны строиться по одной и той же базовой технологии, и предлагают использовать логические вентили на переходах Джозефсона. По убеждению авторов, крупномасштабные системы на сверхпроводящих элементах обеспечили бы преимущества по скорости и энергоэффективности и были бы способны выполнять большую часть ныне существующего ПО.
В статье «Как преуспеть в условиях экономики изобилия памяти?» (Adapting to Thrive in a New Economy of Memory Abundance) Керк Бресникер (Kirk M. Bresniker), Шарад Сингхал (Sharad Singhal) и Стэнли Уильямс (R. Stanley Williams) показывают, что при доступности огромных объемов энергонезависимой памяти на мемристорах нынешнюю процессорно-ориентированную модель вычислений потребуется заменить на другую, в которой центральной будет память.
В статье «Наномасштабные системы искусственного интеллекта» (Architecting for Causal Intelligence at Nanoscale) Сантош Ханавис (Santosh Khanavis) и соавторы описывают систему на магнитоэлектрических элементах, которая позволяет экономно решать задачи машинного обучения, учитывающие вероятность различных событий. Авторы противопоставляют неопределенность нынешним представлениям о том, что компьютер должен выдавать строго детерминированные результаты, а любое отклонение считается ошибкой.
В статье «Сети пороговых вентилей на основе мемристоров» (Ohmic Weave: Memristor-Based Threshold Gate Networks) Дэвид Маунтин (David J. Mountain) и соавторы описывают архитектуру, которая позволила бы придать компьютерам нейроморфные возможности. Исследования в области нейроморфных вычислений касаются компьютерных реализаций способностей мозга к обучению и распознаванию образов. Одна из таких работ направлена на создание вычислительного кластера, способного самообучаться на видеороликах YouTube.
Киборгизация человека
Лейтмотив публикаций январского номера Computer (IEEE Computer Society, Vol. 49, No. 1, 2016) — продвижение человечества к воплощению в жизнь идей киборгов и техногуманизма. Статьи выпуска посвящены повсеместным вычислениям, антропоцентричной разработке ПО, киберфизическим системам, изменениям архитектуры операционных систем и важным разработкам в области медицинских устройств.
Четверть века назад Марк Вейзер назвал распределенные вычисления третьим поколением вычислительной техники, вслед за мэйнфреймами и персональными компьютерами. В статье «После Вейзера: от повсеместных вычислений к коллективным» (Beyond Weiser: From Ubiquitous to Collective Computing) Грегори Эбауд (Gregory Abowd) рассуждает о том, что сегодня отчетливые очертания принимает уже четвертое поколение ИТ, основанное на трех столпах: облака; люди, своим коллективным вкладом дополняющие возможности машин; «вещи», носимые и мобильные устройства, соединяющие цифровой мир с физическим.
Карл Чанг (Carl Chang) в своей с татье «Ситуационная аналитика: основа новой парадигмы разработки ПО» (Situation Analytics: A Foundation for a New Software Engineering Paradigm) говорит о потребности в новых парадигмах разработки для антропоцентричных программных систем. Описываемый в публикации фреймворк Situ регистрирует психическое состояние пользователя на протяжении жизненного цикла программного сервиса, обеспечивая тем самым возможность его совершенствования. Например, если пользователь досадует, не поняв смысла какой-либо функции, можно уточнить ее описание.
В статье «Проблема ПО для критичной к безопасности медицинской техники» (The Challenge of High Confidence Medical Device Software) Чжихао Цзян (Zhihao Jiang), Хуссам Аббас (Houssam Abbas), Кук Цзинь Цзян (Kuk Jin Jang) и Рахул Мангарам (Rahul Mangharam) рассказывают о трудностях разработки программного обеспечения для кардиостимуляторов, дефибрилляторов и других жизненно важных устройств. Когда прошивка состоит из десятков тысяч строк кода, увеличивается вероятность ошибок, поэтому изделия такого рода нередко отзывают из продажи. Необходимы методы тестирования, гарантирующие, что устройство не сможет создать опасную для пациента ситуацию.
Название статьи «Перспективы операционных систем» (Outlook on Operating Systems), которую написали Деян Милоичич (Dejan Milojicic ) и Тимоти Роско (Timothy Roscoe), говорит само за себя. Авторы указывают на то, что в связи с резкими изменениями в требованиях к компьютерному ПО и оборудованию — от устройств IoT до ЦОД — традиционные Unix-подобные ОС утрачивают актуальность с точки зрения функционала и архитектуры. Возрастание сложности современного оборудования, состоящего из многих независимо спроектированных компонентов, а также переход на энергонезависимую память и другие новые технологии требуют и других операционных систем.
Новое в мире облаков
Февральский выпуск Computer (IEEE CS, Vol. 49, No. 2, 2016) рассказывает о новых тенденциях и разработках в сфере облачных технологий. За последние годы облака преобразовали ландшафт ИТ как для потребителей, так и для предприятий — изменилось все, включая доступ к информации, ее хранение, обмен ею, а также принципы общения, взаимодействия и обработки данных. Это привело к небывалому подъему исследований и появлению множества новых научных и отраслевых мероприятий. В номере приводится обзор нынешних инициатив, направленных на полную реализацию потенциала облаков. В частности, в публикации «Закон Амдала в эпоху облачных вычислений» (Extending Amdahl’s Law for the Cloud Computing Era) Фернандо Диас-дель-Рио (Fernando Diaz-del-Rio), Хавьер Салмерон-Гарсиа (Javier Salmeron-Garcia) и Хосе Луис Севильяно (Jose Luis Sevillano) пишут о переходе от централизованного выполнения приложений к распределенному и связанных с этим проблемах миграции различных процессов. В числе прочего трудности вызывают параллельное выполнение основных функций приложения и обеспечение взаимодействия. Авторы показывают, как с использованием расширенного закона Амдала для облаков можно оценивать целесообразность переноса приложений в облако с учетом потенциальных преимуществ по времени, расходу энергии и других факторов.
В статье «Факторы оценки фреймворков оркестровки облачных ресурсов» (Dimensions for Evaluating Cloud Resource Orchestration Frameworks) Алиреза Хошкбарфорушха (Alireza Khoshkbarforoushha), Мэйсун Ван (Meisong Wang), Раджив Ранджан (Rajiv Ranjan), Личжэ Ван (Lizhe Wang), Лейла Алем (Leila Alem), Сами Хан (Samee U. Khan) и Буалем Бенаталла (Boualem Benatallah) обсуждают характеристики фреймворков, помогающих переносить корпоративные приложения в облачные среды.
Публикация «Управление доверием в облаке: современное положение дел и исследовательские задачи» (Managing Trust in the Cloud: State of the Art and Research Challenges), которую подготовили Талал Нур, Цюань Шэн, Закария Маамар и Шерали Зидалли (Talal H. Noor, Quan Z. Sheng, Zakaria Maamar, Sherali Zeadally), рассматривает ключевые трудности управления доверием, связанные с идентификацией, приватностью, персонализацией, интеграцией, масштабируемостью и пр., которые сдерживают внедрение облаков. Авторы описывают различные подходы к управлению доверием, дают характеристику крупных облачных операторов с этой точки зрения и предлагают универсальную методику оценки систем управления доверием.
В заключительной статье «Энергоэффективное выполнение рабочих задач в корпоративных центрах обработки данных» (Energy-Efficient Workload Placement in Enterprise Datacenters) Цюань Чжан (Quan Zhang) и Вэйсун Ши (Weisong Shi) описывают новый способ улучшения энергоэффективности ЦОД. Предыдущие исследования в этой области фокусировались на снижении потребления энергии ИТ-оборудованием, при этом игнорировались потери на источниках бесперебойного питания. Но, как подчеркивают авторы, на долю ИБП в крупном ЦОД может приходиться до 15% энергозатрат.
Александр Тыренко (shoorah@osp.ru) — обозреватель, «Computerworld Россия» (Москва).