Помимо разработки приложений, современные облачные платформы предлагают организациям множество новых возможностей.
Директор по разработке IBM Mobile Platform Дэниэл Йеллин рассказывает о мобильной стратегии корпорации.
Темы июльского и августовского номеров журнала Computer (IEEE Computer Society, Vol. 46, No. 7, 8, 2013) — визуальная аналитика и новые технологии компьютерной памяти.
Современные представления о параллельном программировании столь же далеки от реального параллельного программирования, как зима от лета: и то и другое — времена года, но не может их различать лишь тот, кто зиму от лета отличает только по дате в календаре.
Долгое время понятие «грид» означало либо добровольное объединение вычислительных ресурсов, либо среду выполнения научных расчетов, но сегодня стало ясно, что объединение в единую распределенную инфраструктуру ресурсов памяти серверов, входящих в кластер, позволяет ускорить работу в режиме реального времени со структурами памяти больших объемов.
Большие Данные могут иметь самое разное происхождение, однако в любом случае извлечение знаний из них сопряжено с определенными трудностями. В решении этой задачи может помочь парадигма социальной сети -- в качестве инструмента анализа Больших Данных могут cлужить персональные децентрализованные облака, состоящие из социально связанных индивидуумов.
Аналитики обычно уделяют много внимания описанию порядка выполнения работ, образующих процесс, но недостаточно детально описывают взаимодействие людей, которые эти работы выполняют. Однако именно от распределения работ между участниками бизнес-процесса существенно зависит его успех.
Чем больше сотрудников компании или организации будет задействовано в моделировании бизнес-процессов, тем лучше — однако не всем доступны специализированные BPMS. Вместе с тем для моделирования можно использовать офисные пакеты, например Visio и SharePoint, которые по своим возможностям в ряде случаев не уступают средствам BPM профессионального уровня.
Большинство современных систем от мобильных устройств до суперкомпьютеров содержат ядра CPU и GPU, по отдельности хорошо справляющиеся со своими специфичными задачами, но как улучшить их совместное использование в таких «тяжелых» приложениях, как распознавание лиц или моделирование физики твердых тел? Можно ли добиться большей производительности и энергоэффективности, не меняя существующие модели программирования? Концепция гетерогенных систем — шаг на пути к решению этих задач.
Перед разработчиками стоит сегодня задача не столько построения компьютерной конфигурации, при запуске на которой производительность специально созданной тестовой программы превысила бы рубеж в один экзафлопс, сколько обеспечения максимально эффективного режима выполнения реальных приложений.
Машинное обучение — мощный инструмент обработки больших объемов данных, требующий, однако, выбора между качеством полученных моделей и временем их расчета. В то же время использование графических ускорителей позволяет распараллелить многие алгоритмы — в частности, обучения ранжированию в поисковой машине «Яндекс».
Каким бы мощным ни был традиционный суперкомпьютер, он все еще остается инструментом прошлого века, однако сегодня нужны иные компьютеры, способные не к вычислительному моделированию, а к непосредственному превращению данных в знание.
Рекордные на сегодняшний день по производительности суперкомпьютеры Tianhe-2 и Tianhe-1A по праву можно считать прообразом первых экзафлопсных суперкомпьютеров, и главная их особенность — гибридные вычислительные узлы. Анализ архитектуры TH-2 позволяет разобраться, в чем сила и слабость гибридности и в каком направлении будет развиваться HPC-индустрия в будущем.
Требования к программному обеспечению экзафлопсных систем сегодня выводятся из предположения, что они будут обладать сложной системой межпроцессорных коммуникаций и иерархией памяти. Какие сегодня имеются способы ускорения программ, выполняемых на многопоточных суперкомпьютерах со сложной иерархией памяти?