Заголовок первой статьи тематической подборки повторяет тему номера, а написали ее Йонхон Тиан (Yonghong Tian), Тайджун Хуан (Tiejun Huang), Джайдип Сривастава (Jaideep Srivastava) и Ношир Контрактор (Noshir Contractor). Блоги и социальные сети становятся все более важной частью медийного контента, используемого посетителями Сети. При повсеместном наличии мобильных телефонов, цифровых фото- и видеокамер Интернет становится основным каналом доставки мультимедийного контента, и поскольку появились сайты, поддерживающие социальные сети (Facebook, MySpace, Blogger, LinkedIn) и такие сервисы, как YouTube, Flickr и Youku, которые становятся платформами, облегчающими производство и совместное использование пользовательского контента, а также создание крупных групп единомышленников, то можно говорить о следующем витке эволюции средств коммуникаций.
Гибрид технологий мультимедиа и социальных сетей, который авторы статьи называют социальным мультимедиа, поддерживает новые типы взаимодействий пользователей. Так, агрегация данных о поведении всех пользователей, смотрящих один и тот же видеоролик (например, сведений о нажатии кнопки «пауза»), может помочь выявить наиболее интересные сцены и объекты. Очевидно, что у социального мультимедиа имеется громадный потенциал для изменения способов коммуникации и сотрудничества людей.
Под влиянием роста числа приложений для социальных сетей возникла новая парадигма компьютинга — социальный компьютинг, предполагающий исследование общественного поведения и организационной динамики, а также управление ими для создания интеллектуальных приложений. Однако широкое распространение социального мультимедиа ставит новые серьезные проблемы, связанные с общественной активностью и взаимодействием в контексте мультимедиа. Имеется много нерешенных проблем и в области собственно мультимедиа, и социальное мультимедиа может помочь усовершенствовать существующие мультимедийные приложения. Термин «социальный мультимедийный компьютинг» характеризует междисциплинарную область исследований и разработки приложений, опирающихся на достижения в области общественных наук и технологии мультимедиа.
Следующую статью тематической подборки – «Сервисы подключения к социальным сетям» (Social-Networks Connect Services) – представили Му Нам Ко (Moo Nam Ko), Горрелл Чик (Gorrell Cheek), Мохамед Шехаб (Mohamed Shehab) и Рави Сандху (Ravi Sandhu). Сайты социальных сетей позволяют пользователям устанавливать новые контакты, создавать профили для хранения и совместного использования с другими пользователями различного контента. Обновление пользовательского профиля интересным контентом является формой самовыражения, способствует привлечению к таким сайтам новых посетителей, а для обеспечения более насыщенного контента сайты социальных сетей предлагают Web-сервисы. Через специальные интерфейсы эти сервисы позволяют сторонним разработчикам взаимодействовать с сайтом социальной сети, получать доступ к информации и создавать социальные приложения, агрегирующие, обрабатывающие и производящие новый контент на основе выявляемых интересов пользователей. Прикладные сервисы могут перемешивать данные пользовательских профилей со сторонними данными и распространять новые сервисы поддержки связи с пользователями. Кроме того, пользователи могут запускать различные приложения, работающие с контентом многочисленных сторонних сайтов, например, пользователи Facebook могут совместно с друзьями использовать музыкальные записи, создавать плей-листы и получать уведомления о концертах путем установки приложения iLike.
Набирают популярность сервисы подключения к социальным сетям (Social-Networks Connect Service, SNCS), такие как Facebook Platform, Google Friend Connect и MySpaceID, открывающие еще больший доступ к данным из социальных сетей. SNCS дают возможность сторонним компаниям разрабатывать социальные приложения и расширять собственные сервисы, не прибегая к хостингу или построению собственной социальной сети. Например, сторонние компании могут использовать сервисы аутентификации, предоставляемые каким-либо сайтом социальной сети, так что для доступа к сайту сторонней компании от пользователя не требуется создания еще одной пары «логин-пароль». Пользователи могут продолжать применять на этом сайте свою учетную запись в социальной сети и сформированный профиль. Кроме того, пользователи могут обращаться к сторонним сайтам, обогащающим контент пользовательских профилей в социальной сети, что способствует улучшению восприятия контента. Таким образом, SNCS, способствуя формированию интересного контента из самых разнообразных источников, влияют на рост популяции социальных сетей.
Завершает тематическую подборку статья Фей Ю Ванга (Fei-Yue Wang) и еще шести авторов «Исследование системы поиска в условиях расширения знаний» (A Study of the Human Flesh Search Engine: Crowd-Powered Expansion of Online Knowledge). Концепция «поиска во плоти» (Human Flesh Search, HFS), возникшая в Китае, в последние пять лет привела к возникновению в этой стране нового взрывоопасного Web-явления. Пользователи повседневно применяют HFS для выявления коррумпированных правительственных чиновников и частных лиц, занимающихся незаконной или аморальной деятельностью. HFS поддерживает также социальные службы, помогающие, например, людям разыскивать родственников, потерявшихся в кризисных ситуациях.
Термин «поиск во плоти» происходит от дословного перевода китайского словообразования, означающего поиск, выполняемый при помощи людей в отличие от полностью автоматического поиска, и часто направлен на выяснение личности какого-либо человека. Более точным переводом был бы «поиск, поддерживаемый людьми» (people-powered search), но устоявшегося определения в компьютерном контексте пока еще нет. Например, в блоге сайта SearchEngineWatch.com концепция HFS определяется, как «нахождение и порицание тех людей, которые публикуют в Web материалы, неугодные пользователям». В газете Times такой вариант поиска характеризуется как «электронная охота на ведьм» (digital witch hunts), а в блоге сайта guardian.co.uk его называют «интернет-сборищем, которое выслеживает реальных людей и публикует конфиденциальную информацию своих жертв». Китайские источники дают более широкие определения. Например, на сайте ChinaSupertrends.com о HFS говорят как об «онлайновых группах, собирающихся на основе использования китайских электронных досок объявлений, чатов и систем мгновенных сообщений для совместного решения некоторых задач».
Для эмпирического изучения HFS авторы статьи собрали полный набор эпизодов, относящихся к HFS, начиная с 2001 года и до 5 мая 2010 года. Для каждого эпизода фиксировались время начала и конца HFS-активности, основные типы онлайновых и офлайновых активностей, природа события и окончательный результат. Для 211 эпизодов удалось собрать исходные потоки сообщений, которыми обменивались пользователи, а также их посты. Проанализировав собранные данные, авторы выявили две определяющие характеристики HFS. Во-первых, в большинстве HFS-эпизодов значительная часть активности происходила в режиме офлайн путем, например накопления информации. Во-вторых, почти во всех эпизодах группы формировались на добровольной основе — пользователи объединялись для обмена информацией, совместного проведения исследований и выполнения других действий в общих интересах.
Вне тематической подборки в августовском номере опубликованы три статьи.
Яцек Изидоржик (Jacek Izydorczyk) и Михаэл Изидоржик (Michael Izydorczyk) представили статью «Масштабирование микропроцессоров: какие ограничения сохранятся?» (Microprocessor Scaling: What Limits Will Hold?). Законы термодинамики и квантовой механики налагают ограничения на разработку изделий микроэлектроники, которые в той или иной форме всегда учитывались проектировщиками и первых интегральных схем, и современных систем на кристалле (System on a Chip, SoC), а кроме того, эволюция технологии направлялась законом Мура. Однако сегодня применимость закона подвергается сомнению. Ускорит или замедлит это темпы развития микроэлектроники? Авторы полагают, что возможности технологии, если оценивать их числом битов, обрабатываемых с секунду, в расчете на квадратный сантиметр полезной площади кристалла, в следующие четыре десятилетия будут расти экспоненциально. Первые 20 лет будут посвящены поиску новых материалов, устройств и схем, позволяющих повысить энергоэффективность обработки данных, а следующие два десятилетия будут направлены на разработку новых парадигм проектирования, позволяющих, в частности, создавать надежные и предсказуемые системы на основе ненадежных компонентов. К концу сорокалетнего периода можно ожидать появления средств энергоэффективной аналоговой обработки, что позволит создавать вычислительные машины с архитектурой, схожей с нервной системой человека.
Авторы приходят к выводу, что возможности будущей технологии будут зависеть не от размера интегрированных устройств, а от способности схемы отводить тепло и сократить потребляемую энергию. Для поиска решения в статье анализируются закон Мура, ограничения на развитие микроэлектроники, законы термодинамики и теория информации. По мнению авторов, в ближайшее время трудно ожидать появления революционных решений для сокращения потребления энергии и отвода тепла, но постоянные совершенствования технологии CMOS (complementary metal-oxide semiconductor) настолько очевидны, что нельзя уверенно говорить о реальных ограничениях.
Авторами статьи «Практический распределенный компьютер на основе использования Ibis» (Real-World Distributed Computer with Ibis) являются 13 исследователей из Амстердамского Свободного университета. Первым в списке авторов числится Генри Бал (Henri Bal). В последние два десятилетия наблюдается гигантский прогресс в применении высокопроизводительных и распределенных компьютерных систем, но, к сожалению, текущая практика показывает, что пока имеются проблемы с их эффективным использованием. Например, сегодняшние grid-системы используются для выполнения крупномодульных программ с изменяющимися параметрами или программ, основанных на архитектуре master-worker. Использование grid для выполнения более сложных приложений обычно ограничивается упрощенными схемами планирования, выбирающими для выполнения приложения какой-либо один узел. Эта ситуация плачевна, поскольку многие научные и производственные приложения могли бы получить выигрыш от использования распределенных компьютерных ресурсов. Эффективному выполнению более широкого класса приложений способствуют достижения в области оптоволоконных компьютерных сетей. Кроме того, исследователи не обращают достаточного внимания на проблему, которая может возникнуть при совместном использовании нескольких разобщенных систем для выполнения одного распределенного вычисления.
По сути, каждый кластер, grid и каждая облачная вычислительная среда обеспечивают четко определенные политики доступа, полную связность и простой доступ ко всем своим ресурсам. Однако при объединении нескольких систем образуется распределенная система, разнородная по составу программного и аппаратного обеспечения, что приводит к возникновению проблем интероперабельности. Также вероятно возникновение коммуникационных проблем из-за межсетевых экранов, разных способов трансляции сетевых адресов и т. п. Кроме того, системы часто объединяются динамически.
Применение высокопроизводительного распределенного компьютинга можно упростить, если абстрагироваться от этих сложностей за счет наличия одной программной системы, пригодной для использования в любой распределенной системе. По существу, такая система должна обеспечивать две логически независимых подсистемы: систему программирования, обладающую функциональными возможностями, которые традиционно ассоциируются с языками программирования и коммуникационными библиотеками, и систему развертывания, обладающую функциональными возможностями, которые ассоциируются с операционными системами.
Исследователи во всем мире активно изучают средства и механизмы высокопроизводительных и распределенных вычислений, но ни одна из существующих программных систем не обеспечивает полного спектра требуемых возможностей. Проект Ibis направлен на устранение этого изъяна, обеспечивая интегрированную систему, основанную на простой, ориентированной на пользователей философии: практические распределенные приложения должны разрабатываться и компилироваться на локальной рабочей станции, а потом развертываться в некоторой распределенной системе.
Последнюю большую статью номера написала группа авторов, и первым в списке стоит Симон Потегис Цварт (Simon Portegies Zwart). Статья называется «Моделирование Вселенной с использованием межконтинентального Grid» (Simulating the Universe on an Intercontinental Grid). Пониманию Вселенной учеными мешает неясная природа холодной темной материи, и наблюдения за крупными структурами дают некоторое представление о сути этого явления, в частности, понимание поведения темной материи. Например, исследователям известно, что Млечный Путь и другие галактики быстро вращаются и что темная материя удерживает звезды от выброса за пределы галактики. Известно, что на темную материю воздействует гравитация и что между ее частицами отсутствует электромагнитное взаимодействие.
Для более глубокого изучения темной материи ученые опираются на моделирование, однако возможность моделирования Вселенной в целом пока отсутствует, поэтому в моделях охватывается только некоторый сектор Вселенной, и для его расширения до бесконечности используются периодические граничные условия. Точная природа темной материи остается загадкой, и наиболее перспективная гипотеза состоит в том, что это скопление слабо взаимодействующих массивных частиц. Популярным методом моделирования такой материи является моделирование гравитационного взаимодействия N тел, когда каждая моделируемая частица представляет текучее тело, состоящее из частиц темной материи. Однако такое моделирование оказывается очень ресурсоемким; например для крупномасштабного моделирования гравитационного взаимодействия N тел на одном суперкомпьютере может потребоваться несколько месяцев.
Все это побудило авторов провести исследование применимости вычислительного grid для имитационного моделирования космологической задачи гравитационного взаимодействия N тел. Известно, что использование распределенных ресурсов более рентабельно, если время вычислений значительно превышает время коммуникаций, а именно так обстояли дела в данном случае. Используемый grid, называемый авторами CosmoGrid, состоит из двух суперкомпьютеров: IBM Power6, который установлен в Национальном академическом суперкомпьютерном центре Нидерландов в Амстердаме, и Cray XT4 в Центре вычислительной астрофизики Японской национальной астрономической обсерватории в Токио. Цель создания этого grid заключалась в исследовании возможности эффективного использования большого числа процессоров, когда их разделяют полпланеты. Если бы авторам удалось выполнить моделирование с использованием суперкомпьютеров, находящихся на большом расстоянии один от другого, можно было бы расширять созданную виртуальную организацию, добавляя в нее большее число суперкомпьютеров.
Авторам удалось переписать код реализации известного алгоритма моделирования treePM (particle-mesh) таким образом, что эффективность моделирования повысилась на 90% по сравнению с моделированием на одном суперкомпьютере. Эти результаты подтверждают возможность использования grid для высокопроизводительных вычислений.
Хочу обратить внимание читателей еще на один материал августовского номера – заметку Энтони Клива (Anthony Cleve), Тома Менса (Tom Mens) и Жана-Люка Эно (Jean-Luc Hainaut), озаглавленную «Эволюция систем, насыщенных данными» (Data-Intensive System Evolution), посвященную проблеме эволюции приложений баз данных. И особенно приятно, что заметка написана без излишних умствований типа разработки, направляемой моделями (Model-Driven Development, MDD), хотя речь, по существу, идет именно об этом. Эту заметку с удовольствием почитают многие отечественные практики приложений баз данных, и она может навести на интересные мысли студентов и аспирантов, ищущих темы для самостоятельных исследований.
До новой встречи, с уважением, Сергей Кузнецов, kuzloc@ispras.ru .