Статью «Производство перетягивает высококвалифицированную работу в Китай? Исследование индустрии ноутбуков» написали Джейсон Дедрик и Кеннет Крэймер. Перемещение производства в регионы с более дешевой рабочей силой происходит в течение десятилетий, и становление Китая лидирующим производителем компьютерной аппаратуры является всего лишь новым этапом этого процесса глобализации.
Сокращение трудоемкого производства типично для таких стран, как США и Тайвань, двигающихся к постиндустриальной экономике. Хотя эти сдвиги разрушительны, они сопровождаются созданием более наукоемких производств и интеграцией в мировую экономику: еще в 1998 году в одном из аналитических обзоров глобализации в компьютерной индустрии отмечалось, что американским производителям компьютеров партнерство с азиатско-тихоокеанскими поставщиками стратегически выгодно для сохранения конкурентных преимуществ как внутри страны, так и за ее пределами. Сокращение числа рабочих мест на предприятиях по производству компьютеров компенсировалось созданием новых рабочих мест в областях исследования и разработки, проектирования продуктов и ИТ-услуг. Однако теперь происходит глобализация и этой деятельности. Компании привлекают к выполнению наукоемких работ партнеров из Ирландии, Израиля, Индии, а теперь и Китая. Это порождает беспокойство относительно будущего экономик США, Европы и Японии, а также стран со сравнительно недавно индустриализованной экономикой, таких как Тайвань. К сегодняшнему дню еще недостаточно исследованы масштаб подобных тенденций, их движущие и сдерживающие факторы, возможные последствия для компаний и стран. В статье исследуется процесс глобализации разработки новых продуктов в индустрии производства ноутбуков.
Прабхудев Конана (Prabhudev Konana) представил статью «Могут ли индийские софтверные компании конкурировать с мировыми гигантами?» (Can Indian Software Firms Compete with the Global Giants?). Хотя объем всей индийской индустрии ИТ-услуг составляет меньше четверти IBM Global Services, она оказывает существенное влияние на мировую индустрию консалтинговых услуг. Такие мировые гиганты, как IBM, Accenture, EDS и Deloitte быстро расширяют свое присутствие в Индии с целью получения выгод от использования дешевой и квалифицированной рабочей силы. В то же время индийские софтверные компании закрепляются в США для создания более тесных связей с заказчиками, требуемых для успешной конкуренции. Это встречное движение рабочих мест и кадров порождает интересную динамику конкуренции по мере выравнивания структуры цены и развития соперничества компаний за лидерство в наукоемких областях.
Автор прослеживает пять этапов развития ИТ-компаний. На первом этапе компании полагаются на мелкие проекты объемом меньше 100 тыс. долл. В этих проектах решаются повседневные задачи тестирования или низкоуровневого программирования, выполняемые в основном в офшорном режиме. С этого этапа начинали все индийские ИТ-компании. На втором этапе выполняются немасштабируемые проекты среднего уровня объемом до 1 млн долл. Компании продолжают выполнять низкооплачиваемую работу, но с большим вниманием относятся к качеству и надежности. Проекты включают собственные разработки объемом менее 20% от общей стоимости проекта. В компаниях организуются собственные группы разработчиков и процессы разработки на основе, например, CMMI. На третьем этапе у компаний появляются возможности обеспечения широкого диапазона продуктов и служб в виде, например, вертикальных решений. У компаний создается хорошая репутация из-зауспешного выполнения проектов небольшого и среднего размера с объемом от одного до 50 млн долл. Образуются небольшие подразделения, обеспечивающие качественный бизнес-консалтинг.
На четвертом этапе компании образуют собственные подразделения для обеспечения консалтинга и услуг и экспортируют эту модель в другие развивающиеся страны для экономии расходов на заработную плату. Возрастает число служащих не из Индии. Выполняются средние (объемом от 50 до 100 млн. долл.) и крупномасштабные (от 100 млн. до миллиарда) проекты. Компании сосредотачиваются на исследованиях и разработке технологий следующего поколения. На пятом этапе компании выходят на мировой уровень, преодолевая возможные культурные конфликты. Они становятся в состоянии получать и успешно выполнять многомиллиардные контракты с использованием гибридной «оншорно-офшорной» бизнес-модели.
Большинство индийских софтверных компаний пока находятся на первых трех этапах, а три крупнейшие (Infosys, Tata Consultancy Services и Wipro) переходят к четвертому. Однако для успешного перехода и дальнейшего продвижения к пятому этапу необходимо достижение лидирующих позиций в области высоких технологий.
Чтобы стать компаниями мирового класса и расширить свои стоимостные цепочки, индусы должны способствовать развитию своего лидерства в областях высоких технологий, стимулировать инновации и поощрять усилия для сглаживания культурных противоречий.
Крупные американские консалтинговые компании часто пытаются демонстрировать свое лидерство на основе концепций бизнеса и технологий, таких как клиент-серверный компьютинг, электронная коммерция, коллективные вычисления, grid и одноранговые вычисления. Американские компании пытаются переманивать специалистов из крупных индийских компаний. Очень вероятно, что через несколько лет производительность и качество услуг американских и индийских компаний в этой области сравняются.
У американских компаний имеется долгая традиция совершенствования процесса производства. Конкурентная среда и потребность в повышении производительности вынуждают компании разрабатывать новые процессы, обеспечивающие хотя бы кратковременное конкурентное преимущество. Хотя процессы производства индийских компаний сталкиваются как с внутренними проблемами, так и с внешними ограничениями, компании должны овладевать методами развития процессов, чтобы иметь возможность конкуренции при выполнении крупных проектов.
В заключение статьи автор предостерегает, что индийские компании, оказавшиеся неспособными к быстрому продвижению от одного этапа к другому, имеют большие шансы быть поглощенными американскими конкурентами.
Авторами статьи «Компонентное представление: пример Visitor» (Componentization: The Visitor Example) являются Бертран Мейер и Кэрин Арну (Bertrand Meyer, Karine Arnout). При разработке программного обеспечения лень является добродетелью — лучше воспользоваться чем-то готовым, чем сделать это заново. Паттерны, являющиеся основным достижением в области архитектур программного обеспечения, предоставляют общий словарь и каталог проектных решений, относящихся к часто встречающимся ситуациям. Но технология паттернов не поддерживает повторное использование, которое предполагает наличие компонентов — готовых к использованию модулей, которые можно немедленно интегрировать в приложение при наличии знания об абстрактном интерфейсе программы. Авторы статьи обнаружили, что в действительности можно расширить возможности паттернов, превратив некоторые из них в повторно используемые компоненты. Путем анализа процесса компонентного представления на примере важного паттерна Visitor авторы показывают, как можно воспользоваться преимуществами механизмов объектно-ориентированного языка для того, чтобы заменить работу по созданию программной системы с использованием паттернов повторным использованием готовых компонентов. Подход с повторным использованием не только проще, но и является более общим, чем подход на основе паттернов, поскольку позволяет устранить ряд ограничений. Анализ производительности крупного промышленного приложения показывает масштабируемость подхода.
Со времени первых публикаций в середине 90-х паттерны проектирования превратились в ведущий инструмент разработчиков программного обеспечения. Паттерн проектирования представляет собой архитектурное решение для ситуаций, часто встречающихся при проектировании программного обеспечения. Например, паттерн Visitor относится к следующему аспекту: некоторая структура данных содержит объекты, и требуется предоставить различным программным элементам (клиентам) средство «обхода» этой структуры с «посещением» каждого объекта в точности один раз и применением к объектам структуры произвольной операции по выбору клиента. Желательно достичь этой цели без потребности модификации программных элементов, описывающих данную структуру. Паттерн Visitor обеспечивает стандартную структуру, обладающую требуемыми свойствами.
Широкое распространение каталогов паттернов (например, E. Gamma et al., Design Patterns: Elements of Reusable Object-Oriented Software, Addison-Wesley, 1995, имеется издание на русском языке: Гамма Э., Хелм Р., Джонсон Р., Влиссидес Дж. Приемы объектно-ориентированного проектирования. Паттерны проектирования. СПб.: Питер, 2006) позволило образовать общий словарь разработчиков программного обеспечения. Это означает, что если кто-либо при обсуждении программного обеспечения предлагает использовать в данной ситуации Bridge, то все остальные участники обсуждения сразу смогут понять, что это значит. Основанные на коллективном знании многих разработчиков, паттерны образуют общий репозиторий передовых приемов проектирования программного обеспечения. Однако, с точки зрения инженерии программного обеспечения, паттерны проектирования являются шагом назад, если не применялось повторное использование кода.
Как полагают авторы, паттерн, такой как Visitor или Bridge, — это хорошая идея, воплощенная наполовину. Но если она действительно хороша, то почему ее следует использовать только как руководство по проектированию? Следует превратить паттерн в готовый для использования компонент. Именно этот процесс авторы называют компонентным представлением (componentization) паттернов. Для определения возможности компонентного представления авторы проанализировали все паттерны из упомянутой книги Гаммы и попытались превратить их в повторно используемые компоненты с использованием объектно-ориентированных механизмов языка Eiffel.
Следующая статья написана венгерским аспирантом (прошу обратить на это внимание российских аспирантов и их руководителей!) Золтаном Адамом Манном (Zoltan Adam Mann) и называется «Три врага: вырезать, копировать и вставить» (Three Public Enemies: Cut, Copy and Paste). Многим разработчикам программного обеспечения знакома ситуация, в которой после бессонной ночи, проведенной за отладкой программы, оказывается, что ошибки связаны с копированием сегментов кода, ставших несогласованными в процессе дальнейшего редактирования. Проблема, проистекающая из подхода к копированию кода, не является новой; многие исследователи изучали способы автоматического обнаружения скопированных сегментов кода.
Часто рекомендуемым подходом является рефакторинг скопированного кода — приведение сегментов к осмысленным абстракциям языка программирования (функции, макросу или классу) и замена вхождений сегментов на ссылки на соответствующие абстракции. Однако рефакторинг не всегда является наилучшим методом, и, очевидно, он не обеспечивает решения при других видах редактирования текста, которым присущи те же недостатки, что и копированию.
Одним из решений является замена операций вырезки, копирования и вставки операциями, которые непосредственно соответствуют семантике их использования. При исполнении этих операций пользователь может определить семантические связи между копируемыми объектами, и программа редактирования может использовать эту информацию для обеспечения долговременной поддержки этих связей. Это позволит избежать несогласованности, проистекающей из использования операций вырезки, копирования и вставки.
Последняя статья июльского номера журнала Computer называется «Беспроводные сенсорные сети для ориентирования в чрезвычайных ситуациях» (Wireless Sensor Networks for Emergency Navigation) и представлена тайваньскими специалистами Ю-Чи Ценгом, Менг-Шиуан Паном и Юен-Юнг Цаем (Yu-Chee Tseng, Meng-Shiuan Pan, Yuen-Yung Tsai). Быстрый прогресс технологий беспроводных коммуникаций и встроенных микроэлектронно-механических систем сделал возможным появление беспроводных сенсорных сетей (Wireless Sensor Networks, WSN). Обычно WSN должны быть самоконфигурируемыми и поддерживающими временную маршрутизацию. Современные исследования сосредоточены на различных особенностях WSN, включая управление энергопотреблением, маршрутизацию и передачу данных, самоорганизацию, развертывание, зону покрытия и локализацию. Поведение сети определяется требованиями конкретного приложения. Предыдущие навигационные приложения WSN не ориентировались на особенности чрезвычайных ситуаций, таких как аварийно-спасательные работы при пожарах, где более существенно быстро определить безопасные пути эвакуации, чем сэкономить энергопотребление.
Авторы предлагают распределенный навигационный алгоритм для применения в чрезвычайных ситуациях. В обычной обстановке сенсоры производят мониторинг среды. При обнаружении сенсорами аварийных событий предложенный протокол позволяет быстро разделить опасные и безопасные области, и сенсоры определяют пути эвакуации. Результаты имитационного моделирования и реализации показывают, что схема авторов обеспечивает безопасную навигацию и быстрое обнаружение путей эвакуации.
Советские корни компьютерной фотографии
Темой августовского номера журнала Computer (IEEE Computer Society, V. 39, No 8, 2006) является компьютерная фотография (Computational Photography). Имеется приглашенный редактор Оливер Бимпер (Oliver Bimber), представивший вводную заметку «Компьютерная фотография — следующий большой шаг» (Computational Photography — The Next Big Step).
Сегодняшнее мегапиксельное разрешение цифровых камер может легко обеспечивать качество уровня аналоговой фотопленки для широкого набора любительских и профессиональных приложений. Теперь мы стоим перед следующим большим шагом — компьютерной фотографией (computational photography).
У аналоговой и цифровой фотографии имеется одно общее ограничение — они фиксируют только интенсивность и цвета световых лучей, которые линейно проецируются простой системой линз на плоскость изображения в одиночный момент времени и при фиксированном освещении сцены. В основном продолжает использоваться принцип камеры обскура, известный еще с античности.
Первую большую статью тематической подборки — «Компьютерные фотокамеры: переопределение изображения» (Computational Cameras: Redefining the Image) — написал Шри Наяр (Shree Nayar). За последнее столетие фотокамеры подверглись значительной эволюции, однако в этом эволюционном процессе остался неизменным основополагающий принцип камеры обскура (camera obscura, «темная комната» на латыни). У традиционной фотокамеры имеются детектор (фотографическая пленка или пластинка) и объектив, который, по существу, фиксирует световые лучи, проходящие через его центр проекции, или действующую диафрагму. Другими словами, традиционная камера производит специальную и ограниченную выборку из полного набора лучей, или светового поля, располагающееся на реальной сцене. Компьютерные камеры выбирают световое поле совершенно другим образом, объединяя понятия фотокамеры и компьютера. В них используется новая оптика для отображения нетрадиционным образом лучей светового поля в пиксели детектора. Например, желтому лучу, который традиционной камере прошел бы прямо в детектор, назначается особый пиксель. Кроме того, можно изменить яркость и спектр луча до его получения пикселем, например, поменять цвет с желтого на красный.
Во всех случаях, поскольку зафиксированное изображение является оптически закодированным, было бы трудно интерпретировать его в исходной форме. Однако в компьютерном модуле об оптике известно все, что требуется, поэтому можно расшифровать зафиксированное изображение, чтобы произвести новые типы изображений. В обработке изображений можно выделить несколько измерений: пространственное разрешение, временное разрешение, спектральное разрешение, поле обзора, динамический диапазон и глубину. Каждая из рассматриваемых в статье компьютерных камер разработана в ходе исследований какого-либо из этих измерений.
Майкл Кохен и Ричард Сцелиски (Michael Cohen, Richard Szeliski) представили статью «Камера момента» (The Moment Camera). До появления фотокамер фиксация событий и обеспечение визуальной истории мира входили в круг обязанностей художников и хотя раннее искусство большей частью посвящалось религии и мифам, с XVI века голландские художники начали изображать сцены обычной жизни, что типично, например, для живописи Питера Брейгеля. Хотя никто не может полагать, что все действия, изображенные на его полотнах, происходили в одно и то же мгновение, Брейгель смог успешно зафиксировать моменты времени.
Понятие момента является ключевым в названии статьи. Для иллюстрации этого понятия можно провести ось от реально существующей действительности к ее субъективному восприятию. На конце реально существующей действительности фотограф обеспечивает некоторое подобие объективной визуальной записи события. Одно и то же визуальное событие каждым из нас воспринимается по-разному. На конце субъективно воспринимаемой действительности находится личное восприятие внешних воздействий, называемое в философии «первичными ощущениями». Где-то неподалеку от объективного конца оси находится субъективная точка, называемая авторами статьи моментом. В то время как первичное ощущение является субъективным и персональным, момент субъективен, но универсален.
Например, человек проводит 10% времени своего бодрствования с закрытыми глазами. В нормальном состоянии человек моргает 20 раз в минуту, и каждый раз закрывает глаза в среднем на четверть секунды. Тем не менее, глядя на своих друзей, мы видим их с открытыми глазами, никогда не видно их закрытых глаз, если только специально не концентрируемся на их моргании. С другой стороны, фотографии друзей часто удивляют нас, поскольку на них они выходят с закрытыми глазами. Довольно нелепый вид закрытых глаз, очевидно, не отражает момент, поскольку не соответствует тому, что мы привыкли видеть у своих друзей. В отличие от этого, более удачная фотография, на которой объект изображен с открытыми глазами, зафиксирован момент.
С появлением фотокамеры в середине XIX века искусство начало отходить от реалистичных изображений к более абстрактным областям импрессионизма, кубизма и более чистых абстракций. Фотокамера, способная фиксировать мгновения во времени, не может (за редкими исключениями) запечатлеть моменты. При соединении с вычислениями и пользовательским интерфейсом цифровые камеры могут вернуть нам возможность фиксации моментов, а не мгновенных снимков. Такие вычислительные камеры или системы вычислительной фотографии могут предоставить массу возможностей и фотографам-профессионалам, и любителям.
Описываемая в статье гипотетическая камера момента содержит новые механизмы фиксации света, которые могут облегчить исследования и разработки в областях компьютерной графики, компьютерного зрения и подобласти визуализации на основе изображений.
Следующая статья называется «Световые поля и компьютерная обработка изображений» (Light Fields and Computational Imaging), ее автор Марк Левой (Marc Levoy). Объединение компьютеров с цифровыми сенсорами привело к созданию нового мощного набора инструментальных средств, поддерживающих компьютерную обработку изображений (computational imaging). Использование компьютеров при формировании изображений революционизирует возможности наблюдения и анализа реального и рукотворного миров в самых различных научных областях, от сейсмотомографии (borehole tomography) в геофизических исследованиях до конфокальной микроскопии (confocal microscopy) в биологических науках. Многие методы обработки изображений применяются к видимой части спектра (visible wavelengths), и многие из них относятся к потокам лучей в пространстве.
Хотя идея о том, что лучи «протекают» сквозь среду, возникала еще в древности, только в 1846 году Майкл Фарадей в своей лекции Thoughts on Ray Vibrations первым предложил интерпретировать лучи как поле. Предложение Фарадея, основанное на его предыдущих работах по теории магнетизма, было правильным, но, будучи скорее экспериментатором, а не математиком, он не смог формализовать свои идеи. (О наиболее значительных результатах Фарадея можно прочитать в замечательной статье Игоря Тамма «Руководящие идеи в творчестве Фарадея», написанной им в честь столетия открытия электромагнитной индукции и опубликованной в журнале «Успехи физических наук» в 1932 году; см. ufn.ioc.ac.ru/ufn32/ufn32_1/Russian/r321_a.pdf.). Спустя 28 лет требуемую формализацию обеспечил Джеймс Максвелл в своих уравнениях. Эти уравнения, примененные к результатам Пьера Бугера, Иоганна Ламберта и др. в области теории света, привели к появлению в первой половине 20-го века потока работ в области теоретической фотометрии. Одним из наиболее заметных достижений явилась изданная в 1950 году книга Субрахманьяна Чандрасекара Radiative Transfer, посвященная передаче и рассеиванию световой энергии (в 1983 году Чандрасекар получил Нобелевскую премию за результаты в области физических процессов эволюции звезд). В литературу, посвященную компьютерной графике, эту работу привнес Джеймс Каджия в своей известной статье The Rendering Equation.
В число приложений фотометрии, считавшихся полезными в начале эпохи электричества, входили исследования в области искусственного освещения поверхностей. На основе результатов этих исследований Андрей Гершун определил понятие светового поля. В своей книге «Световое поле», изданной в Москве в 1936 году, а затем переведенной на английский язык и изданной в сокращенном варианте в 1939 году в Journal of Mathematics and Physics, Гершун установил, что количество света, поступающего в точки пространства, плавно изменяется от одной точки к другой (за исключением явных границ — поверхностей или теней) и, следовательно, может характеризоваться с помощью численных методов и аналитической геометрии. В своих работах, выполненных еще до наступления эпохи цифровых компьютеров, Гершун не имел возможности измерить световое поле, однако смог получить распределения облучения, наблюдаемые на поверхностях при их освещении источниками света различной формы.
С появлением компьютеров, цветных дисплеев и недорогих цифровых сенсоров мы можем фиксировать световое поле Гершуна, манипулировать им и отображать его. С тех пор, как понятие светового поля десять лет тому назад начали применять в компьютерной графике, исследователи используют его для перемещения между сценами без создания их трехмерных моделей, для цветокоррекции этих сцен без наличия знаний о свойствах поверхностей, для перефокусировки готовых фотографий, для создания неперспективных панорам и для построения трехмерных моделей сцен на основе их нескольких изображений.
Последняя статья тематической подборки написана Полом Дебевеком (Paul Debevec) и называется «Виртуальная кинематография: компьютерная цветокоррекция» (Virtual Cinematography: Relighting through Computation). Одна из первых фотографий (см. рис.) хранится в контейнере без доступа кислорода в Техасском университете г. Остин. Изображение довольно нечеткое, и чтобы разглядеть крышу деревенского дома ее создателя, Жозефа Нисефора Ньепса (Joseph Nicephore Niepce), требуется некоторое усилие.
Однако это усилие ведет нас к поразительной реальности: благодаря технологии фотографии световое изображение, возникшее во Франции в 1826 году, может быть воспроизведено за две тысячи миль от места съемки спустя два столетия. Используя терминологию цифровой обработки изображений, мы можем расценивать первую фотографию как двумерный массив значений пикселей, каждый из которых представляет количество света, поступившего в фотокамеру из некоторого угла. Если проиндексировать значения пикселей, основанных на горизонтальном и вертикальном компонентах этого угла, то можно представить фотографию в виде двумерной функции P?.
Современные методы фотографии обеспечивают возможность фиксации существенно больших объемов информации о световом излучении сцены. В цветной фотографии фиксируется еще одно измерение информации: количество отраженного света в диапазоне волн ((). Поэтому цветное изображение можно описать трехмерной функцией P((,(,(). В киноизображениях фиксируется, каким образом отраженный свет изменяется во времени, что добавляет к соответствующей функции еще одно измерение t.
В большинстве сегодняшних систем формирования изображений — кинематографе и телевидении — световое излучение фиксируется и воспроизводится во всех этих измерениях, обеспечивая еще более впечатляющее восприятие сцен другого времени и пространства. Большинство новшеств в технологии фиксации изображений обеспечивают способы получения функции изображения с улучшенными разрешением, диапазоном и точностью. Например, методы обработки изображений с большим динамическим диапазоном (High Dynamic Range Imaging, HDRI) позволяют увеличить диапазоны значений, фиксируемых в функции изображения, точно сохраняя диапазоны яркости от едва освещенного интерьера до прямого солнечного освещения. Методы панорамной и многонаправленной (omnidirectional) фотографии обеспечивают увеличение диапазона фиксируемых значений, фиксируя в некоторых случаях всю область отраженного света. В системах крупноформатной фотографии существенно увеличивается угловое разрешение, что позволяет получить десятки тысяч образцов по осям ( и (. В системах мультиспектральной и гиперспектральной фотографии повышается разрешение и диапазон значений, а в системах высокоскоростной фотографии увеличивается разрешение по оси t.
Если говорить о будущем цифровой фотографии, то следует задаться вопросом о возможности добавления новых измерений в информацию о сцене, которые можно было бы зафиксировать. В 1991 году Эдвард Адельсон и Джеймс Берген опубликовали статью, в которой было представлено математическое описание совокупного освещения сцены в виде семимерной пленоптической (plenoptic) функции P.
Эта простая функция, которая содержит внутри себя все фотографии, которые только можно сделать. Если бы было можно запрашивать пленоптическую функцию с заданием соответствующих параметров, то мы могли бы конструировать идеальные цветные изображения (или фильмы) всех событий истории. Пленоптическая функция используется в приложениях цветокоррекции изображений и других приложениях компьютерной фотографии.
Единственная большая самостоятельная статья августовского номера называется «Коллективная фильтрация спама с использованием сетей электронной почты» (Collaborative Spam Filtering Using E-Mail Networks). Ее представили Джозеф Конг, Бехман Резей, Нима Саршар, Ввани Ройчоудхари и Оскар Бойкин (Joseph Kong, Behnam Rezaei, Nima Sarshar, Vwani Roychowdhury, Oscar Boykin). Широкое распространение Internet привело к появлению нескольких видов крупномасштабных социальных сетей, в особенности, сетей электронной почты. К сожалению, за удобства, предоставляемые электронной почтой, приходится платить: хотя опорная связность сети является скрытой, что делает почти невозможным составление исчерпывающих каталогов индивидуальных списков контактов, сами адреса электронной почты можно легко получить из общедоступных документов. Спамеры используют эту уязвимость для затопления пользователей громадным количеством ненужной почты. Несмотря на всеобщие протесты против спама, эта проблема продолжает нарастать.
Один из обещающих подходов состоит в том, чтобы попытаться сыграть со спамерами в их собственную игру: обнаруживать спам и останавливать его распространение путем использования тех же сетей электронной почты и сервисной инфраструктуры, которые используют спамеры. Авторы статьи разработали систему, которая позволяет пользователям опрашивать всех своих клиентов электронной почты для определения того, что какой-либо другой пользователь в системе уже пометил подозрительное письмо как спам. Система является распределенной и основанной на сообщениях, что позволяет пользователям запрашивать информацию без перегрузки сети.
Снова наступает осень, пора задуматься о членстве в IEEE Computer Society в 2007 году.
Подробную информацию можно найти на сайте www.computer.org/portal/pages/ieeecs/join/index.xml. Всегда готов ответить на все возможные вопросы. С уважением, Сергей Кузнецов, kuzloc@ispras.ru