С течением времени наполнение большинства понятий, смешивающих вычислительные и мыслительные процессы (искусственный интеллект, нейроморфные вычисления), меняется. Например, символьные вычисления, человеко-машинные интерфейсы, когда-то составлявшие основное содержание соответствующих областей, сегодня воспринимаются как часть общего ИТ-мейнстрима. Тем интереснее посмотреть на текущее состояние направления когнитивных вычислительных систем, считающегося пока самостоятельным. Главная тема майского номера журнала Computer — когнитивные вычислительные системы. Приглашенные редакторы выпуска — Венкат Гудивада (Venkat N. Gudivada), Саратх Панканти (Sharath Pankanti), Гуна Ситараман (Guna Seetharaman) и Ю Чжан (Yu Zhang) — в статье «Когнитивные вычислительные системы: их потенциал и будущее» (Cognitive Computing Systems: Their Potential and the Future) фокусируются на результатах, полученных в последние годы, называя их «феноменальными» и приводя весьма спорный пример — беспилотный автомобиль. Авторы характеризуют когнитивные вычислительные системы как высокопараллельные обработчики, эффективные в условиях неопределенности, противоречивости и неполноты входящих данных. Обращаясь к истории, авторы относят к когнитивным системам и чат-ботов, и экспертные системы, и нейросети. А в качестве основных проблем направления указывают на потребность работы с большими массивами данных, необходимость обеспечения инфраструктуры высокопроизводительных вычислений для создания моделей и их переобучения, сложность адаптации к конкретным предметным областям, труднообъяснимость получаемых в когнитивных системах выводов, оптимизацию гиперпараметров.
В статье Дхармендра Модха (Dharmendra S. Modha) «TrueNorth: от нуля к 64 миллионам нейронов» (TrueNorth: Accelerating From Zero to 64 Million Neurons in 10 Years), представлены история создания и архитектура нейропроцессора TrueNorth. И хотя в широком коммерческом смысле сомнительно, что нейроморфный процессор от IBM сможет составить конкуренцию тензорным процессорам и графическим ускорителям в задачах глубинного обучения, сам факт применимости к этим задачам вкупе с впечатляющей энергоэффективностью подтверждает, что TrueNorth по праву занял место в Музее компьютерной истории в Маунтин-Вью.
Исследователи Стивен Пайл (Steven D. Pyle), Джастин Сэпп (Justin D. Sapp) и Рональд Демара (Ronald F. DeMara) в статье «Использование стохастичности для ситуационного обучения в бинаризованных глубоких нейросетях» (Leveraging Stochasticity for In Situ Learning in Binarized Deep Neural Networks) подняли вопрос об энергетической неэффективности любых решений, связанных с пересылкой данных между процессором и памятью. Авторами предложено спинтронное устройство с энергопотреблением менее 5 мкВт, работающее с двоичными ячейками резистивной памяти, которые потребляют 5 нВт и подключаются через псевдоматричный коммутатор.
Менеджер по прикладным исследованиям подразделения Amazon Никхил Расивасия (Nikhil Rasiwasia) обсуждает «Перспективы становления прикладного исследователя в области машинного обучения» (Perspectives on Becoming an Applied Machine Learning Scientist), отмечая общность базовых принципов и требуемых качеств академических и практических исследователей, а также различие критериев успешности результатов.
Статья «Движения глаз раскрывают значимость кадров на видео» (Human Eye Movements Reveal Video Frame Importance), которую подготовили Чжэн Ма (Zheng Ma), Цзясин У (Jiaxin Wu), Шэн-хуа Чжун (Sheng-hua Zhong), Дзяминь Дзян (Jianmin Jiang) и Стивен Хейнен (Stephen J. Heinen), посвящена результатам решения задачи автоматического реферирования (суммаризации) видео. Построенная авторами многопоточная нейросетевая модель, отслеживающая движения глаз, дает лучшие результаты по сравнению с моделями, учитывающими только физические характеристики видео. Кроме практической ценности для задач реферирования видео, результат имеет также общее значение, отмеченное приглашенными редакторами: паттерны движения взгляда отражают и мыслительные процессы обработки последовательной информации.
Вне рамок тематической подборки в выпуске опубликованы статья Луизы Морман (Louise M. Morman) «Как мы подготовим следующее поколение к карьере в нашу цифровую эпоху» (How Do We Prepare the Next Generation for a Career in Our Digital Era?), посвященная растущей значимости гибких навыков и стратегического мышления в новых условиях, и статья Сон Ун Хвана (Seong Oun Hwang) и Асифа Мехмуда (Asif Mehmood) «Ресурсный синдикат на основе блокчейна» (Blockchain-Based Resource Syndicate), в которой предлагается блокчейн на основе шифрованного вещания, обеспечивающий при этом контроль за нелегальным копированием цифрового контента. Последнюю статью номера «Можем ли мы доверять умным камерам?» (Can We Trust Smart Cameras?) написал Бернхард Риннер (Bernhard Rinner), в ней поднимаются проблемы безопасности в связи с широким внедрением устройств видеонаблюдения с функциями распознавания.
Главная тема июньского номера — «Квантовый реализм». Приглашенные редакторы Трэвис Хамбл (Travis S. Humble) и Эрик Дебенедиктис (Erik P. DeBenedictis), озвучивая в статье (Quantum Realism) проблему завышенных ожиданий, настроены оптимистично, считая представленные в статьях тематического блока результаты весьма обнадеживающими.
В статье «Гибридный подход к решению задач оптимизации на малых квантовых компьютерах» (A Hybrid Approach for Solving Optimization Problems on Small Quantum Computers) обсуждается проблема решения больших задач на современных квантовых компьютерах, ресурсы которых пока скромны.
Название статьи, которую написали Александру Палер (Alexandru Paler), Даниель Херр (Daniel Herr) и Саймон Девитт (Simon J. Devitt), дословно переводится так: «Реально маленькие обувные коробки: реалистичная оценка квантовых ресурсов» (Really Small Shoe Boxes: On Realistic Quantum Resource Estimation). Авторы представляют квантовый алгоритм в форме коробки — параллелепипеда, два измерения которого характеризуют доступные кубиты квантового процессора, а третье — время выполнения задачи. Подобные аналогии служат для аргументации основной идеи: реалистичные оценки потребности в ресурсах для квантовых задач должны согласовываться не только с возможностями квантовых процессоров, но и с адекватными задаче квантовыми кодами коррекции ошибок, а также должны учитывать последовательность выполнения операций, при этом оптимальная «укладка» задач в такие коробки и составляет одну из ключевых проблем.
Статья группы специалистов D-Wave «Практические квантовые вычисления» (Practical Annealing-Based Quantum Computing) объясняет мотивы выбора разработчиками технологии квантового отжига.
Группа исследователей IBM Research опубликовала в этом выпуске две статьи — «Преобразование задач для квантовых вычислений с применением сведения» (Reduction-Based Problem Mapping for Quantum Computing) и «Стохастическая оптимизация квантовых программ» (Stochastic Optimization of Quantum Programs), посвященные «приземлению» практических задач на системы IBM Q. В первой описан подход, позволяющий универсальным образом сводить вычислительно трудные задачи в квантовые алгоритмы, а во второй авторы развили технику методов Монте-Карло по схеме марковской цепи и создали метод стохастической оптимизации квантовых программ.
«Тирания срочности» (The Tyranny of Urgency) — так озаглавлен вышедший вне тематического блока материал Джорджа Халберта (George F. Hurlburt), посвященный проблеме интенсификации текущих задач кибербезопасности в условиях нелинейно растущего разрыва между количеством угроз и численностью и квалификацией специалистов по безопасности.
Мириам Бальхаузен (Miriam Ballhausen) представила «Разъяснения о свободных и открытых лицензиях» (Free and Open Source Software Licenses Explained). Свободное и открытое программные обеспечения образуют единый класс, обозначаемый FOSS, в связи с чем распространено заблуждение о синонимичности свободы и открытости в контексте программной продукции. Автор, отмечая этот момент, не уподобляется некоторым коллегам по цеху, раскапывающим «пограничные случаи» («свободный, но закрытый», «неоткрытый, но свободный»), а фокусируется на практической с точки зрения права классификаци FOSS. Разделительной чертой между двумя основными практическими классами оказывается так называемый копилефт — требование, чтобы производные работы наследовали в своих лицензиях право на свободное использование и создание новых работ; таким образом, лицензии с копилефтом и без такового оказываются на разных берегах движения FOSS. Также в статье разбирается и ряд других ограничений, которые могут накладывать свободные и открытые лицензии. В результате автор заключает, что лицензии FOSS — такие же составляющие правового комплекса авторских прав, как и прочие, и требуют столь же серьезного отношения в вопросах использования и создания производных работ.
Тема июльского номера журнала Computer — «Трансформационные вычисления и коммуникации» (Transformative Computing and Communication).
Относительно новую концепцию «трансформационных вычислений» разъясняют во вводном материале приглашенные редакторы — Мустафа Юсеф (Moustafa Youssef) и Фахим Кавсар (Fahim Kawsar): «взаимовыгодное, взаимообогащающее применение вычислительных и коммуникационных технологий, использование существующих инфраструктур и естественных сигналов для вскрытия новых, безотказных, а иногда и неожиданных способов переопределить наш повседневный вычислительный опыт». Это общее определение поясняется конкретными примерами, среди которых: выявление показателей жизнедеятельности человека по излучению тела; восстановление модели помещения по показаниям датчиков смартфонов; анализ эмоционального поведения человека по данным с надетых на него акустических наушников; передача информации посредством естественного освещения.
Статью «Будущее миллиметрововолновых систем масштаба помещений: проект объединения коммуникаций и дистанционного зондирования» (Future Millimeter-Wave Indoor Systems: A Blueprint for Joint Communication and Sensing) подготовили Мохаммед Аллулах (Mohammed Alloulah) и Ховард Хуан (Howard Huang). В ней обсуждается возможность соединения в одном классе двух радиосистем, выполняющих различные функции. Миллиметровые волны (крайне высокие частоты радиоволн в диапазоне 30–300 ГГц) уже давно используются для связи на небольшие расстояния. А с недавнего времени интерес к этому диапазону повысился благодаря началу освоения частоты 60 ГГц в десятигигабитном Wi-Fi и планам задействовать его для сетей 5G. Особое внимание к диапазону связано с возможностью его использования для миллиметровых сканеров, способных визуализировать поверхность тела человека. Идея авторов — соединить в одном протоколе функции связи и сканирования, для чего изучаются тонкости, возникающие в процессе построения таких систем в масштабе помещений.
Трансформационный характер коммуникаций особо подчеркнут в статье «Об использовании побочных беспроводных сигналов для дистанционного зондирования: взгляд за пределы 5G для индустрии следующего поколения» (On the Use of Stray Wireless Signals for Sensing: A Look Beyond 5G for the Next Generation of Industry) пяти авторов, первым из которых указан Стефано Савацци (Stefano Savazzi). Радиоизлучение от беспроводных устройств, пронизывая объекты и людей, несет в себе закодированную информацию об их окружении, а технологии машинного обучения уже сейчас практически в реальном времени позволяют по этим сигналам восстановить трехмерную динамическую модель окружающего мира.
Статью «Усиление познавательных функций посредством граничных вычислений» (Augmenting Cognition Through Edge Computing) Махадев Сатьянарайянан (Mahadev Satyanarayanan) и Найджел Дэвис (Nigel Davies) посвятили неизбежности применения граничных вычислений для построения интерактивных мобильных систем, оберегающих человека от опасностей и подсказывающих контекстную информацию. Приводимые авторами исторические данные по типичным мобильным и серверным процессорам демонстрируют превосходство одних перед другими как минимум на порядок. Обработку могло бы обеспечить публичное облако, но тут вмешиваются расстояния, дающие соответствующую задержку и снижающие доступность. Авторы приводят немало возможных приложений, позволяющих добиться усиления познавательных функций в реальном времени и неосуществимых без применения граничных вычислений.
В статье «Предсказание черт характера по интенсивности физической активности» (Predicting Personality Traits From Physical Activity Intensity) Нан Гао (Nan Gao), Вэй Шао (Wei Shao) и Флора Салим (Flora D. Salim) предлагают технику применения журнала акселерометра мобильного устройства для решения соответствующей задачи. Важно, что результаты основаны на достаточно обширном эксперименте с тщательной методологической подготовкой.
Статья «Гармонизация стандартов доступности для государственной политики» (The Harmonization of Accessibility Standards for Public Policies), которую написали Лурдес Морено (Lourdes Moreno) и Палома Мартинес (Paloma Martínez), поднимает проблему раздробленности стандартов адаптации государственных интернет-ресурсов для людей с ограниченными возможностями. Проанализировав регулятивные системы различных государств с точки зрения веб-доступности сайтов государственных услуг, авторы пришли к выводу, что разнобой в стандартах виновен в нынешних недоработках многих государственных электронных сервисов, а ведь только всеобщая и равная их доступность позволит говорить о полноценном «цифровом государстве». Последние законодательные акты США и Евросоюза уже во многом гармонизированы и опираются на стандарты, принятые в результате консенсуса (такие как WCAG 2.0), однако впереди еще много работы.
Заметку «Цейтнот от компьютеризации» (The Computerization Time Crunch), не вошедшую в тематическую подборку, Джеффри Баукер (Geoffry C. Bowker) посвятил редко обсуждаемому в профессиональной периодике феномену: по мере прогресса, связанного с механизацией, автоматизацией, цифровизацией различных отраслей человеческой деятельности, призванного, казалось бы, переложить рутинные задачи на машины и высвободить время человека на творческую деятельность, происходит обратный процесс. Виной всему «трудосберегающие» технологии: наличие компьютеров, информационных систем, электронных коммуникаций дает новые возможности и в конечном счете порождает новые обязанности, оказывающиеся по большей части рутинными. Например, появление стиральных и посудомоечных машин, пылесосов и кухонных комбайнов только увеличило трудозатраты домохозяек в связи с появлением новых возможностей и как бы естественным образом выросшими стандартами чистоты и качества питания.
В статье «Безопасность киберфизических систем: сцепка индукции и дедукции» (Security of Cyberphysical Systems: Chaining Induction and Deduction) Мухаммад Хан (Muhammad Taimoor Khan) и Ховард Шроуб (Howard Shrobe) описывают эффект, получаемый за счет тесной интеграции формальных и вероятностных методов для выявления и классификации угроз в киберфизическом мире. Авторы убеждены, что только такое сочетание принципиально разных подходов позволяет снизить ошибочные классификации.
Еще одну публикацию на тему кибербезопасности — «Безопасность через простоту: тематическое исследование по логико-сегментационному выводу» (Security Through Simplicity: A Case Study in Logical Segmentation Inference) — подготовили Джон Рот (John D. Roth), Кори Латтон (Corey E. Lutton) и Джеймс Микэй (James Bret Michae). В ней на примере исследования технологии виртуальной сегментации сетей Wi-Fi (когда внутри одной физической точки доступа возможно создать несколько виртуальных) показано расширение пространства уязвимости: рассылаемые каждой виртуальной сетью широковещательные сигнальные кадры с временными метками слишком многое рассказывают о соответствующих физических сетях. Авторы ратуют за простоту протоколов и снижение информационной наполненности кадров служебной информацией, позволяющей сделать далеко идущие выводы потенциальному нарушителю.
Статьи августовского номера сложно объединить одной предметной тематикой — наиболее концептуальным представляется текст группы авторов во главе с Массимо Виллари (Massimo Villari), озаглавленный «Osmosis: платформа осмотических вычислений для микроэлементов в облаке, на границе и в Интернете вещей» (Osmosis: The Osmotic Computing Platform for Microelements in the Cloud, Edge, and Internet of Things). За микробиологической аналогией скрывается действительно новая вычислительная парадигма, в которой компоненты могут перетекать между различными «органами», перерабатывающими информацию: серверной инфраструктурой, системами на границе, устройствами Интернета вещей. Таким образом, парадигма задействует разные модели вычислений: инфраструктурно-облачную, граничную, — но не расширяет или дополняет их, а лишь использует, раздвигая границы вычислительной эластичности от центра обработки данных вплоть до оконечных устройств. Для того чтобы это работало, все приложения представляются в форме графа так называемых микроэлементов, представляющих следующие категории: микросервисы, микроданные, микровычисления (microcomputing) и микродатчики (microactuartors). Платформа знает о свойствах соответствующих слоев (их вычислительной мощности, отзывчивости, надежности, стоимости обработки и передачи данных) и оркеструет эти микроэлементы, реализуя их в зависимости от заданных показателей уровня обслуживания.
«Как разработчики продвигают проекты с открытым кодом?» (How Do Developers Promote Open Source Projects?) — этим вопросом заинтересовались исследовали Хадсон Силва Боржиш (Hudson Silva Borges) и Марко Тулиу Валенти (Marco Tulio Valenti). Остановившись на 100 самых «звездных» проектах из GitHub, они подтвердили вывод о связи между популярностью проектов и регулярным использованием внешних инструментов их раскрутки, причем наилучшим каналом оказался сервис микроблогов Twitter. Алехандро Фигуэроа (Alejandro Figueroa) и Джон Аткинсон (John Atkinson) опубликовали статью «Обучение с двумя представлениями для выявления содержания веб-запросов» (Dual-View Learning for Detecting Web Query Intents), в которой предложили новый метод категоризации содержания пользовательских запросов к поисковым системам. Статью «Создание стабильного Интернета вещей посредством граничных вычислений» (Creating a Resilient IoT With Edge Computing) Хокен Ким (Hokuen Kim), Эдуард Ли (Edward A. Lee) и Шахрам Дустдар (Schahram Dustdar) посвятили проблеме DoS-атак на инфраструктуру Интернета вещей в условиях, когда отказы в обслуживании могут привести к последствиям, связанным с риском для жизни и здоровья людей. Тому же направлению посвящена статья «Безопасность сетевого уровня для Интернета вещей: возможности и проблемы» (Network-Level Security for the Internet of Things: Opportunities and Challenges). Основной предлагаемый метод борьбы — выявление аномалий в реальном времени, причем не только на уровне сети, но и на уровне поведенческого анализа оконечных устройств. В работе «Инженерия безопасности для машинного обучения» (Security Engineering for Machine Learning) Гари Макгроу (Gary McGrow), Ричи Бонетт (Richie Bonnet), Харольд Фигуэроа (Harold Figueroa) и Виктор Шепардсон (Victor Shepardson) составили таксономию атак, специфичных для систем машинного обучения, сделав вывод о необходимости интеграции техники безопасности в дизайн самих систем. В статье «Соблюдение норм лицензий на программное обеспечение с открытым исходным кодом: почему и как?» (Open Source License Compliance — Why and How) Хендрик Шеттле (Hendrik Schöttle) раскрывает особенности процессов контроля за выполнением условий лицензий, показывая их сложность по сравнению с аналогичными обычными коммерческими лицензиями. Хьель Хуле (Kjell J. Hole, Simula UiB) и Субутай Ахмат (Subutai Ahmat, Numenta) в статье «Искусственный интеллект на биологических принципах» (Biologically Driven Artificial Intelligence) отстаивают бионическую идею: системы общего искусственного интеллекта должны конструироваться на тех же архитектурах, что и мозг человека.
Андрей Николаенко (ANikolaenko@Ibs.ru) — архитектор, компания IBS (Москва).