Что делать, мы ведь живем в информационную эпоху, как называют с недавних пор двадцать первый век, а не в индустриальную, как называли двадцатый. Но информационная эпоха не становится по умолчанию эпохой знаний.
Постоянно пополняющийся океан информации не превращается даже в море знаний, ведь информации много, она разная, разбросана по всем закоулкам сети, и знания из нее нужно еще уметь добыть. Вспоминается пример из услышанного на «Платформе 2009» доклада: хранилище данных на SQL Server 2008, созданное в рамках проекта по контролю всех околоземных объектов с целью раннего распознавания астероидной опасности, имеет размеры в несколько петабайтов, что неудивительно, ведь в рамках проекта развернута система телескопов панорамного обзора и быстрого реагирования, и каждый телескоп имеет 1.4-гигапиксельную камеру, формирующую более 1 Тбайт данных за ночь наблюдений.
Чтобы информация стала знанием, ее нужно сначала обработать: получить, отсортировать, проанализировать, интегрировать, сохранить. Не справляясь с потоком информации по искомой теме, нам нередко приходится отказываться от обработки всех данных, а при необходимости принятия быстрого решения — опираться только на часть известной информации. Иногда лишь на один факт, то есть на тот наименьший объем информации, которую человек в состоянии быстро проанализировать и воспринять, причем часто этот объем выбирается по принципу — найти один элемент весомого доказательства.
Понятно, что причины здесь объективны, общий объем знаний быстро увеличивается. Как ни удивительно, но большая часть современной информации имеет возраст менее 15 лет, а в быстро развивающихся отраслях — физика, компьютеры, финансы — объем информации удваивается каждые восемь лет. Быстрый рост знаний, помимо этого, еще и неравномерно распределяется по разнообразным отраслям. Новизна, скоротечность изменений и накопление различной информации в ранее не существовавших областях человеческой деятельности требуют быстрой обработки для последующего осмысления огромных массивов данных, и здесь подспорьем должны стать не просто информационные технологии, а обновленные информационные технологии, способные справиться со скачком объема получаемых данных, уже явно наблюдаемым на заре информационной эпохи. Окинем взглядом свойственные каждому десятилетию программно-аппаратные способы обработки информации: 70-е годы — мэйнфреймы, 80-е — клиент-серверная архитектура, 90-е — Web-архитектура, 2000-е — сервис-ориентированная архитектура. И вот теперь, в 2010 году, над океаном информации появляется его отражение в виде облака вычислений. На PDC09, рассказывая о концепции присоединения всех устройств к облаку и перемещению в него всех приложений, Боб Муглиа, президент подразделения Server and Tools корпорации Microsoft, описал вычислительное облако как нечто большее, чем аппаратная инфраструктура и хранилище приложений. Это и дополнительные службы, и дополнительные инструменты для создания и реализации приложений, способных выделить из лавинообразно растущего объема информации насущно необходимые знания.