Только наличие автоматизированной системы учета позволяет избежать хаоса в грузовых железнодорожных перевозках.
В детстве, когда мне случалось проезжать на поезде через товарные станции, я, разглядывая загадочные цифры и надписи мелом на бортах платформ и цистерн, всегда задумывался, как это железнодорожники ухитряются не терять вагоны где-то по пути из Ташкента в Новосибирск. Разумеется, когда из пункта А в пункт Б отправляется целый состав, то пропасть без вести он может только чьими-то стараниями, но для того, чтобы один вагон (или группа вагонов) благополучно достиг пункта назначения, пройдя множество полустанков и сцепок-расцепок, требуется серьезная система учета грузоперевозок. Тому, как данный вопрос решается Министерством путей сообщения России, и посвящен этот выпуск рубрики.
УЧЕТ И КОНТРОЛЬ
Информатизация учета железнодорожных грузовых перевозок началась, естественно, не вчера. Еще в советские времена было начато создание системы, автоматизирующей процесс сбора и получения информации на всех уровнях - от пресловутых стрелочников до министерства. Понятно, что на нижних уровнях степень автоматизации была значительно ниже, чем в ГВЦ МПС. Если в ГВЦ стояли ЭВМ (отечественной серии ЕС), то на отдельный транспортный узел распоряжения о формировании составов могли доходить уже в традиционной форме (по телефону) или, например, по телеграфу. Вопросы установки терминалов (или подобия терминалов) в низовых подразделениях и организации их взаимодействия с региональным ВЦ решались централизованно, но по мере роста использования ПК задачи подключения к системам "персоналок" решались на местах уже каждым на свой лад, усилиями и по методике местных специалистов. Однако такая система более-менее эффективно функционировала и, более того, продолжала функционировать в масштабах всего СНГ даже после бурных политических событий начала десятилетия. Правда, долго по инерции система существовать не могла, хотя бы по причине износа (не говоря уже о моральном устаревании) старых ЕС, производство которых после распада СЭВ прекратилось.
Вопрос поддержки работоспособности системы нужно было решать. Даже несмотря на заметно сократившийся объем грузоперевозок, необходимость в их строгом учете ничуть не уменьшилась. Информация о формировании и передвижении составов приобрела помимо утилитарной значительную коммерческую ценность, и не только потому, что она позволяет непосредственно вести финансовый учет, но и потому, что дает возможность министерству предоставлять экспедиторские услуги за счет оперативного получения и обеспечения доступа к этим данным - весьма перспективный источник прибыли.
Главное - надежный резерв. Продумывать организацию резервных путей - в традициях железнодорожников.
Сначала ГВЦ МПС решал вопрос функционирования системы на уровне замены теряющей работоспособность вычислительной техники. Вместо разваливающихся машин серии ЕС были приобретены мэйнфреймы серии S/370, а также клоны IBM от Hitachi и Comparex, разумеется, second hand. Но это были полумеры, поскольку требовалось также модернизировать удаленный доступ к ГВЦ, обеспечить взаимодействие ядра системы с рабочими местами на базе ПК, причем последние, в свою очередь, должны были быть объединены в сеть.
В начале девяностых интеграция мэйнфреймов в сетевое окружение была весьма непростой процедурой. Для того чтобы затребовать файл с ПК (именно затребовать файл, а не работать с мэйнфреймом в терминальном режиме), приходилось изобретать решения на основе "подручных материалов". Например, доступ к файлам организовывался с помощью "полуинтерактивной" системы доступа по типу работы с ftp-серверами средствами электронной почты: на сервер под управлением NetWare отправляется запрос на получение файла, сервер пересылает запрос на мэйнфрейм и в течение нескольких минут пользователь получает требуемый файл. Единственное достоинство этой системы заключалось в том, что она позволяла точно так же организовывать и доступ удаленных пользователей, которые связывались по модему с почтовой системой и работали с ней сходным образом. Удаленные же ВЦ взаимодействовали с центральными машинами через ЕС-овские устройства удаленного доступа и обменивались с ними данными по терминальным протоколам IBM.
Естественно, что работать подобным образом было очень тяжело, во всяком случае неэффектно, но сделать большее с имеющимся ядром системы было практически невозможно, поэтому вывод о смене платформы на более современную напрашивался сам собой.
НАДЕЖНОСТЬ И УПРАВЛЯЕМОСТЬ
Ядро обновленной системы учета грузоперевозок было решено по-прежнему строить на базе мэйнфреймов, точнее, серверов серии S/390. Машины S/390 неслучайно названы здесь "серверами". Во-первых, так их именует IBM, а во-вторых, приобретены они были не только с целью модернизации вычислительной техники, но и с целью перехода с терминального и полуинтерактивного режима работы с системой на нормальную клиент-серверную архитектуру, благо она поддерживается работающей на этих машинах операционной системой OS/390. Ядро системы составили три машины IBM 9672 с дисковым массивом EMC Symmetrix 5700 (поставки на этот раз осуществлялись по официальным каналам, через IBM и "Техносерв АС"). Переход, правда, сопровождался серьезными трудностями. Дело в том, что все, кто желает не просто перенести старые приложения для мэйнфреймов на современную технику, а воспользоваться всеми преимуществами новой операционной системы, сталкиваются с тем, что старый терминальный интерфейс приложений не переносится автоматически в клиент-серверную среду. Программистам ГВЦ пришлось немало потрудиться, чтобы адаптировать старые разработки для работы в сети.
Поскольку мы начали разговор сразу с приложений, то не будем откладывать завершение этой темы на потом. Как можно догадаться, ядром системы является СУБД ADABAS, взаимодействие которой с окружением организовано при помощи внутреннего языка программирования 4-го уровня Natural. Однако работа с базой данных не ограничивается только запросами на получение необходимой информации. В настоящее время дисковый массив общим объемом 720 Гбайт заполнен приблизительно на три четверти, а в не столь отдаленном будущем неизбежно пересечение базой терабайтного рубежа. Очевидно, что эффективно пользоваться таким объемом информации "в сыром виде" весьма непросто. Речь идет, разумеется, не о решении оперативных, ежедневных задач, а о стратегическом анализе накопленных данных. Вполне логично, что ГВЦ МПС пришел к выводу о необходимости внедрения технологии добычи данных. На серверах S/390 установлено программное обеспечение SAS Institute, предоставляющее пользователям возможность работать с хранилищем данных. Приложение поддерживает, естественно, архитектуру клиент-сервер. Интерфейсная часть приложения устанавливается на рабочих местах, и пользователь работает с ним, не зная о том, откуда, собственно, он получает требуемые данные (иными словами, он может и не знать, что работает с мэйнфреймом). В настоящее время рассматривается также вопрос перехода с ADABAS на DB/2 или параллельное использование обеих СУБД.
Теперь вернемся к описанию непосредственно сети (проект создавался ГВЦ совместно со Stins Coman при деятельном участии московского представительства Cisco). Серверы S/390 подключены к сети через интерфейсный коммутатор ESCON Director (IBM применяет для межаппаратных соединений больших систем 17-мегабитную шину Escon). Через него они также связаны с устройствами хранения данных (помимо Symmetrix используется массив RAMAC). "Снаружи" ESCON Director подключен к двум маршрутизаторам Cisco 7507 и 7513 (они поддерживают линии Escon через интерфейсные модули). Подключение сразу к двум маршрутизаторам сделано из соображений надежности, поскольку ГВЦ МПС можно приравнять к стратегическому объекту, и руководство рассматривает меры обеспечения надежности как приоритетные. Для обеспечения гарантированного доступа к центральным серверам дополнительная резервная линия обслуживается коммуникационным процессором IBM 3172. Это (также оставшееся в наследство) устройство считается уже устаревшим, но ему все же нашлось применение.
Работа с удаленными пользователями осуществляется через один из маршрутизаторов. В первую очередь это вычислительные центры железных дорог, от которых стекается хранимая в центральной базе данных информация и через которые передается значительная часть информации в обратном направлении. Связь с удаленными ВЦ осуществляется по выделенным каналам тональной частоты, к ним маршрутизатор подсоединен напрямую. Поскольку в большинстве своем в удаленных ВЦ стоит не самая современная техника, для передачи данных используются протоколы IBM, в частности APPM. Другим способом взаимодействия с удаленными пользователями является работа по обычным телефонным линиям. К маршрутизатору подсоединены два сервера удаленного доступа Cisco 2509 и 2511, обеспечивающие до 24 одновременных подключений через стойки модемов TAINET T-288ND. После соединения удаленные пользователи работают со специальным сервером приложений, обеспечивающим каждому пользователю доступ к предназначенным для него ресурсам. Работа осуществляется уже по протоколу IP, ввести поддержку которого на удаленном рабочем месте не составляет никакого труда (в отличие от протоколов IBM). Эта схема доступа позволяет наладить также развитую систему предоставления экспедиторских услуг, поскольку обеспечивает клиентам вполне стандартный интерфейс доступа.
Локальные сети ГВЦ и собственно министерства подсоединены к маршрутизаторам через коммутаторы Cisco Catalyst 5000 по 100-мегабитным волоконно-оптическим каналам. Сами коммутаторы соединены между собой высокоскоростным каналом Fast EtherChannel, т. е. несколькими каналами Fast Ethernet, работающими параллельно. Рабочие группы МПС, в свою очередь, подключаются к магистрали через коммутаторы Catalyst 3000 (16 портов) и Catalyst 3100 (24 порта). Предусмотрены также различные схемы резервных соединений (уже при помощи 10-мегабитных линий). Вся 100-мегабитная топология продублирована в 10-мегабитном исполнении, во-вторых, коммутаторы рабочих групп ЛВС министерства соединены в кольцо. Такая избыточность может показаться чрезмерной только на первый взгляд. ГВЦ и собственно МПС находятся в различных зданиях, а во время ремонтных работ на улице ковш экскаватора не разбирает, что он рубит (взять хотя бы известную аварию в системе связи при раскопках на Манежной площади), а о важности объекта мы уже говорили. Так что ГВЦ МПС максимально застраховался от возможных аварий и обеспечил автономное функционирование ЛВС министерства (за счет кольца) даже при полном обрыве всех избыточных линий. Кабельная система МПС построена на базе CKC SYSTIMAX Lucent Technologies. По периметру здания расположены помещения для кроссов. Они содержат коммутаторы рабочих групп, причем последние обслуживают пользователей из помещений, подключенных к данному кроссу. Каждое кроссовое помещение в здании МПС способно обеспечивать доступ к ЛВС от 100 до 400 рабочих станций, подключаемых к коммутаторам рабочих групп через стеки 24-х портовых концентраторов фирмы UB Networks (Newbridge) GeoStax/24. Концентраторы сегментированы таким образом, что в одном сегменте находится не более семи рабочих станций.
В локальных сетях ГВЦ и МПС функционирует несколько серверов общего назначения (основная платформа - Dell под управлением Windows NT Server). Серверы выполняют роль серверов рабочих групп (как показала практика, несмотря на то что ядро системы в состоянии обслужить всех пользователей, часто удобнее работать с небольшими выборками данных локально - своего рода трехзвенная архитектура). Типовое размещение серверов следующее: в каждом кроссовом помещении расположены сервер, выполняющий функции резервного контроллера домена (Dell Power Edge 4100), и сервер приложений, обеспечивающий исполнение оперативных задач в интересах различных департаментов МПС (Dell Power Edge 4200, 2 процессора Pentium II). Серверы смонтированы в девятнадцатидюймовых стойках. Основные серверные приложения - это Microsoft SQL Server (обработка выборок из центральной базы данных) и Microsoft Exchange Server 4.0, на базе которого строится корпоративный электронный документооборот.
Один из серверов выделен под архивацию хранящихся на ПК-серверах данных. В качестве архивационных носителей используются ленты DLT (автозагрузчик - QTM-4500S 5x20). Архивация осуществляется ПО Cheyenne Arcserve 6.5. В настоящее время автозагрузчик планируется заменить библиотекой DLT большой емкости.
Значительное внимание уделяется вопросу управления сетью ГВЦ и министерства. Выбранное решение на основе платформы HP OpenView было развернуто специалистами московской компании "ТопС". Серверная часть OpenView Network Node Manager работает на кластере из двух RISC-серверов HP 9000 под управлением HP-UX. Кластеру не требуется отдельного дискового массива, поскольку он так же, как и центральные серверы, подключен к массиву Symmetrix (но уже напрямую, по шине SCSI). Для максимальной управляемости сети все активное оборудование имеет зонды RMON, а ПО HP NetMetrix (также интегрируемое в OpenView) проводит на основе информации RMON детальный анализ функционирования сети. Система управления имеет запас мощности, достаточный для того, чтобы осуществлять централизованное администрирование и удаленных ВЦ. Поскольку вся информационная система ГВЦ разрабатывается с целью последующего тиражирования (естественное стремление унифицировать информационные ресурсы всех структур МПС), то подобный запас мощности не является избыточным.
ЗАКЛЮЧЕНИЕ
Информационная система ГВЦ МПС весьма интересна, поскольку служит наглядным примером того, что стойкая приверженность к мэйнфреймам не является признаком закостенелости. не отказываясь от больших систем, ГВЦ вполне успешно и, что немаловажно, плавно переходит на архитектуру клиент-сервер, интегрируя мэйнфреймы в сетевое окружение. Заслуживает внимания стремление ГВЦ обеспечить максимальную надежность работы системы (резервирование ресурсов и практически полный контроль над работой сети), а также стремление к наибольшей масштабируемости и тиражируемости решений. При наличии четкой стратегии развития любые комплексные решения становятся осуществимы.
С Александром Авдуевским можно связаться по адресу: shura@osp.ru.
В ДВУХ СЛОВАХ ГВЦ МПС РОССИИ
ГВЦ Министерства путей сообщения России
Россия, 107078, Москва,
Каланчевская ул., д. 2/1
Тел.: (095) 262-68-58
Факты. ГВЦ МПС России собирает и обрабатывает данные о грузовых перевозках по железным дорогам России и СНГ. Получаемая и передаваемая информация имеет огромное значение для организации процесса грузоперевозок, а также обладает большой коммерческой ценностью, поскольку позволяет министерству предоставлять экспедиторские услуги.
Задача. Перед ГВЦ МПС встала задача адаптации приложений и баз данных, создававшихся в 70-80-е годы, к современным условиям, построения информационной системы министерства, стандартизации процедуры сбора и предоставления информации, а также обеспечения надежного управления всей системой в целом.
Решение. ГВЦ МПС заменил старые мэйнфреймы на машины серии 390, модифицировав интерфейсную часть приложений для работы в сети, установил инструментарий работы с хранилищами данных, организовал коммутируемый доступ удаленных пользователей, а в качестве платформы управления выбрал HP OpenView.
Вывод. Продолжая использовать мэйнфреймы в силу необходимости сохранения старых приложений, организации не ограничены тем не менее терминальной моделью работы с ними. Вполне возможны (хотя и требует определенных усилий) переход на архитектуру клиент-сервер и интеграция больших систем в сетевую инфраструктуру, будь то сети на базе ПК или RISC-машин.