Self-service BI
Взрывной рост объема получаемых и накапливаемых в компаниях данных, а также увеличение потребителей информации вынуждает пересматривать требования к аналитическим платформам, отказываясь от традиционных архитектур в пользу таких новых принципов, как lakehouse – объединения на одной платформе преимуществ корпоративного хранилища и озера данных для сокращения времени на создание новых сценариев анализа данных и снижения стоимости владения.
В современной компании имеется огромное количество данных, позволяющих улучшить качество бизнес-аналитики и для дата-инженеров задача извлечения данных из альтернативных источников в общем случае относительно понятна и проблем обычно не вызывает. Однако, при работе в экосистеме 1С имеется ряд ограничений, которые призваны устранить такие специализированные системы, как «Экстрактор 1С».
Аналитические инструменты постепенно растворяются в бизнес-приложениях – аналитика не выделяется в отдельный модуль корпоративной инфраструктуры, а благодаря self-service BI становится ее ядром, доступным из любой информационной системы компании. Для бизнес-пользователей самообслуживание становится основой работы с BI-системами, позволяя пользователям таких систем, как «Дельта BI», оперативно получать ответы на основе анализа всех доступных данных.
Фраза «Спасение утопающих – дело рук самих утопающих» стала сегодня актуальной и для бизнес-аналитики. Почему self-service BI становится устойчивой тенденцией в бизнес-аналитике и как сделать так, чтобы она стала реальным драйвером для совершенствования корпоративной культуры, а не осталась лишь благим пожеланием?
Системы управления данными, аналитические системы и средства визуализации стали сегодня неотъемлемой частью цифровых технологий в медицине. Однако наличие промежуточных звеньев в цепочке обработки данных, а также ошибки, допускаемые при представлении результатов медицинских исследований, снижают эффективность применения аналитики.
Решения на базе искусственного интеллекта сегодня становятся все более популярны, однако для успешного обучения и инференса моделей может потребоваться и определенная инфраструктура работы с данными, и соответствующие инструменты.
Хорошо управляемые данные доступны потенциальным потребителям и удовлетворяют их запросам, однако невозможно точно определить потребности пользователей без отделения понятия данных от связанных с ними объектов – данные могут использоваться многократно и в различных контекстах. Все это означает необходимость использования процессного подхода к управлению жизненным циклом данных.
Для принятия взвешенных решений на основе данных необходимо быть уверенным в их достоверности, однако имеются расхождения в понимании того, что собой представляет эта характеристика данных и как обеспечить их достоверность в современных условиях динамичности ИТ-ландшафтов и оргструктур. Эксперты, опрошенные на конференции «Качество данных — 2025», рассказывают об инструментах, необходимых для обеспечения достоверности данных.
Для обеспечения корректного импорта и привязки публикаций к их авторам, а также для передачи данных в цифровой репозиторий требуются специальные сервисы, устанавливающие соответствие с авторами, выполняющие проверку на дубли и синхронизирующие взаимодействие всех сервисов с информационными системами. Подобные решения используются научными учреждениями, издательствами, цифровыми библиотеками и грантодателями для улучшения качества данных и эффективности управления процессами.
Генеративные модели ИИ эффективны лишь при условии комплексного подхода к их внедрению – опыт компании «Финам» показывает, что для этого потребуется реинжиниринг бизнес-процессов, обучение сотрудников и тщательный анализ результатов.