Сильный искусственный интеллект
Мир стремительно меняется — технологии уже не только предоставляют огромные возможности, но и угрожают отдельным компаниям, отраслям и оцифрованному человечеству в целом.
Предприятия, применяющие RPA, быстро получили положительный эффект от эксплуатации программных роботов. Однако для комплексной автоматизации сквозных бизнес-процессов нужны решения, включающие более сложные технологии.
Индустрия серверных процессоров активно меняется – все больше ядер, число которых, например в старших моделях процессоров AMD EPYC Zen 4, перевалило за сотню. Для решения задач машинного обучения и для выполнения высокопроизводительных расчетов все шире применяются GPU, на которых теперь стало быстрее выполнять и задачи сортировки, важные для работы с СУБД. Наиболее ярким примером реализации устремления компании Intel к задачам HPC и ИИ стал выпуск серверных масштабируемых процессоров поколения Xeon Max, работающих с высокоскоростной памятью HBM2E.
Год 2023 стал триумфом генеративного искусственного интеллекта – генерируемый лингвистическими моделями типа ChatGPT контент практически уже невозможно отличить от сделанного человеком. Расширение моделей на генерацию программного кода, оригинальных рисунков и видео открыл новые перспективы повышения производительности труда программистов, оформителей, контент-менеджеров и пр. Все это привело к тому, что все чаще стали говорить о создании уже в ближайшей перспективе сильного искусственного интеллекта.
По мере расширения областей применения систем искусственного интеллекта все более актуальным становится проблема обеспечения гарантий их функциональной корректности и безопасности. Особенно важно это в таких критически важных прикладных отраслях, как медицина, транспорт, промышленность, системы безопасности и др. Характеристики функциональности и безопасности систем искусственного интеллекта во многом определяются качеством используемых в них данных.
Приобретение всех необходимых инструментов для управления качеством данных, определение KPI для продуктов, отладка отдельных процессов проверки качества могут не принести ожидаемых бизнес-результатов при отсутствии сквозного обеспечения качества данных. Компонентный подход позволяет объединить различные процессы, отследить родословную данных и исключить ошибки в их качестве.
Методологии и технологии управления данными в России сегодня на подъеме – этому способствуют, с одной стороны, требования экономики данных, а с другой, появление на рынке свободных ниш, занимаемых ранее зарубежными ИТ-игроками. Какие тенденции сегодня наблюдаются в отечественной индустрии управления данными и что можно сказать про прогнозы ее развития? Ведущие представители отрасли делятся своими взглядами на судьбы индустрии.
Деятельность любой вертикально-интегрированной компании в производственной индустрии невозможна сегодня без информационной системы, объединяющей и контролирующей инженерные данные по объектам на протяжении всего их жизненного цикла. От качества таких данных и возможности их повторного использования зависит успех бизнеса компании.
Издательство «Горячая линия — Телеком» выпустило учебное пособие для аналитиков по самостоятельному анализу больших данных.
Национальный Открытый Университет «ИНТУИТ» выпустил книгу по истории создания языков программирования.
Ассоциация больших данных предложила рынку программу FIT Academy Russia подготовки по международным стандартам специалистов по управлению данными.
Исследователи, студенты, ученые, библиотекари, журналисты и аналитики должны быть в курсе исследований, проводимых в конкретных областях для выполнения анализа научных публикаций, позволяющего оценить качество, новизну и достоверность проводимых исследований. Точность и актуальность сведений о проводимых во всем мире исследованиях призваны обеспечить системы автоматизированного сбора метаданных публикаций для цифровых репозиториев. Однако, такие репозитории имеют множество ограничений, что делает актуальной систему автоматизированного сбора метаданных из различных источников, исключающего дублирование и необходимость ввода метаданных вручную.
При поиске сведений из открытых источников часто возникает необходимость в семантической фильтрации полученных данных, однако из-за большого объема выполнить ее вручную не представляется возможным. Тем не менее имеется пул инструментов анализа текстовых данных, позволяющих автоматизировать процессы семантической фильтрации текстов.