Эволюция ИТ-инфраструктуры вышла на виток, когда традиционные центральные процессоры все чаще применяются в ЦОДах совместно со специализированными ускорителями различного рода.
На конференции Ignite 2023 специалисты Microsoft объявляли о том, что в самой корпорации разрабатывают подобные специализированные чипы для облака Azure, и в 2024 году они уже должны быть в действии. При этом в Microsoft пользуются спецпроцессорами для сервисов уже достаточно давно, в том числе чипом для компрессии данных ZipLine и ускорителями ИИ на основе FPGA-матриц Brainwave. С недавнего времени также внедряется аппаратная платформа Azure Boost, которая берет на себя задачи виртуализации, разгружая хостовую ОС и ускоряя работу виртуальных машин Azure с хранилищем и сетью. Таким образом, платформа дает рабочим нагрузкам виртуальных машин максимум ресурсов центрального процессора, освобождая его от функций, связанных со сжатием данных, управлением безопасностью и др.
Сейчас большие языковые модели OpenAI, дочерней компании Microsoft, обучаются на суперкомпьютере, выполненном на графических процессорах. На обучение уходят месяцы, эксплуатационные расходы очень высоки, учитывая немалые потребности в охлаждении, питании, пропускной способности и емкости хранилищ. В связи с неизбежным продолжением роста размера и сложности таких моделей тяжеловесы ИТ задумываются о создании ускорителей, которые смогут работать в более плотных развертываниях и с меньшим расходом энергии, чем нынешние GPU.
Именно таким стал новый чип — ИИ-ускоритель Microsoft Maia 100, рассчитанный на задачи обучения и инференса. Он изготавливается по технологии 5 нм и имеет больше 100 млрд транзисторов: этот большой и плотный спецпроцессор обладает гораздо большей вычислительной мощностью, чем у GPU. Ускорители Maia будут работать в специальных стойках с собственной системой жидкостного охлаждения, которые можно размещать в любых ЦОДах совместно со стандартными стойками. Новые стойки также оснащены межсоединениями на 4,8 Тбайт/c для высокоскоростного обмена данными с серверами на базе стандартных центральных процессоров. На Maia, по-видимому, будут выполняться ИИ-модели Microsoft, не исключена возможность обучения произвольных моделей.
Наряду с Maia в Microsoft анонсировали собственный процессор архитектуры Arm, Cobalt 100 — 128-ядерный чип для серверов с плотным размещением и малым потреблением энергии. На Cobalt будут работать сервисы с выходом в Интернет и хостинговые компоненты сети доставки контента Azure.
Специализированные ускорители появятся не только в Azure, но и в потребительских ПК — в 2024 году ожидается массовый выпуск компьютеров на чипах Intel, AMD и Qualcomm с нейромодулями для ускорения задач ИИ. В Microsoft даже объявили, что заменяют традиционную кнопку Windows на своих клавиатурах на новую — для вызова ИИ-ассистента Copilot.