Согласно анализу, опубликованному исследовательской компанией Global Data, дефицит электронных компонентов, способных обслуживать модели искусственного интеллекта в сценариях гипермасштабных вычислений, в сочетании с ростом затрат на продукцию лидирующей на рынке графических процессоров компании Nvidia заставляет крупных провайдеров облачных сервисов, в том числе Amazon и Google, задумываться о создании собственных процессорных технологий. В настоящее время между предложением графических процессоров и спросом на них наблюдается существенный дисбаланс. Связано это с тем, что модели генеративного искусственного интеллекта в целом и мультимодальные системы, создающие изображения и видео, в частности, активно используют возможности параллельной обработки, предоставляемые графическими процессорами. Чтобы противостоять этой тенденции, поставщики генеративного ИИ, к которым помимо Google и Amazon относятся также Microsoft и Meta, вкладывают значительные средства в разработку собственных проприетарных процессорных технологий.
Компания Google, которая первой вышла на рынок в 2015 году, продолжает заниматься созданием специализированных чипов, предназначенных для ускорения приложений машинного обучения, на базе своего тензорного процессора. Amazon с 2018 года разрабатывает архитектуры Inferentia и Trainium для решения задач генеративного ИИ.
Компания Meta (признана в России экстремистской и запрещена. — Прим. ред.) также активно участвует в этом процессе. Недавно она представила новое поколение специализированных чипов, помогающих повышать рекламные рейтинги и демонстрировать контекстную рекламу на платформах социальных сетей с помощью ИИ.
Но самым ярким, пожалуй, примером такого сдвига стал выход на рынок микропроцессоров компании Microsoft. Несмотря на отставание от конкурентов в этом вопросе, она также представила собственную стратегию разработки чипов, соответствующую инвестициям в генеративный ИИ. Вложив в генеративный искусственный интеллект значительные средства, Microsoft решила сделать ставку на чат-бота Copilot, который предполагается интегрировать во все ее основные приложения. Первые специализированные чипы для облачной инфраструктуры Microsoft – Azure Maia 100 и Cobalt 100 – разрабатывались с прицелом на решение задач ИИ. В ЦОДах Azure, поддерживающих сервисы OpenAI и Copilot, Microsoft планирует использовать серверные процессоры Cobalt 100 ARM, предназначенные для задач общего назначения, и ускорители искусственного интеллекта Maya 100.
Инвестиции со стороны четырех этих компаний свидетельствуют о том, что рынок чрезвычайно конкурентен, а гиперскейлеры в процессе реализации своих амбициозных планов в сфере ИИ активно инвестируют в новые архитектуры. Эти шаги неизбежно поставят под сомнение доминирующее положение Nvidia на рынке чипов, ориентированных на генеративный ИИ. Но произойдет это не сразу. Гонка чипов ИИ будет проходить по тому же сценарию, что и гонка больших языковых моделей. Причем некоторые из создателей таких моделей, включая OpenAI, также намерены присоединиться к этой борьбе. Сюда же влилось и множество стартапов (Cerebras, Groq, Mythic, Graphcore, Cambricon и Horizon Robotics), занимающихся проектированием ИИ-процессоров, которые работают быстрее, потребляют меньше электроэнергии и оптимизированы для обучения нейронных сетей. Технология чипов генеративного ИИ предлагает вполне конкурентоспособные альтернативы графическим процессорам Nvidia и AMD, однако стартапам недостает узнаваемости брендов крупных игроков. Кроме того, крупные игроки обладают богатыми ресурсами и обширной клиентской базой, в то время как возможности стартапов в части использования производственных мощностей и доступа к капиталу весьма ограничены.