В Facebook обещают опубликовать проектную документацию по серверу под кодовым именем Big Sur, который в компании используется для обучения систем искусственного интеллекта. Спецификации сервера будут переданы инициативе Open Compute Project (OCP), в рамках которой коммерческие компании могут делиться разработанными ими конструкциями оборудования.
Машинное обучение широко применяется в системах распознавания изображений, которые после анализа снимка или видеозаписи могут перечислить находящееся в кадре. Его можно использовать для обработки больших срезов данных различных видов, например для отсеивания спама и выявления мошенничеств с банковскими картами.
Facebook, Google и Microsoft активно развивают технологии искусственного интеллекта, чтобы предлагать более совершенные онлайн-сервисы. До этого Facebook выпускала в открытых кодах различное ПО искусственного интеллекта, однако аппаратную конструкцию раскрывает впервые.
Программное обеспечение, работающее на Big Sur, активно пользуется графическими процессорами, которые нередко эффективнее центральных справляются с задачами машинного обучения. У сервера может быть до восьми высокопроизводительных видеочипов, каждый из которых потребляет до 300 Вт. Конфигурацию системы можно варьировать, соединяя компоненты с помощью шины PCIe.
В Facebook сообщают, что система на основе графических процессоров работает вдвое быстрее, чем аналогичная предыдущего поколения. «Распределение задач обучения между восемью видеочипами позволило вдвое увеличить масштаб и быстродействие наших нейросетей», — говорится в блоге Facebook.
Примечательная особенность Big Sur состоит в том, что ему не требуются специализированные системы охлаждения или иная «уникальная инфраструктура», указывают в Facebook. Высокопроизводительные компьютеры сильно нагреваются, и их охлаждение может обходиться недешево — некоторые, к примеру, приходится погружать в особые жидкости.
Для Big Sur ничего подобного не нужно, утверждают в Facebook. Сами спецификации системы еще не опубликованы, но на доступных снимках видно, что внутри сервера находится крупный блок, который, скорее всего, содержит вентиляторы. В Facebook отмечают, что такие серверы можно использовать в центрах обработки данных компании, специально лишенных промышленных систем охлаждения ради экономии затрат.
Как и многое другое оборудование для Open Compute, сервер спроектирован максимально простым. В OCP не раз указывали на то, что производители серверов склонны к «неоправданному наделению своих продуктов уникальными особенностями», из-за чего возрастают затраты и могут возникать сложности с администрированием оборудования от разных производителей.
«Мы отказались от комплектующих, которые не слишком широко применяются, а для компонентов, относительно часто выходящих из строя, например жестких дисков и модулей DIMM, мы обеспечили возможность замены за считанные секунды», — сообщили в Facebook. Все защелки и ручки, используемые при технических работах, для удобства обозначены зеленым цветом. Как утверждается, даже материнскую плату системы можно вынуть всего за минуту. «По сути, Big Sur можно обслуживать вообще почти без инструментов — единственное, для чего нужна отвертка, это радиатор на центральном процессоре», — добавляют в компании.
В Facebook делятся конструкцией сервера не из альтруизма: в компании надеются, что заинтересовавшиеся, испытав систему, начнут предлагать усовершенствования. А если другие крупные компании станут заказывать Big Sur у производителей серверов, то экономический «эффект масштаба» в конечном счете поможет уменьшить затраты самой Facebook.
Машинное обучение в последнее время выходит на передний план по ряду причин. Одна из них — появление в свободном доступе огромных срезов данных, которые можно использовать для обучения нейросетей. Еще одна — мощные компьютеры стали достаточно доступными по цене, чтобы появилась возможность активнее развивать системы искусственного интеллекта.
В Facebook приводят примеры уже разработанных в компании программ такого рода: они умеют пересказывать сюжет книги, отвечать на вопросы о снимке, играть в игры и осваивать выполнение заданий путем наблюдения за примерами. «Но мы понимаем, что для решения подобных задач большего масштаба нам придется проектировать собственные аппаратные системы», — отмечают в компании.
В Big Sur, названном так по имени живописного прибрежного района в Калифорнии, используются видеопроцессоры компании Nvidia, в частности платформа Tesla. В Facebook сообщили о планах утроить инвестиции в системы на основе графических процессоров, чтобы получить возможность задействовать технологии машинного обучения в более широком круге своих сервисов.
А тем временем расширяет использование машинного обучения в своих сервисах и Google. «Машинное обучение — ключевой механизм, опираясь на который мы перестраиваем практически всю нашу деятельность», — заявил в октябре генеральный директор Google Сундар Пичаи.
В Facebook не уточнили, когда именно будут опубликованы спецификации Big Sur. Следующий саммит OCP пройдет в Соединенных Штатах в марте, — возможно, тогда мы и узнаем подробности об этой системе.