В Facebook обещают опубликовать проектную документацию по серверу под кодовым именем Big Sur, который в компании используется для обучения систем искусственного интеллекта. Спецификации сервера переданы инициативе Open Compute Project, в рамках которой компании отрасли могут делиться разработанными ими конструкциями оборудования.
Машинное обучение широко применяется в системах распознавания изображений, которые после анализа снимка или видеозаписи могут перечислить находящееся в кадре. Его можно использовать для обработки больших срезов данных различных видов, например для отсеивания спама и выявления банковского фрода.
Facebook, Google и Microsoft активно развивают технологии искусственного интеллекта, совершенствуя свои онлайн-сервисы. В Facebook выпускали в открытых кодах различное ПО искусственного интеллекта, однако аппаратную конструкцию раскрывают впервые.
Программное обеспечение, работающее на Big Sur, активно пользуется графическими процессорами, которые нередко эффективнее центральных справляются с задачами машинного обучения. У сервера может быть до восьми высокопроизводительных видеочипов, каждый из которых потребляет до 300 Вт. Конфигурацию системы можно варьировать, соединяя компоненты с помощью шины PCIe.
«Распределение задач обучения между восемью графическими процессорами позволило вдвое увеличить масштаб и быстродействие наших нейросетей», — говорится в блоге Facebook.
Примечательная особенность Big Sur состоит в том, что ему не требуются специализированные системы охлаждения или иная «уникальная инфраструктура», указывают в Facebook. Высокопроизводительные компьютеры сильно нагреваются, и их охлаждение может обходиться недешево — некоторые, к примеру, приходится погружать в особые жидкости.
Для Big Sur ничего подобного не нужно: в Facebook отмечают, что такие серверы можно использовать в центрах обработки данных компании, специально лишенных промышленных систем охлаждения ради экономии затрат.
Примечательная особенность Big Sur в том, что ему не требуются специализированные системы охлаждения или иная «уникальная инфраструктура» |
Как и многое другое оборудование для Open Compute Project, сервер спроектирован максимально простым. В OCP не раз указывали на то, что производители серверов склонны к «неоправданному наделению своих продуктов уникальными особенностями», из-за чего возрастают затраты и могут возникать сложности с администрированием оборудования от разных производителей.
«Мы отказались от комплектующих, которые не слишком широко применяются, а для компонентов, относительно часто выходящих из строя, например жестких дисков и модулей DIMM, мы обеспечили возможность замены за считанные секунды», — сообщили в Facebook. Все защелки и ручки, используемые при технических работах, для удобства обозначены зеленым цветом. Как утверждается, даже материнскую плату системы можно вынуть всего за минуту. «По сути, Big Sur можно обслуживать вообще почти без инструментов — единственное, для чего нужна отвертка, это радиатор на центральном процессоре», — добавляют в компании.
В Facebook делятся конструкцией сервера не из альтруизма: в компании надеются, что заинтересовавшиеся, испытав систему, начнут предлагать усовершенствования. А если другие крупные компании станут заказывать Big Sur у производителей серверов, то «эффект масштаба» в конечном счете поможет уменьшить затраты самой Facebook.
Машинное обучение в последнее время выходит на передний план по ряду причин. Одна из них — появление в свободном доступе огромных срезов данных. Еще одна — мощные компьютеры стали достаточно доступными по цене, чтобы появилась возможность активнее развивать системы искусственного интеллекта.
В Facebook приводят примеры уже разработанных в компании программ такого рода: они умеют пересказывать сюжет книги, отвечать на вопросы о снимке, играть в игры и осваивать выполнение заданий путем наблюдения за примерами. «Но мы понимаем, что для решения подобных задач большего масштаба нам придется проектировать собственные аппаратные системы», — отмечают в компании.
В Big Sur, названном так по имени живописного прибрежного района в Калифорнии, используются процессоры Nvidia, в частности платформа Tesla.
А тем временем расширяет использование машинного обучения в своих сервисах и Google. «Машинное обучение — ключевой механизм, опираясь на который мы перестраиваем практически всю нашу деятельность», — заявил генеральный директор Google Сундар Пичаи.