Рост потребностей в возможностях инфраструктуры у ИТ-службы, осуществляющей поддержку популярной социальной сети, отражает резкое увеличение сетевого трафика в целом. Недавно альянс Ethernet Alliance провел конференцию Technology Exploration Forum, посвященную путям решения подобных проблем.
«100 Gigabit Ethernet необходим нам сейчас, но мы понимаем, что практически сразу же после модернизации, которую мы собираемся провести, понадобится уже Ethernet на 1 Тбит/с», — подчеркнул Ли. Он отметил, что у Facebook так много серверов, перемалывающих горы данных, что они уже в самое ближайшее время будут в состоянии заполнить терабитные магистрали.
Facebook отличается тем, что использует множество серверов для выполнения одного-единственного приложения. Более характерна ситуация, когда возможности каждого сервера делятся между многими виртуальными машинами. Как следствие, компании приходится связывать множество серверов вместе. Но недостаточность полосы пропускания в первую очередь связана с фундаментальными изменениями в технологии. Все системные платы серверов имеют встроенную поддержку Gigabit Ethernet, и при обработке данных современными многоядерными процессорами загрузить эти каналы не составляет труда. 10 Gigabit Ethernet — самый емкий канал, который Facebook может использовать для связи воедино всех ресурсов центра обработки данных, и, как пояснил Ли, компания просто не может найти коммутаторы с достаточным количеством портов 10 Gigabit Ethernet, чтобы обеспечить оптимальную структуру сети.
В конечном итоге, как заметил Ли, узкие места, связанные с сетевыми технологиями, замедляют темпы инноваций в Facebook. Более быстрые сетевые соединения могли бы позволить развивать инновационные решения ускоренными темпами, а новые внутренние и предлагаемые пользователям приложения могли бы быстрее работать при условии увеличения скорости коммуникаций и соответствующих усовершенствований. В идеале каждый сервер мог бы посылать данные со скоростью 1 Гбит/с любому другому серверу в ЦОД, но это потребовало бы 64 каналов Terabit Ethernet (такой технологии пока не существует) или 6400 современных каналов 10 Gigabit Ethernet, что невозможно реализовать на практике. Для организации структуры такого масштаба понадобилось бы 160 самых крупных из выпускаемых в настоящее время коммутаторов.
«Только представьте, каково всем этим управлять, — заметил Ли. — Упущены многие моменты в такой структуре ЦОД. А они важны для функционирования структуры Ethernet, при том что нет ни одного решения соответствующего масштаба».