Worldstream и Cubbit запускают независимое, суверенное облачное хранилище S3 для предприятий Нидерландов



Новый сервис полностью размещен и управляется в Нидерландах, сочетая в себе суверенитет данных, отказоустойчивость, масштабируемость и предсказуемые затраты — без зависимости от услуг крупных облачных провайдеров.

Налдвейк, Нидерланды / Болонья, Италия — 11 марта 2026 г. — Компания Cubbit, первый поставщик геораспределенного облачного хранилища, и Worldstream, голландский поставщик облачной инфраструктуры, управляющий собственными европейскими центрами обработки данных и сетью, сегодня объявили о новом партнерстве в рамках делового альянса, призванного предоставить голландским предприятиям полностью суверенные, безопасные, экономически предсказуемые и гибкие услуги облачного хранения данных.

В рамках этого соглашения Worldstream интегрирует DS3 Composer — программно-определяемое объектное хранилище Cubbit — во все три своих центра обработки данных в Нидерландах, чтобы создать и предложить собственный облачный сервис хранения данных S3, полностью размещаемый и управляемый Worldstream на своих стратегических активах. Это партнерство знаменует собой появление первого бизнес-партнера Cubbit в Нидерландах, расширяя доступность географически распределенного хранилища за счет сервиса внутри страны, построенного на 100% европейских технологиях.

Компания Worldstream более 20 лет занимается проектированием, созданием и управлением ИТ-инфраструктурой, накопив глубокий опыт в области объектного, файлового и блочного хранения данных. Этот шаг является ответом на явный сдвиг в спросе клиентов на совместимое с S3, полностью европейское хранилище, независимое от гипермасштабируемых компаний и соответствующее требованиям суверенитета данных и нормативным требованиям. За прошедшие годы публичные облачные хранилища получили широкое распространение в голландских организациях, но все чаще вызывают опасения по поводу геополитических рисков, контроля над данными и непредсказуемых комиссий. С другой стороны, локальное объектное хранилище обеспечивает контроль, но сопряжено с высокими затратами, негибкостью и сложностью эксплуатации, требуя значительных ИТ-ресурсов.

Благодаря Cubbit DS3 Composer, Worldstream может предоставлять гибкие уровни обслуживания из единой интуитивно понятной административной консоли, сочетая полный национальный суверенитет данных и локализацию с архитектурой, разработанной для высокой доступности, отказоустойчивости и отсутствия технологической зависимости. Технология Cubbit «измельчает» данные — шифрует их, фрагментирует и реплицирует в нескольких местах по выбору пользователя — поэтому они никогда не раскрываются полностью и всегда остаются доступными. Такой подход поддерживает соответствие клиентов требованиям законодательства, включая требования GDPR и NIS2, и помогает Worldstream обеспечивать предсказуемую экономику и высококачественный, масштабируемый сервис, остающийся конкурентоспособным по цене.

Компания Worldstream запускает сервис с первоначальной пропускной способностью в 1 петабайт, с планами дальнейшего расширения в ближайшие годы. Ключевые сценарии использования варьируются от резервного копирования и активного архивирования до доставки контента. Компания Cubbit будет оказывать Worldstream постоянную техническую и коммерческую поддержку, включая обучение, поддержку продаж и совместные инициативы по выходу на рынок, чтобы обеспечить высокие стандарты SLA и качество обслуживания. Программное обеспечение будет работать на собственных решениях Worldstream и высокопроизводительной сети. Worldstream обеспечит круглосуточную поддержку клиентов через свою профессиональную службу поддержки с гарантированным временем ответа в семь минут, обеспечивая непрерывную доступность и надежную техническую поддержку.

Рубен ван дер Цван, генеральный директор Worldstream, сказал:
Мы видим, как все больше организаций пересматривают свою зависимость от крупных облачных провайдеров. Не потому, что облачные технологии не работают, а потому, что контроль, предсказуемость и суверенитет данных стали критически важными приоритетами. С помощью этого сервиса S3 мы предлагаем полностью европейскую альтернативу, которая обеспечивает ту же гибкость, предоставляя организациям максимальный контроль над своими данными и затратами. Это логичный следующий шаг в нашем развитии как независимого поставщика облачной инфраструктуры.

Алессандро Чилларио, со-генеральный директор и соучредитель компании Cubbit, заявил:
Мы выбрали Worldstream в качестве партнера для голландского рынка, потому что сразу же разделили общее видение: идею создания полностью суверенной и гибкой альтернативы для голландских клиентов, предоставляющей им превосходное решение для хранения данных на основе европейского программного обеспечения и голландской инфраструктуры. По мере развития геополитической ситуации и того, как все больше организаций рассматривают суверенитет данных, контроль и соответствие нормативным требованиям как не подлежащие обсуждению, Worldstream теперь может предложить услугу, сочетающую предсказуемые затраты и высокую масштабируемость со 100% европейской, географически распределенной архитектурой, разработанной для обеспечения национального суверенитета данных и отказоустойчивости.

Компании Cubbit и Worldstream представят это совместное решение на выставке CloudFest 2026, которая пройдет с 23 по 26 марта 2026 года в Europa-Park, Германия (стенд Z06).

Как начать работу с ML-моделями



В бесплатном мини-курсе Академии Selectel показываем, как организовать работу с ML-моделями на старте. Во время обучения вы создадите базовое окружение, выберете видеокарту для обучения и подготовите IT-инфраструктуру для инференса.

selectel.ru/blog/courses/start-with-ml/

Внутри курса
  • Базовый тест по ML для проверки знаний.
  • Пять полезных материалов для работы с ML.
  • Подборка ресурсов для более глубокого погружения в AI.
Будет полезно тем, кто уже знаком с MLOps и хочет использовать его на практике. А если вам нужны ресурсы для ML-задач, арендуйте производительные серверы с GPU.

https://selectel.ru

Доступна бесплатная локальная сеть и приватные IP на всех кластерах Selectel



Получается теперь мы можем под заказ собирать кластеры даже под задачи, где требуется чисто локальный пулл вдс-ок. Просто оплатите стоимость дедиков, а мы вам настроим виртуализацию и настройки. И расскажем покажем как управлять. Дедики есть даже с 10г приватной и 25г приваткой, но это уже под заказ. На наших тарифах 1г сетевая карта потому что Селектел жмотит ставить «на запас сразу большие сетевухи».



Делаем все то, что описано в этом топике.
Плюс теперь можем добавить по желанию как IPv6 так и приватные IP к вашей уже существующей VDS, либо создать нужное кол-во ВДС-ок вовсе без ipv4 и только в приватной сети.

Есть 3 вида приватных сетей.
  • Можем выделять вам конкретные штучные IP. Из общих приватных сетей. Допустим 1 ВДС — 1 IP приватный. Это вариант если вы просто покупаете готовые ВДС-ки 7950x 9950x. Сеть общая для кластера.
  • А можем отдать вам часть этой общей сети прямо диапазоном. Если вы совмещаете дедики и виртуалки. Чтобы дедики вы могли сами делить уже на части как угодно, хоть микро вдс-ки делать приватные.
  • А можем создать прямо отдельный кластер под ваши услуги. Этот вариант если вы покупаете исключительно дедики, отдельно от наших ВДС-ок. Этот вариант удобен тем, что вы сами можете своим клиентам создать новые локальные сети где уже каждый клиент может повторять и не бояться дублировать локальные диапозоны как ему удобно. Получается мульти локальная сеть они все отдельные.

Вот такие виды мы можем настроить.
Не забываем что нам нужна криптовалюта в огромных размерах. А мы вам можем покупать Селектел ДЦ за рубли как раз.
Поэтому наши услуги идеально подходят для зарубежных хостеров, которые захотели открыть новую GEO-ru-зону.

Пишите в биллинг ваши задачи
bill.yacolo.net/billmgr
Если биллинг у вас не доступен используйте
a-panel-to-register-and-purchase-due-to-stupid-legislation.ru/billmgr

Рег.облако расширил возможности DBaaS и подключил вторую зону доступности в Москве



Пользователи получили дополнительные инструменты бэкапов для повышения отказоустойчивости и гибкости инфраструктуры. Сервис обеспечивает самостоятельное восстановление данных из резервных копий и теперь доступен в новом регионе размещения.

Облачный и Bare metal провайдер Рег.облако сообщил о расширении возможностей сервиса управляемых баз данных DBaaS. Компания открыла возможность восстановления в новый кластер в selfservice-режиме без необходимости обращения в техподдержку. В обновлении доступно до семи резервных копий для PostgreSQL и MySQL.
www.reg.cloud/services/postgresql

В сервисе DBaaS реализован встроенный механизм автоматического резервного копирования управляемых баз данных PostgreSQL и MySQL. Система ежедневно создает резервные копии кластеров и хранит их в течение семи дней; все доступные копии отображаются в личном кабинете пользователя. Восстановление выполняется самостоятельно пользователем, без обращения в техническую поддержку, путем создания нового кластера с параметрами, актуальными на момент формирования бэкапа. При этом исходный кластер продолжает работать, что позволяет протестировать восстановленные данные или переключиться на новый экземпляр в удобное время без простоя сервисов. Для PostgreSQL доступен механизм Point-in-Time Recovery, позволяющий восстановить состояние базы максимально близко к моменту возникновения ошибки.

По данным Рег.облака, наибольшей популярностью среди пользователей пользуется конфигурация с 1 vCPU, 1 GB RAM и 20 GB дискового пространства — ее выбирают 60% клиентов. Следующая по востребованности идет более мощная конфигурация — 2vCPU, 4 GB RAM и 80 GB (21%). Динамика отражает спрос на сбалансированные по стоимости и производительности решения для широкого спектра задач — от разработки до продакшен-нагрузок.

С запуском DBaaS в новой локации клиенты могут выбрать, где развернуть базу данных — в Москве-1 или в новом дата-центре в районе Медведково Москве-2. Функциональность и тарифы в обоих регионах идентичны. Появление второй площадки расширяет возможности по локализации данных, распределению нагрузки между ЦОДами и построению более устойчивой инфраструктуры с учетом требований бизнеса и регуляторной среды.

«Мы последовательно развиваем DBaaS как управляемый сервис, который снимает с команд инфраструктурные задачи и повышает предсказуемость эксплуатации. Новая функция резервного копирования и запуск второго региона дают дополнительные возможности для архитектурного планирования и повышения надежности и отказоустойчивости», — отмечает Евгений Мартынов, директор по информационным технологиям Рег.облака.

Обновленный функционал ориентирован на продуктовые команды, разработчиков, DevOps- и SRE-инженеров, а также системных администраторов, использующих базы данных в продакшене. Решение снижает риски потери данных вследствие логических ошибок, некорректных обновлений или сбоев, упрощает сценарии отката изменений, тестирования и миграций, а также может применяться как часть стратегии аварийного восстановления.

Важное обновление: доступ к адресам сервисов Госуслуг будет ограничен с 26 марта 2026 года



Важное обновление: доступ к адресам сервисов Госуслуг будет ограничен с 26 марта 2026 года
С 26 марта 2026 года доступ к адресам сервисов Госуслуг (gosuslugi.ru и связанным доменам) с виртуальных серверов и выделенных серверов будет работать только по предварительному согласованию через тикет. Прямой доступ к этим ресурсам станет недоступен.

Для разблокировки вам необходимо будет подать запрос через тикет с указанием:
  • цели использования;
  • IP-адресов или подсетей, с которых будет идти трафик.

После проверки мы разблокируем доступ для указанных доменов и IP-адресов в соответствии с вашей заявкой.

https://selectel.ru

Добавляем вторую зону зоступности в МСК-Селектел



Ранее в МСК у нас была только одна AZ
Но в Питере мы сделали 2 AZ

У нас теперь 4 зоны доступности внутри selectel
  • MSK-2 AZ-1-msk
  • НОВОЕ MSK-7 AZ-3-msk
  • SPB-2 AZ-1-spb
  • SBP-4 AZ-2-spb


  • Мы можем делать IPv6 на любой сервер, напрямую в Селектеле вы не сможете одновременно IPv4+IPv6, вам придется покупать IP напрямую у селектела по их дорогущим ценам за IPv4, с дефолтным IP сервера IPv6 у них не работает
  • IPv6 доступны для всех услуг в локациях Selectel
  • В чем еще фишка? Это значит вы можете купить ЛЮБОЙ дедик селектела и прикрепить туда ipv6, даже GPU дедики.

А так же мы можем настроить вам хостинг под ключ или любое облако-v1 под ключ.
Абсолютно бесплатно сделаем вам кластер в Selectel



Отсутствие оверселла

LowCost
  • RU-Москва-AZ-1/Питер-AZ-1, Питер-AZ-2, 7950x (4,5 ГГц) [1 vCore] / 1 DDR5 / 25 ГБ NVME — 350р
  • RU-Москва-AZ-1/Питер-AZ-1, Питер-AZ-2, 7950x (4,5 ГГц) [2 vCore] / 2 DDR5 / 50 ГБ NVME — 500р
  • RU-Москва-AZ-1/Питер-AZ-1, Питер-AZ-2, 7950x (4,5 ГГц) [3 vCore] / 4 DDR5 / 100 ГБ NVME — 800р
  • RU-Москва-AZ-1/Питер-AZ-1, Питер-AZ-2, 7950x (4,5 ГГц) [4 vCore] / 6 DDR5 / 150 ГБ NVME — 1100р
  • RU-Москва-AZ-1/Питер-AZ-1, Питер-AZ-2, 7950x (4,5 ГГц) [8 vCore] / 8 DDR5 / 200 ГБ NVME — 1400р
GameCost
  • RU-Москва-AZ-3, RU-Москва-AZ-1, Питер-AZ-1, Ryzen 9 9950x (5400GHz) [4 vCore] / 2 DDR5 5600 МГц / 25 ГБ NVME 1000р
  • RU-Москва-AZ-3, RU-Москва-AZ-1, Питер-AZ-1, Ryzen 9 9950x (5400GHz) [4 vCore] / 4 DDR5 5600 МГц / 50 ГБ NVME 1500р
  • RU-Москва-AZ-3, RU-Москва-AZ-1, Питер-AZ-1, Ryzen 9 9950x (5400GHz) [32 vCore] / 8 DDR5 5600 МГц / 100 ГБ NVME 2000р
  • RU-Москва-AZ-3, RU-Москва-AZ-1, Питер-AZ-1, Ryzen 9 9950x (5400GHz) [32 vCore] / 16 DDR5 5600 МГц / 200 ГБ NVME 4000р
  • RU-Москва-AZ-3, RU-Москва-AZ-1, Питер-AZ-1, Ryzen 9 9950x (5400GHz) [32 vCore] / 24 DDR5 5600 МГц / 300 ГБ NVME 6000р
  • RU-Москва-AZ-3, RU-Москва-AZ-1, Питер-AZ-1, Ryzen 9 9950x (5400GHz) [32 vCore] / 32 DDR5 5600 МГц / 400 ГБ NVME 8000р

У нас есть 50% реферальная программа, а так же мы зовем любых кто способен продавать.

Мы настраиваем бесплатно кластеры
Мы раздаем бесплатно домены
Настраиваем целые хостинги бесплатно под ключ
Прочие ништяки ищите в истории
hosting.kitchen/blog/yacolo-com/
hosting.kitchen/blog/Ponaehali-moscow/
hosting.kitchen/blog/fuckthem-cloud/

Пишите в биллинг
bill.yacolo.net/billmgr
Если биллинг у вас не доступен используйте
a-panel-to-register-and-purchase-due-to-stupid-legislation.ru/billmgr

SpaceWeb получил государственную ИТ-аккредитацию



Хостинг-провайдер подтвердил соответствие критериям и вошел в реестр аккредитованных ИТ-компаний Минцифры России.

Хостинг-провайдер SpaceWeb внесен в реестр аккредитованных ИТ-компаний Минцифры России. Компания подтвердила соответствие требованиям по доле профильной выручки и характеру деятельности.

Для заказчиков и пользователей продуктов и услуг SpaceWeb прохождение аккредитации означает дополнительный уровень открытости. Работа с компанией, чей профиль подтвержден государством, упрощает взаимодействие по ИТ-проектам, где важны вопросы соответствия и корректной работы с данными.

«Прохождение аккредитации — логичный этап нашего развития. В SpaceWeb мы последовательно выстраиваем продуктовый контур и процессы в соответствии с требованиями отрасли. Мы ведем разработку наших продуктов под профильные стандарты, и новый статус это только подтверждает», — комментирует Алексей Шашкин, коммерческий директор SpaceWeb.

SpaceWeb предлагает профессиональные ИТ-сервисы для старта и развития онлайн-проектов веб-разработчиков и веб-студий. На обслуживании хостера находятся более 220 тысяч сайтов. В 2025 году технологическая платформа компании была внесена в Единый реестр российского ПО Минцифры России.

sweb.ru/

Запуск серверов Cloudflare 13-го поколения: обмен кэша на ядра для двукратного увеличения производительности периферийных вычислений



Два года назад Cloudflare развернула наш парк серверов 12-го поколения на базе процессоров AMD EPYC Genoa-X с их огромным 3D V-кэшем. Эта архитектура с большим объемом кэша идеально подходила для нашего уровня обработки запросов, на тот момент FL1. Но при оценке оборудования следующего поколения мы столкнулись с дилеммой — процессоры, обеспечивающие наибольший прирост пропускной способности, сопровождались значительным уменьшением объема кэша. Наш устаревший программный стек не был оптимизирован для этого, и потенциальные преимущества в пропускной способности ограничивались растущей задержкой.

В этом блоге описывается, как переход на FL2 — переписанный на Rust основной слой обработки запросов Cloudflare — позволил нам продемонстрировать весь потенциал Gen 13 и добиться повышения производительности, которое было бы невозможно на нашей предыдущей платформе. FL2 устраняет зависимость от большего кэша, позволяя масштабировать производительность в зависимости от количества ядер, сохраняя при этом наши соглашения об уровне обслуживания (SLA). Сегодня мы с гордостью объявляем о запуске Cloudflare Gen 13 на базе серверов AMD EPYC™ 5-го поколения Turin, работающих под управлением FL2, эффективно захватывая и масштабируя производительность на периферии сети.

Что предлагает AMD EPYCTurin?
  • Процессоры AMD EPYC 5-го поколения на базе архитектуры Turin обеспечивают не только увеличение количества ядер. Архитектура улучшает работу серверов Cloudflare по многим параметрам.
  • Увеличено в 2 раза количество ядер: до 192 ядер против 96 ядер у 12-го поколения, при этом технология SMT обеспечивает 384 потока.
  • Улучшенная производительность на такт: архитектурные улучшения Zen 5 обеспечивают более высокую частоту инструкций за цикл по сравнению с Zen 4.
  • Повышенная энергоэффективность: несмотря на большее количество ядер, Turin потребляет до 32% меньше ватт на ядро ​​по сравнению с Genoa-X.
  • Поддержка DDR5-6400: более высокая пропускная способность памяти для обеспечения работы всех этих ядер.

Однако процессоры Turin с высокой плотностью OPN намеренно идут на компромисс: приоритет отдается пропускной способности, а не кэшу на ядро. Наш анализ всей линейки Turin выявил этот сдвиг. Например, сравнение процессоров Turin с самой высокой плотностью OPN с нашими процессорами Gen 12 Genoa-X показывает, что 192 ядра Turin используют 384 МБ кэша L3. Это оставляет каждому ядру доступ всего к 2 МБ, что составляет одну шестую часть от объема кэша Gen 12. Для любой рабочей нагрузки, которая в значительной степени зависит от локальности кэша, как в нашем случае, это сокращение представляло серьезную проблему.



Диагностика проблемы с помощью счетчиков производительности.
Для нашего слоя обработки запросов FL1, основанного на NGINX и LuaJIT, это сокращение кэша представляло собой серьезную проблему. Но мы не просто предположили, что это будет проблемой; мы провели измерения.
В ходе оценки производительности процессоров 13-го поколения мы собрали данные счетчиков производительности и профилирования процессора, чтобы точно определить, что происходит «под капотом», используя инструмент AMD uProf. Полученные данные показали:
  • По сравнению с серверами 12-го поколения, оснащенными 3D V-кэш-процессорами, частота промахов в кэше L3 значительно возросла.
  • Задержка при выборке данных из памяти определяла основное время обработки запроса, поскольку данные, которые ранее хранились в L3, теперь требовали обращения к DRAM.
  • Увеличение задержки возрастало по мере роста загрузки ЦП и ухудшения конкуренции за кэш.

Попадание в кэш L3 завершается примерно за 50 циклов; промахи в кэше L3, требующие доступа к DRAM, занимают более 350 циклов, что на порядок больше. При в 6 раз меньшем объеме кэша на ядро, FL1 на процессорах 13-го поколения обращался к памяти гораздо чаще, что приводило к задержкам.

Компромисс: задержка против пропускной способности
Наши первоначальные тесты, проведенные на FL1 на процессорах 13-го поколения, подтвердили то, что уже указывали счетчики производительности. Хотя процессор Turin мог обеспечить более высокую пропускную способность, это сопровождалось значительными задержками.


Оценочный сервер Gen 13 с процессором AMD Turin 9965, показавший 60% прирост пропускной способности, оказался впечатляющим, а повышение производительности обеспечило наибольшее улучшение общей стоимости владения (TCO) для Cloudflare.

Однако увеличение задержки более чем на 50% неприемлемо. Рост задержки обработки запросов напрямую повлияет на качество обслуживания клиентов. Мы столкнулись со знакомым вопросом об инфраструктуре: принять ли решение без выгоды с точки зрения совокупной стоимости владения, смириться с увеличением задержки или найти способ повысить эффективность без увеличения задержки?

Постепенное повышение производительности за счет оптимизации параметров.
Чтобы найти путь к оптимальному результату, мы сотрудничали с AMD для анализа данных Turin 9965 и проведения целенаправленных экспериментов по оптимизации. Мы систематически тестировали множество конфигураций:
  • Настройка оборудования: корректировка аппаратных средств предварительной выборки и фильтров зондирования Data Fabric (DF), показавшая лишь незначительные улучшения.
  • Увеличение количества рабочих: запуск большего количества рабочих уровня FL1, что повысило производительность, но привело к перераспределению ресурсов из других производственных служб.
  • Привязка и изоляция ЦП: Настройка конфигураций изоляции рабочих нагрузок для поиска оптимального сочетания, с ограниченным успехом.

Конфигурация, которая в конечном итоге принесла наибольшую пользу, оказалась конфигурацией с поддержкой технологии AMD Platform Quality of Service (PQOS). Расширения PQOS позволяют осуществлять тонкую регулировку совместно используемых ресурсов, таких как кэш и пропускная способность памяти. Поскольку процессоры Turin состоят из одного кристалла ввода-вывода и до 12 кристаллов ядерных комплексов (CCD), каждый из которых использует кэш L3 на 16 ядрах, мы протестировали эту технологию. Вот как показали себя различные экспериментальные конфигурации.

Сначала мы использовали PQOS для выделения выделенной доли кэша L3 в рамках одного CCD для FL1, и прирост был минимальным. Однако, когда мы масштабировали концепцию до уровня сокета, выделив весь CCD исключительно для FL1, мы увидели значительный прирост пропускной способности при сохранении приемлемой задержки.



Возможность: работа над FL2 уже велась.
Настройка оборудования и конфигурация ресурсов обеспечили умеренный прирост производительности, но для того, чтобы по-настоящему раскрыть потенциал производительности архитектуры 13-го поколения, мы понимали, что нам придется переписать наш программный стек, чтобы коренным образом изменить способ использования системных ресурсов.

К счастью, нам не приходилось начинать с нуля. Как мы объявили во время Недели Дня рождения 2025 года, мы уже перестраивали FL1 с нуля. FL2 — это полная переработка нашего слоя обработки запросов на Rust, построенная на основе наших фреймворков Pingora и Oxy, заменяющая 15 лет кода NGINX и LuaJIT.

Проект FL2 не был инициирован для решения проблемы кэша 13-го поколения — он был обусловлен необходимостью повышения безопасности (безопасность памяти в Rust), ускорения темпов разработки (строгая модульная система) и повышения общей производительности (меньше ресурсов ЦП, меньше памяти, модульное выполнение).

Более чистая архитектура FL2, с улучшенными шаблонами доступа к памяти и меньшим количеством динамического выделения памяти, возможно, не будет зависеть от огромных кэшей L3 так, как это было в FL1. Это дало нам возможность использовать переход на FL2, чтобы доказать, можно ли реализовать прирост пропускной способности Gen 13 без увеличения задержки.

Проверка: FL2 на Gen 13
По мере развертывания FL2, показатели производительности наших серверов 13-го поколения подтвердили наши предположения.


Повышение эффективности работы нашей новой системы FL2 оказалось существенным еще до каких-либо оптимизаций. FL2 сократила задержку на 70%, что позволило нам повысить загрузку ЦП на процессорах 13-го поколения, строго соблюдая наши соглашения об уровне обслуживания (SLA) по задержке. В случае с FL1 это было бы невозможно.

Благодаря эффективному устранению узкого места в кэше, FL2 позволяет масштабировать пропускную способность линейно в зависимости от количества ядер. Влияние неоспоримо на высокопроизводительные процессоры AMD Turin 9965: мы добились двукратного прироста производительности, раскрыв истинный потенциал оборудования. Дальнейшая настройка системы позволит нам добиться еще большей мощности от нашего парка процессоров 13-го поколения.

Улучшение характеристик с появлением 13-го поколения.
Благодаря тому, что FL2 раскрыл огромный потенциал высокопроизводительных процессоров AMD Turin 9965 с большим количеством ядер, мы официально выбрали эти процессоры для развертывания в рамках 13-го поколения. Аппаратная квалификация завершена, и серверы 13-го поколения уже поставляются в больших объемах для поддержки нашего глобального развертывания.

Улучшения производительности


Влияние Gen 13 на бизнес
Увеличенная вдвое пропускная способность по сравнению с Gen 12 для бескомпромиссного качества обслуживания клиентов: удваивая пропускную способность при сохранении соответствия нашим соглашениям об уровне обслуживания (SLA) по задержке, мы гарантируем, что наши приложения останутся быстрыми и отзывчивыми, а также смогут выдерживать огромные пики трафика.

Повышение производительности на 50% на ватт по сравнению с 12-м поколением для устойчивого масштабирования: это повышение энергоэффективности не только снижает затраты на расширение центров обработки данных, но и позволяет нам обрабатывать растущий трафик со значительно меньшим углеродным следом на каждый запрос.

На 60% более высокая пропускная способность стоек по сравнению с Gen 12 для глобальных обновлений на периферии сети: Благодаря достижению такой плотности пропускной способности при сохранении постоянного энергопотребления стойки, мы можем беспрепятственно развертывать вычислительные мощности нового поколения в любой точке мира в рамках нашей глобальной сети на периферии сети, обеспечивая высочайшую производительность именно там, где это необходимо нашим клиентам.

Gen 13 + FL2: готовы к пределу возможностей
Наш устаревший уровень обработки запросов FL1 столкнулся с проблемой конкуренции за кэш на Gen 13, что вынудило нас пойти на неприемлемый компромисс между пропускной способностью и задержкой. Вместо того чтобы идти на компромисс, мы создали FL2.

Разработанная с использованием значительно более оптимизированной схемы доступа к памяти, технология FL2 устраняет зависимость от огромных кэшей L3 и обеспечивает линейное масштабирование в зависимости от количества ядер. Работая на платформе AMD Turin 13-го поколения, FL2 обеспечивает вдвое большую пропускную способность и 50% повышение энергоэффективности, при этом сохраняя задержку в пределах наших соглашений об уровне обслуживания (SLA). Этот прорыв является отличным напоминанием о важности совместной разработки аппаратного и программного обеспечения. Серверы 13-го поколения, не ограниченные лимитами кэша, теперь готовы к развертыванию для обработки миллионов запросов в глобальной сети Cloudflare.

Если вас интересует работа над инфраструктурными проектами глобального масштаба, мы нанимаем сотрудников www.cloudflare.com/careers/jobs

Внутри Gen 13: как мы создали наш самый мощный сервер на сегодняшний день



Несколько месяцев назад Cloudflare объявила о переходе на FL2, нашу переработанную на Rust версию основного уровня обработки запросов Cloudflare. Этот переход ускоряет нашу способность помогать создавать лучший Интернет для всех. Благодаря миграции в программном стеке, Cloudflare обновила конструкцию серверного оборудования, улучшив его возможности и повысив эффективность для удовлетворения меняющихся потребностей нашей сети и программного обеспечения. Серверы 13-го поколения оснащены 192-ядерным процессором AMD EPYC Turin 9965, 768 ГБ оперативной памяти DDR5-6400, 24 ТБ хранилища PCIe 5.0 NVMe и двумя сетевыми картами с портами 100 Гбит/с.

13-е поколение предлагает:
  • До 2 раз более высокая пропускная способность по сравнению с Gen 12 при сохранении уровня задержки в пределах SLA.
  • Повышение производительности на ватт до 50%, что снижает затраты на расширение центров обработки данных.
  • Увеличение пропускной способности на стойку до 60% при сохранении постоянного энергопотребления стойки.
  • Вдвое больший объем памяти, в 1,5 раза больший объем хранилища, в 4 раза большая пропускная способность сети.
  • В дополнение к шифрованию памяти, добавлена ​​поддержка аппаратного шифрования PCIe.
  • Улучшена поддержка мощных, требующих интенсивного теплоотвода ускорителей PCIe, устанавливаемых без доработок.

В этой статье в блоге подробно рассматривается инженерное обоснование выбора каждого из основных компонентов: что мы оценивали, что выбрали и почему.





Процессор


На этапе проектирования мы протестировали несколько процессоров AMD EPYC™ 5-го поколения, получивших кодовое название Turin, в аппаратной лаборатории Cloudflare: AMD Turin 9755, AMD Turin 9845 и AMD Turin 9965. В таблице ниже приведены различия в характеристиках кандидатов для серверов 13-го поколения по сравнению с AMD Genoa-X 9684X, используемым в наших серверах 12-го поколения. Следует отметить, что все три кандидата предлагают увеличение количества ядер, но с меньшим объемом кэша L3 на ядро. Однако, благодаря переходу на FL2, новые рабочие нагрузки менее зависимы от кэша L3 и хорошо масштабируются с увеличением количества ядер, обеспечивая увеличение пропускной способности до 100%.

Три представленных процессора предназначены для разных сценариев использования: AMD Turin 9755 предлагает превосходную производительность на ядро, AMD Turin 9965 жертвует производительностью на ядро ​​ради энергоэффективности, а AMD Turin 9845 жертвует количеством ядер ради меньшего энергопотребления сокета. Мы протестировали три процессора в производственной среде.



Почему именно AMD Turin 9965?
Во-первых, FL2 положила конец проблеме нехватки кэша L3.

Кэш L3 — это большой кэш последнего уровня, разделяемый всеми ядрами ЦП на одном вычислительном кристалле для хранения часто используемых данных. Он заполняет пробел между медленной основной памятью, находящейся вне ЦП, и быстрым, но меньшим по размеру кэшем L1 и L2 на ЦП, уменьшая задержку доступа ЦП к данным.

Некоторые могут заметить, что у 9965 всего 2 МБ кэша L3 на ядро, что на 83,3% меньше, чем 12 МБ на ядро ​​у Genoa-X 9684X 12-го поколения. Зачем отказываться от того самого преимущества в кэше, которое дало Gen 12 его превосходство? Ответ кроется в том, как эволюционировали наши рабочие нагрузки.

Cloudflare перешла с FL1 на FL2, полностью переписав свой слой обработки запросов на Rust. Благодаря новому программному стеку конвейер обработки запросов Cloudflare стал значительно менее зависимым от большого кэша L3. Нагрузки FL2 масштабируются почти линейно с количеством ядер, а 192 ядра 9965 обеспечивают двукратное увеличение количества аппаратных потоков по сравнению с Gen 12.

Во-вторых, производительность на единицу общей стоимости владения (TCO). В ходе производственной оценки 192 ядра 9965 показали наибольшее суммарное количество запросов в секунду среди трех кандидатов, а его производительность на ватт благоприятно масштабировалась при TDP 500 Вт, обеспечивая превосходную общую стоимость владения на уровне стойки.



Во-третьих, простота в эксплуатации. Наши оперативные группы отдают предпочтение меньшему количеству серверов с высокой плотностью размещения. Управление парком машин с 192 ядрами означает меньшее количество узлов, которые необходимо выделять, обновлять и контролировать на единицу предоставленных вычислительных ресурсов. Это напрямую снижает операционные издержки в нашей глобальной сети.

Наконец, они обладают обратной совместимостью. Архитектура процессоров AMD поддерживает память DDR5-6400, PCIe Gen 5.0 и CXL 2.0 Type 3 во всех моделях. AMD Turin 9965 имеет наибольшее количество высокопроизводительных ядер на сокет в отрасли, что максимизирует вычислительную плотность на сокет, поддерживая конкурентоспособность и актуальность платформы на долгие годы. Переход с AMD Genoa-X 9684X на AMD Turin 9965 обеспечивает более длительную поддержку безопасности от AMD, продлевая срок службы серверов Gen 13 до того, как они устареют и потребуют обновления.

Память

Поскольку процессор AMD Turin имеет вдвое больше ядер, чем предыдущее поколение, ему требуется больше памяти, как по объему, так и по пропускной способности, для обеспечения увеличения производительности.

Максимальная пропускная способность при использовании 12 каналов.
Выбранный процессор AMD EPYC 9965 поддерживает двенадцать каналов памяти, и для 13-го поколения мы устанавливаем модули во все из них. Мы выбрали 64 ГБ памяти DDR5-6400 ECC RDIMM в конфигурации «один модуль на канал» (1DPC).

Эта конфигурация обеспечивает пиковую пропускную способность памяти 614 ГБ/с на сокет, что на 33,3% больше по сравнению с нашей серверной платформой 12-го поколения. Используя все 12 каналов, мы гарантируем, что процессор никогда не будет испытывать «нехватку» данных, даже при самых ресурсоемких параллельных нагрузках.

Использование сбалансированной конфигурации всех двенадцати каналов памяти — одинаковая емкость на канал, без смешанных конфигураций — является распространенной передовой практикой. Это важно с точки зрения эксплуатации: процессоры AMD Turin используют чередование памяти по всем каналам памяти с одинаковым типом DIMM, одинаковой емкостью памяти и одинаковой конфигурацией ранга. Чередование увеличивает пропускную способность памяти за счет распределения непрерывного доступа к памяти по всем каналам памяти в наборе чередующихся каналов, вместо того чтобы направлять весь доступ к памяти на один или небольшое подмножество каналов памяти.

Оптимальный объем памяти — 4 ГБ на ядро.
Наши серверы 12-го поколения имеют конфигурацию с 4 ГБ оперативной памяти на ядро. Мы пересмотрели это решение при проектировании серверов 13-го поколения.
Cloudflare ежемесячно запускает множество новых продуктов и услуг, и каждый новый продукт или услуга требует всё большего объёма памяти. Со временем это приводит к накоплению объёма памяти, что может стать проблемой нехватки памяти, если объём памяти не будет рассчитан должным образом.
Первоначально предполагалось соотношение памяти к ядру от 4 до 6 ГБ на ядро. При наличии 192 ядер на AMD Turin 9965 это соответствует диапазону от 768 ГБ до 1152 ГБ. Следует отметить, что при больших объемах шаг изменения емкости модуля DIMM обычно составляет 16 ГБ. При 12 каналах в конфигурации 1DPC доступны варианты 12x 48 ГБ (576 ГБ), 12x 64 ГБ (768 ГБ) или 12x 96 ГБ (1152 ГБ).
  • 12 x 48 ГБ = 576 ГБ, или 1,5 ГБ на поток. Объем памяти в этой конфигурации слишком мал; это приведет к нехватке памяти для ресурсоемких задач и нарушению нижнего предела.
  • 12 x 96 ГБ = 1152 ГБ, или 3,0 ГБ/поток. Это означает увеличение емкости на ядро ​​на 50%, а также приведет к увеличению энергопотребления и существенному росту стоимости, особенно в нынешних рыночных условиях, когда цены на память в 10 раз выше, чем год назад.
  • 12 x 64 ГБ = 768 ГБ, или 2,0 ГБ/поток (4 ГБ/ядро). Эта конфигурация соответствует нашему соотношению памяти к ядрам в Gen 12 и представляет собой двукратное увеличение объема памяти на сервер. Сохранение объема памяти на уровне 4 ГБ на ядро ​​обеспечивает достаточную емкость для рабочих нагрузок, масштабируемых с увеличением количества ядер, таких как наша основная рабочая нагрузка, FL, и обеспечивает достаточный запас памяти для будущего роста без избыточного выделения ресурсов.

FL2 использует память более эффективно, чем FL1: наши внутренние измерения показывают, что FL2 использует менее половины ресурсов процессора, чем FL1, и значительно меньше половины памяти. Высвобожденные ресурсы, полученные в результате миграции программного стека, обеспечивают достаточный запас для поддержки роста Cloudflare в течение следующих нескольких лет.

Решение: 12 модулей по 64 ГБ, что в сумме составляет 768 ГБ. Это сохраняет проверенное соотношение 4 ГБ/ядро, обеспечивает двукратное увеличение общей емкости по сравнению с 12-м поколением и остается в оптимальном ценовом диапазоне модулей DIMM.

Повышение эффективности за счет двойного ранга
В Gen 12 мы продемонстрировали, что двухранговые модули DIMM обеспечивают заметно более высокую пропускную способность памяти, чем одноранговые модули, с преимуществами до 17,8% при соотношении чтения и записи 1:1. Двухранговые модули DIMM быстрее, потому что они позволяют контроллеру памяти обращаться к одному рангу, пока другой обновляется. Этот же принцип применим и здесь.

Наши требования также предусматривают пропускную способность памяти примерно в 1 ГБ/с на каждый аппаратный поток. При пиковой пропускной способности в 614 ГБ/с на 384 потоках мы обеспечиваем 1,6 ГБ/с на поток, что значительно превышает минимальный показатель. Анализ производственных условий показал, что рабочие нагрузки Cloudflare не ограничены пропускной способностью памяти, поэтому мы сохраняем этот запас как резерв для будущего роста нагрузки.

Выбрав модули памяти DDR5 RDIMM 2Rx4 с максимальной поддерживаемой частотой 6400 МТ/с, мы обеспечиваем минимальную задержку и наилучшую производительность в конфигурации памяти нашей платформы Gen 13.

Хранилище


В 12-м поколении наша архитектура хранения данных претерпела трансформацию, когда мы перешли от M.2 к EDSFF E1.S. В 13-м поколении мы увеличиваем емкость хранения и пропускную способность, чтобы соответствовать новейшим технологиям. Мы также добавили фронтальный отсек для накопителей, что обеспечивает гибкость и позволяет устанавливать до 10 накопителей U.2, чтобы идти в ногу с ростом продаж продуктов хранения Cloudflare.

Переход на PCIe 5.0
В Gen 13 используются накопители NVMe PCIe Gen 5.0. Хотя Gen 4.0 хорошо себя зарекомендовал, переход на Gen 5.0 гарантирует, что наша подсистема хранения данных сможет передавать данные с меньшей задержкой и справляться с возросшими требованиями к пропускной способности хранилища, предъявляемыми новым процессором.

от 16 ТБ до 24 ТБ
Помимо увеличения скорости, мы физически расширяем массив с двух до трех NVMe-накопителей. Наша серверная платформа 12-го поколения была разработана с четырьмя слотами для накопителей E1.S, но только два из них были заняты 8-терабайтными дисками. Серверная платформа 13-го поколения использует ту же конструкцию с четырьмя доступными слотами для накопителей E1.S, но три из них заняты 8-терабайтными дисками. Зачем добавлять третий диск? Это увеличивает емкость хранилища на сервер с 16 ТБ до 24 ТБ, обеспечивая расширение нашей общей емкости хранилища для поддержания и улучшения производительности кэша CDN. Это также поддерживает прогнозируемый рост для Durable Objects, Containers и сервисов Quicksilver.

Передний отсек для дисков для установки дополнительных накопителей.
Для Gen 13 шасси спроектировано с передним отсеком для накопителей, который может поддерживать до десяти накопителей U.2 PCIe Gen 5.0 NVMe. Передний отсек для накопителей позволяет Cloudflare использовать одно и то же шасси на вычислительных и хранилищных платформах, а также обеспечивает гибкость при необходимости преобразования вычислительной версии в версию для хранения данных.

Выносливость и надежность
Мы проектируем наши серверы с расчетом на 5-летний срок службы и требуем от накопителей ресурс в 1 операцию записи в день (DWPD) на протяжении всего срока службы сервера.

Как Samsung PM9D3a, так и Micron 7600 Pro соответствуют спецификации 1 DWPD с аппаратным резервированием (OP) приблизительно на 7%. Если в будущем потребуется более высокая ресурсоемкость, у нас есть возможность зарезервировать дополнительную пользовательскую мощность для увеличения эффективного OP.

Соответствие стандартам NVMe 2.0 и OCP NVMe 2.0
Как Samsung PM9D3a, так и Micron 7600 используют спецификацию NVMe 2.0 (вместо NVMe 1.4) и спецификацию OCP NVMe Cloud SSD Specification 2.0. Ключевые улучшения включают в себя зонированные пространства имен (ZNS) для более эффективного управления усилением записи, команду Simple Copy Command для перемещения данных внутри устройства без пересечения шины PCIe, а также улучшенную блокировку команд и функций для более жесткого контроля безопасности. Спецификация OCP 2.0 также добавляет расширенные возможности телеметрии и отладки, специально разработанные для работы в центрах обработки данных, что соответствует нашему акценту на управляемость всего парка устройств.

Тепловой КПД
Накопители по-прежнему будут выполнены в форм-факторе E1.S толщиной 15 мм. Большая площадь поверхности корпуса необходима для охлаждения новых контроллеров Gen 5.0, которые могут потреблять до 25 Вт при длительной интенсивной работе. Корпус высотой 2U обеспечивает достаточный воздушный поток над накопителями E1.S, а также отсеками для накопителей U.2, — преимущество, подтвержденное нами в Gen 12, когда мы приняли решение перейти от форм-фактора 1U к 2U.

Сеть


Более восьми лет два порта 25 Гбит/с Ethernet составляли основу нашего парка оборудования. С 2018 года они хорошо нам служили, но по мере совершенствования процессоров для обработки большего количества запросов и масштабируемости нашей продукции мы официально достигли предела своих возможностей. Для 13-го поколения мы вчетверо увеличиваем пропускную способность каждого порта.

Почему именно 100 Гбит/с Ethernet и почему именно сейчас?
Пропускная способность сетевых интерфейсных карт (NIC) должна соответствовать росту вычислительной производительности. При наличии 192 современных ядер наши каналы 25 Гбит/с Ethernet станут ощутимым узким местом. Данные, полученные в ходе недельной эксплуатации наших центров обработки данных по всему миру, показали, что на наших серверах 12-го поколения пропускная способность P95 на порт стабильно превышает 50% от доступной пропускной способности. Поскольку пропускная способность на каждом сервере 13-го поколения удваивается, мы рискуем перегрузить пропускную способность сетевых интерфейсных карт.



Решение перейти на 100 GbE вместо 50 GbE было продиктовано экономическими соображениями отрасли: объемы производства трансиверов 50 GbE остаются низкими, что делает их невыгодным вариантом для цепочки поставок. Два порта 100 GbE также обеспечивают суммарную пропускную способность 200 Гбит/с на сервер, что гарантирует готовность к росту трафика в ближайшие несколько лет.

Выбор оборудования и совместимость
Мы сохраняем нашу стратегию работы с двумя поставщиками, чтобы обеспечить устойчивость цепочки поставок — урок, который мы с трудом усвоили во время пандемии, когда закупка сетевых карт Gen 11 у одного поставщика привела к тому, что мы оказались в затруднительном положении.

Обе сетевые карты соответствуют форм-фактору OCP 3.0 SFF/TSFF со встроенной защелкой, что обеспечивает унифицированность шасси с Gen 12 и гарантирует, что полевым специалистам не потребуются новые инструменты или обучение для замены.

Распределение PCIe
Слот OCP 3.0 NIC на материнской плате имеет выделенные линии PCIe 4.0 x16, обеспечивающие двунаправленную пропускную способность 256 Гбит/с, чего более чем достаточно для двух интерфейсов 100 Гбит/с (суммарная скорость 200 Гбит/с) с запасом.

Управление


Мы сохраняем архитектурный сдвиг, введенный в Gen 12, заключающийся в разделении компонентов управления и безопасности от материнской платы на модуль Project Argus Data Center Secure Control Module 2.0.


Непрерывность работы с DC-SCM 2.0
Мы продолжаем развивать стандарт Data Center Secure Control Module 2.0 (DC-SCM 2.0). Разделяя функции управления и безопасности от материнской платы, мы гарантируем, что «мозг» системы безопасности сервера останется модульным и защищенным.

В модуле DC-SCM размещены наши наиболее важные компоненты:
  • Базовая система ввода-вывода (BIOS)
  • Контроллер управления материнской платой (BMC)
  • Аппаратный корень доверия (HRoT) и TPM (Infineon SLB 9672)
  • Два флэш-чипа BMC/BIOS для резервирования

Почему мы продолжаем работу над DC-SCM 2.0
Решение сохранить эту архитектуру для 13-го поколения обусловлено доказанным повышением уровня безопасности, которое мы наблюдали в предыдущем поколении. Перенеся эти функции в отдельный модуль, мы сохраняем:
  • Быстрое восстановление: Двойное резервирование образов позволяет практически мгновенно восстановить прошивку BIOS/UEFI и BMC в случае обнаружения случайного повреждения или вредоносного обновления.
  • Физическая прочность: В шасси 13-го поколения механизм обнаружения вторжений также смещен дальше от плоского края шасси, что затрудняет физический перехват.
  • Шифрование PCIe: В дополнение к технологии TSME (Transparent Secure Memory Encryption) для шифрования данных между процессором и памятью, которая была включена еще в наших платформах 10-го поколения, процессор AMD Turin 9965 для 13-го поколения расширяет шифрование на трафик PCIe, что гарантирует защиту данных при передаче по каждой шине в системе.
  • Операционная согласованность: Использование стека управления Gen 12 означает, что наши процедуры аудита безопасности, развертывания, предоставления ресурсов и операционных стандартов остаются полностью совместимыми.

Power


По мере модернизации вычислительных и сетевых возможностей серверов, их энергопотребление, естественно, также увеличилось. Серверы 13-го поколения оснащены более мощными блоками питания для обеспечения необходимой мощности.

Переход к мощности 1300 Вт
В то время как наши узлы 12-го поколения комфортно работали с резервным источником питания 800 Вт 80 PLUS Titanium CRPS (Common Redundant Power Supply), спецификация 13-го поколения требует более мощного источника питания. Мы выбрали резервный источник питания 80 PLUS Titanium CRPS мощностью 1300 Вт.

Потребляемая мощность процессоров Gen 13 в типичном режиме работы выросла до 850 Вт, что на 250 Вт больше, чем 600 Вт у Gen 12. Основными факторами являются процессор с TDP 500 Вт (вместо 400 Вт), удвоение объема памяти и дополнительный NVMe-накопитель.

Почему 1300 Вт вместо 1000 Вт? В существующей экосистеме блоков питания отсутствуют жизнеспособные высокоэффективные варианты мощностью 1000 Вт. Для обеспечения надежности цепочки поставок мы перешли к следующему отраслевому стандарту — 1300 Вт.

Регламент ЕС Lot 9 требует, чтобы серверы, развертываемые в Европейском Союзе, имели блоки питания с КПД при нагрузке 10%, 20%, 50% и 100%, равным или превышающим пороговое значение, указанное в регламенте. Это пороговое значение соответствует требованиям программы сертификации блоков питания 80 PLUS, предусматривающим использование блоков питания титанового класса. Для Gen 13 мы выбрали блоки питания титанового класса, чтобы обеспечить полное соответствие требованиям EU Lot 9 и гарантировать возможность развертывания серверов в наших европейских центрах обработки данных и за их пределами.

Тепловая конструкция: 2U снова приносит свои плоды.
Принятый нами в 12-м поколении форм-фактор 2U1N продолжает приносить свои плоды. В 13-м поколении используются 5 80-мм вентиляторов (против 4 в 12-м поколении) для компенсации возросшей тепловой нагрузки от процессора мощностью 500 Вт. Больший объем вентиляторов в сочетании с характеристиками воздушного потока в 2U-корпусе означает, что вентиляторы работают значительно ниже максимального рабочего цикла при типичных температурах окружающей среды, поддерживая энергопотребление вентиляторов в диапазоне < 50 Вт на вентилятор.

Поддержка ускорителя без дополнительных настроек


Сохранение модульности нашего парка серверов является ключевым требованием к их проектированию. Это требование позволило Cloudflare быстро модернизировать и развернуть графические процессоры по всему миру более чем в 100 городах в 2024 году. В 13-м поколении мы продолжаем поддерживать высокопроизводительные дополнительные карты PCIe.

В 13-м поколении обновлена ​​компоновка корпуса в форм-факторе 2U, адаптированная для поддержки более высоких требований к питанию и теплоотводу. Если в 12-м поколении использовалась только одна двухслотовая видеокарта, то архитектура 13-го поколения теперь поддерживает две двухслотовые карты PCIe.

Стартовая площадка для масштабирования Cloudflare и выведения его на новый уровень.
Каждое поколение серверов Cloudflare — это попытка сбалансировать противоречащие друг другу ограничения: производительность против энергопотребления, емкость против стоимости, гибкость против простоты. Серверы 13-го поколения имеют вдвое больше ядер, вдвое больший объем памяти, вчетверо большую пропускную способность сети, в 1,5 раза больший объем хранилища и обеспечивают перспективность для развертывания в ускоренном режиме — и все это при одновременном снижении общей стоимости владения и сохранении надежного набора функций управления и уровня безопасности, которые требуются нашему глобальному парку серверов.

Серверы 13-го поколения полностью сертифицированы и будут развернуты для обработки миллионов запросов в глобальной сети Cloudflare в более чем 330 городах. Как всегда, стремление Cloudflare к максимально эффективному предоставлению услуг в Интернете на этом не заканчивается. По мере начала развертывания 13-го поколения мы планируем архитектуру для 14-го поколения.

Если вас вдохновляет возможность внести свой вклад в создание лучшего интернета, присоединяйтесь к нам. Мы набираем сотрудников www.cloudflare.com/careers/jobs/

Как создать программно-определяемое хранилище в SpaceVM




Бизнес ожидает от СХД простых характеристик — чтобы данные были доступны всегда, а сбои и обслуживание не останавливали работу виртуальных машин и сервисов. Именно поэтому программно-определяемые хранилища становятся распространенным инструментом. На примере SpaceVM разбираем, как за считанные минуты собрать отказоустойчивое кластерное SDS, которое решает сразу несколько ключевых задач: снижает стоимость владения и обеспечивает стабильную работу в реальных условиях эксплуатации.

Вопрос о том, зачем вообще нужны программно-определяемые хранилища не лишен смысла. Объемы данных, которые приходится хранить бизнесам, постоянно растут, емкость хранилищ приходится постоянно наращивать, а многим компаниям приходится, к тому же, еще и обеспечивать соответствие требованиям регуляторов. Но стоимость аппаратных СХД и объем инвестиций в них перевешивают – и компании задумываются о переходе на SDS.

Они не только дешевле в принципе – экономия становится еще заметнее, если приходится иметь дело с неструктурированными данными. Есть и другие преимущества: можно абстрагироваться от аппаратной платформы и успешно побороть пресловутый vendor-lock. (это особенно важно в России), компании куда проще обеспечить независимость от вендорских санкций.

Программно-определяемые хранилища перестают быть экспериментальным решением в тот момент, когда инфраструктура выходит за рамки одного сервера или одной задачи. Рост числа виртуальных машин, регулярное расширение дисковой емкости и требования к высокой доступности данных быстро делают классическую СХД узким местом. В этот момент выбор SDS становится не вопросом технологий, а способом сохранить управляемость и предсказуемость инфраструктуры.

Наиболее заметно преимущества SDS проявляются в прикладных сценариях, с которыми сталкивается большинство компаний. Виртуализация «1С», CRM и биллинговых систем требует отказоустойчивости без кратного роста стоимости. VDI и удаленные рабочие места чувствительны к задержкам и неравномерной нагрузке. Файловые хранилища с неструктурированными данными плохо масштабируются в рамках монолитных массивов. Во всех этих случаях традиционные СХД начинают ограничивать развитие сервисов, а не поддерживать его.

Сложность заключается в том, что в разных виртуальных средах создание и управление SDS осуществляется тоже по-разному. О том, как решается эта задача на платформе SpaceVM, расскажем далее. При этом сфокусируемся на создании кластерного хранилища, которые становятся все более популярны благодаря своим надежности, простой масштабируемости и управлению.

Готовим сеть
Кластерное программно-определяемое хранилище в SpaceVM строится по многоуровневой архитектуре, в которой вычисления, сеть и хранение логически разделены, но управляются из единого контура.

На нижнем уровне располагаются физические серверы с локальными дисками, объединенными в RAID-массивы. Выше находится слой SDS на базе GlusterFS, который отвечает за агрегацию дискового пространства, репликацию данных и отказоустойчивость. Гипервизор SpaceVM использует этот слой как общее хранилище для образов дисков qcow2 виртуальных машин, абстрагируясь от конкретного оборудования.

На уровне каждого узла SpaceVM использует ZFS для управления локальными дисками и формирования разделов (бриков). Поверх ZFS-пулов строится кластерный слой SDS на базе GlusterFS, который отвечает за репликацию данных и их распределение между серверами. Такое разделение позволяет независимо управлять локальной надежностью хранения и кластерной отказоустойчивостью.

С точки зрения потоков данных виртуальная машина работает с единым логическим томом, тогда как внутри кластера операции записи и чтения распределяются между узлами с учетом выбранного типа тома и уровня репликации. Такое разделение позволяет масштабировать хранилище и вычислительные ресурсы независимо, устранять единичные точки отказа и обслуживать отдельные узлы без остановки сервисов. Именно поэтому корректная настройка сети и понимание архитектуры кластера становятся ключевыми факторами стабильной работы SDS.


Начинаем, конечно, с того, что вводим в панели администратора название сети (назовем ее для простоты Gluster), даем ее описание и, если требуется, указываем адрес подсети. Затем выбираем необходимый сервер и интерфейс, через который будет работать кластерный транспорт, — в нашем случае это будет 10 Гбит. В демонстрации используется сеть 10 Гбит; в реальных инсталляциях допустимы иные параметры, если они соответствуют требованиям по пропускной способности и задержкам.

Использование интерфейсов 10 Гбит для кластерного транспорта обусловлено не «запасом на будущее», а реальными нагрузками SDS. При активной записи и репликации данных сеть 1 Гбит быстро становится узким местом, что приводит к росту латентности и деградации производительности виртуальных машин. В кластере из нескольких узлов такие ограничения усиливаются, поэтому 10 Гбит рассматривается как базовый уровень для стабильной работы программно-определяемого хранилища.


Здесь же есть возможность агрегированный интерфейс. Нам потребуется еще создать внутренний интерфейс на каждом из серверов – у нас их будет три, для каждого будет актуальна та же самая процедура.


Затем проверяем настройки сети, при необходимости вводим тег VLAN и меняем MTU. Настройки MTU и VLAN оказывают заметное влияние на работу кластера. Использование увеличенного MTU позволяет сократить накладные расходы при передаче больших объемов данных, однако требует единообразной настройки на всех узлах и сетевом оборудовании.

Некорректные или неоднородные параметры сети могут приводить к трудно диагностируемым ошибкам, которые внешне проявляются как проблемы хранилища.

Далее, можно добавить резервированные пулы адресов. И после этого запускаем процесс создания сети.


После того, как она создана, нужно создать кластерный транспорт.


Для этого нужно зайти в кластерные хранилища, ввести в них название кластерного транспорта, задаем для него описание и выбираем созданную нами внешнюю сеть. Это нужно для того, чтобы трафик проходил именно через нее.

Подготовка хранилищ на узлах


Следующий шаг – подготовка хранилищ на узлах созданной сети. Для этого нам надо сформировать массивы RAID на каждом из серверов. Выбираем тип RAID: доступны stripe, mirror, RAIDZ1 и RAIDZ2 — это реализации отказоустойчивых схем хранения на уровне ZFS, функционально сопоставимые с RAID5 и RAID6, но реализованные с учетом архитектуры файловой системы. Тип RAID на узлах следует выбирать с учетом профиля нагрузки и логики работы SDS.

Зеркальные конфигурации обеспечивают минимальные задержки и предсказуемую производительность, тогда как схемы с контролем четности позволяют эффективнее использовать емкость. Важно учитывать, что локальный RAID не заменяет кластерную репликацию, а дополняет ее, снижая вероятность потери данных и ускоряя восстановление при отказах.

Можно собрать RAID из подключенных LUN, расположенных на внешнем хранилище iSCSI или FC. Для каждого массива вводится название и, опционально, описание. Эта процедура повторяется на каждом из серверов.


У каждого из серверов нам доступен просмотр статуса, монтаж и демонтаж дисков, выключение устройства для обслуживания. Можно также получить расширенные сведения ZFS тома, добавить устройства для горячей замены и расширить пулы в случае добавления дисков.

Создание SDS-тома
Следующий этап – создание программно-определяемого тома. Для этого в интерфейсе управления есть отдельный раздел. В нем выбираем функцию создания, определяем тип тома, реплицированный или дисперсный. Первый потребуется для обеспечения отказоустойчивости и надежности, второй позволяет объединять RAID различного размера, а кроме того, может обеспечивать более высокую производительность в ряде сценариев, в зависимости от профиля нагрузки и конфигурации кластера.


В нашем случае выберем реплицированный том, затем транспорт, через который будет работать том и пулы хранилищ из числа созданных на предыдущем этапе. В рамках демонстрационного кластера мы используем реплицированный том как наиболее универсальный вариант.

Кроме того, нужно выбрать размер записи, указать значение репликации тома (оно равно количеству томов).

Опционально можно указать использование арбитра — логического компонента, который не хранит пользовательские данные, а используется для обеспечения кворума и предотвращения split-brain-сценариев при отказе одного из узлов кластера.

SpaceVM позволяет создать пул данных автоматически – статус выполнения задания можно отследить в нижней части интерфейса.

Проверка пула данных


После того, как SDS-тома созданы, можно для каждого из них посмотреть, к каким серверам он смонтирован, проверить их доступность и активность. После создания тома стоит проверить через пул данных его корректность и объем.



Проверить надо и кластерный транспорт. На соответствующей вкладке можно видеть, что он подключен ко всем серверам, получить расширенные сведения о состоянии транспорта.

Проверка работоспособности
Затем, конечно, нужно проверить созданный SDS в работе.


Для этого нужно в соответствующем разделе выбрать виртуальную машину и перенести ее на созданный том. В ручном режиме выбираем пул ресурсов для миграции, режим с переносом локальных дисков, сеть, к которой будет подключена виртуальная машина и запускаем процесс миграции.

Миграция при этом происходит бесшовно, она продолжает работать во время переноса.

Отказоустойчивость
В такой конфигурации отказоустойчивость обеспечивается на двух уровнях: за счет локальных RAID-массивов на каждом сервере и за счет кластерной репликации данных между узлами. Это позволяет переживать отказ отдельных дисков или одного сервера без потери данных и остановки сервисов при соблюдении требований к кворуму кластера.

Как видим, процесс создания SDS-хранилища в среде SpaceVM укладывается в типовой рабочий сценарий администратора. Все основные операции выполняются через интерфейс управления и не требуют ручной настройки на уровне CLI. В демонстрационной конфигурации развертывание занимает минимальное время, тогда как в продакшене сроки и параметры могут варьироваться в зависимости от архитектуры, оборудования и требований к отказоустойчивости.

spacevm.ru/space-vm/
spacevm.ru/spacevm-essentials-plus-kit/
spacevm.ru/space-cloud/