Рейтинг
0.00

Дата-центры OVH

34 читателя, 1208 топиков

Пропускная способность выделенных серверов: мы делаем x2

Пропускная способность выделенных серверов: мы делаем x2, без существующего роста цен клиентов и новых. Если у вас есть 500Mbps, у вас есть 1Gbps! Весело :)

Это займет QQ недель, чтобы увидеть CONF применяются ко всему парку (356к физических серверов). Конечно, в слове ограничение ;)скорости порта Ethernet

Migration de datacentres à chaud We did it

Выйти из версий, которые больше не поддерживаются, создавать расширение центра обработки данных, заменять центр обработки данных, настраивать аварийное восстановление, использовать случаи, требующие перемещения рабочей нагрузки между различными центрами обработки данных. И никогда не было так легко и быстро переместиться с Западного побережья на восточное побережье или из Амстердама в Лимбург. За несколько кликов рабочие нагрузки отправляются через защищенные туннели HCX между разными центрами обработки данных.

Чтобы дать некоторые цифры, клиенту потребовалось 5 недель для перемещения 300 ТБ виртуальных машин, включая планирование, установку, репликацию и переход на другой ресурс. За один день этот клиент установил 23 ТБ данных, или 1 ТБ / час между двумя центрами обработки данных в Германии. Другой клиент переместился из своего центра обработки данных более 200 ТБ, распространив более 750 виртуальных машин без простоя.

Год назад никто не мог представить себе эти горячие движения. Сама концепция смещения рабочих нагрузок между двумя центрами обработки данных была фантазией, делая ее горячей, просто химерической.

Перемещение рабочей нагрузки зависит от технологии VMware, HCX, для платформы Private Cloud. Эта технология, помимо управления безопасным перемещением рабочих нагрузок, обеспечивает плавный переход путем предоставления сетевого соединения между исходным дата-центром и дата-центром назначения через расширенную сеть L2, протянутую. Виртуальная машина, которая отправляется в Private Cloud hot, не теряет связи с другими машинами, с которыми она работает в номинальных условиях.

HCX использует 3 устройства, один для управления передачей виртуальных машин из одного центра обработки данных в другой, Cloud Gateway (CGW), один из которых работает с CGW, WAN Accelerator и тот, который используется для растянутой сети (L2C). Эти устройства автоматически развертываются на стороне частного облака и требуют четвертого устройства на стороне помещения, чтобы пилотировать развертывание и настройку этих трех основных элементов.

Примечание: CGW также отображается в инвентаре в качестве зарегистрированного хоста.


Подводя итог, будут созданы два минимальных туннеля между исходным дата-центром и целевым центром обработки данных, частным облаком OVH. Туннель между CGW для передачи виртуальных машин и туннель между L2C, который будет создавать растянутую сеть в случае необходимости расширения подсети. Само собой разумеется, что можно развернуть несколько L2C, в зависимости от количества расширяемых сетей.

Как только архитектура станет готовой предпосылкой, мы увидим панель управления, которая суммирует возможности миграции и имеет историю.


Существует множество способов перемещения виртуальных машин, горячей миграции, теплой миграции и холодной миграции.

Горячая миграция, безусловно, самая впечатляющая. Через несколько кликов виртуальная машина находится в целевом центре данных без потери состояния, возможности подключения и контекста. Метод похож на vMotion, известных пользователей VMware, этот метод называется vMotion Migration. Принцип заключается в том, что хранение виртуальной машины отправляется в целевой центр назначения, как только хранилище виртуальной машины полностью синхронизировано, необходимо синхронизировать очередь памяти и ЦП, а центр данных назначения возьмите реле. Ограничением этого метода является секвенциализация процесса, который может влиять на рабочие нагрузкираспространяются через несколько виртуальных машин и требуют низкой задержки между виртуальными машинами. Когда VM мигрирует, латентность между центрами данных будет ощущаться:


Так что с «Массовая миграция» «Мы рассмотрим эту проблему, добавив, кроме того, функции, которые помогут контролировать миграцию. Цель этой миграции — синхронизировать один или несколько виртуальных машин с центром данных назначения, пока они все еще находятся в исходном центре данных, и поддерживать эту синхронизацию с течением времени. Рокер всех виртуальных машин будет проходить в течение выбранного администратора за эту миграцией, более благоприятной временной интервал в качалке, который будет проходить через угасания VM в центре источника и данных Запуск виртуальной машины в целевом центре данных. В дополнение к освоению триггера можно настроить виртуальную машину (обновление VMware Tools, обновление виртуального оборудования и т.д.) Поскольку все виртуальные машины перемещаются одновременно, растянутая сеть.


Последний способ переключения является разрушительным для производственных машин и поэтому скорее предназначен для миграции шаблонов, архивов, резервных копий. Холодно, VM выключено, и будет просто синхронизировать данные и автоматически переключаться, когда все данные поступают в датацентр назначения.

У нас есть более чем трехлетний опыт безопасной миграции рабочих нагрузок, сначала в центрах обработки данных vCloud Air, а затем в собственных дата-центрах OVH. В течение этого периода мы мигрировали экзабайты данных по всему миру.

HCX — это инструмент, который был предназначен для ответа на несколько проблем, связанных с миграцией, а также обеспечения работы виртуальных машин во время их передачи, необходимости переключения групп виртуальных машин, а также сетевого соединения между различными центрами обработки данных, и мы должны ассоциировать архитектурную работу. Действительно, миграция готовит вверх по течению, с проклейкой достаточно центра обработки данных назначения, которые могут адаптироваться с течением времени на OVH Private Cloud. Также необходимо работать над оценкой времени качания и стратегии качания, связанной с различными рабочими нагрузками источника центра обработки данных. В остальном это всего лишь история нескольких кликов в HCX.

Обзор центров обработки данных 2019 года, шаг 2: Гравелинс, Франция, Западная Европа

Кейп-Норт, для остальной части нашего тура! Мы продолжаем обзор наших инфраструктур с шагом в центре обработки данных Gravelines (GRA). Всего в 60 километрах от штаб-квартиры, это одна из крупнейших команд в отраслевом бизнес-подразделении с 60 сотрудниками на площадке, разделенная на несколько технических команд, обеспечивающих присутствие на месте 24/24, 365 дней в году.


В настоящее время два центра обработки данных Gravelin GRA 1 и GRA 2 могут вмещать более 85 000 серверов.

Площадь общей площади более 9 гектаров, включая 20 000 м 2 зданий, расширилась. Чтобы реагировать на рост и безопасность, на этом участке в этом году есть дополнительная линия высокого напряжения. Электрическая мощность составляет 40 МВт


Новые серверные комнаты помогли удовлетворить спрос на очень сильный рост на этом сайте. В самом сердце Европы GRA 1 и 2 напрямую связаны с Парижем, Лондоном и Брюсселем, что обеспечивает очень высокие латентности производительности в этих городах, где цифровое использование экспоненциально развивается.

Чтобы обеспечить высокую доступность всего сайта, каждый источник питания, помимо избыточности, сбрасывается инверторами. Установка генератора систематически устанавливается параллельно, как показано ниже.


Команды R&D OVH также продолжают внедрять инновации, в частности, для повышения энергоэффективности центров обработки данных. В этом контексте Gravelines скоро получит новые технологические достижения, к которым мы вернемся.

Инженер по надежности сайта (контейнеры) H/F



careers.ovh.com/fr/offres/site-reliability-engineer-containers-hf

Если мы немного разъясним, вот связанные миссии:
  • Сократите наши эксплуатационные расходы и автоматизируйте лучшие решения по всем возникающим трудностям и проблемам
  • Оцените важность сообщений о проблемах с инфраструктурой OVH
  • Предложите и помогите внедрить передовую практику и меры, чтобы инциденты случались только один раз и никогда больше .
  • Обеспечение непрерывности обслуживания с обязанностями по вызову (24/7 производственная среда)
  • Работа с командами для выявления, устранения узких мест для повышения производительности и сокращения затрат.
  • Предоставлять поддержку владельцам приложения, позволяя им защищать свои платформы
  • Короче говоря, вы работаете с современными инструментами с открытым исходным кодом, одновременно поддерживая критически важные системы, предлагающие широкий спектр приложений. Мы рассчитываем на то, что вы бросите вызов дизайну, архитектуре и масштабируемости инфраструктуры и сыграете жизненно важную роль в улучшении стабильности наших продуктов и инфраструктуры.

Открытое облако ускоряет скорость до x10 на IOPS

Хорошие новости для всех тех, кто интенсивно использует хранилище в Public Cloud: мы приступили к развертыванию как аппаратных, так и программных оптимизаций, которые позволяют нам в долгосрочной перспективе демонстрировать повышенную производительность на всех экземплярах и регионы. Прирост не является анекдотическим: на примере типа B2-7 мы, например, находимся от 2000 IOPS до 20 000 IOPS, что составляет 10!

Прежде чем вдаваться в подробности этих оптимизаций, немного истории. В самом начале виртуальные машины, размещенные в Public Cloud, были связаны с удаленным хранилищем: это было логическое решение с точки зрения объединения, но латентность сети ограничивала производительность в больших масштабах. Поэтому мы быстро решили переключиться на локальное хранилище, а затем настроили избыточность. С этим локальным SSD RAID мы думали, что достигли очень хорошего уровня производительности.

Однако некоторые клиенты заставили нас вернуться немного по-другому: для них мы представляем лучшее соотношение цены и качества на рынке с точки зрения количества процессоров, пропускной способности и т.д., Но результаты, полученные с использованием особо сложных приложений с точки зрения хранилище запятнало заключительную записку. Вывод был само собой разумеющимся: во времена SSD NVMe некоторые из наших программных решений заслуживают пересмотра.

Найдите правильную комбинацию
В наших тестах был отмечен первый трек оптимизации: Qcow, формат образа диска, используемый для хранения виртуальных машин. Копирования при записи (копировании при записи) имеют много преимуществ в виртуальной среде, но это также означает, что система проверит на физическом диске каждый раз, когда данные записываются или называются, это не пустая трата времени незначителен.

Параллельно речь шла о файловой системе .LVM дал отличные результаты в синтетических тестах, но производительность оказалась менее привлекательной с применением тестов, соответствующих реальности поля: на практике наши клиенты, которые интенсивно используют Redis, MongoDB или Hadoop, не ограничены для выравнивания блоков 4K. Новый эталонный этап был необходим с более представительными инструментами.


Сравнение различных форматов хранения, сравниваемых командой OVH Metrics. В красном: характеристики PCI Raw с io = native на NVME. В оранжевом цвете, полученные с LVM, и в желтом цвете, сделанные с виртуальными машинами перед оптимизацией. Наконец, зелёным, производительность выделенных серверов, которая является стандартной мерой, которую мы пытаемся подойти, «Нижняя лучше».
Как показано в вышеприведенном тесте, результаты, полученные с помощью RAW, оказались очень близкими к результатам выделенных серверов.

В конце этого процесса мы предложили некоторым клиентам проверить правильную комбинацию, а именно переход из Qcow в RAW и файловую систему на основе оптимизированной версии Ext4. Хорошая новость, она единогласна среди первых клиентов-тестировщиков: они измеряют производительность в IOPS до десяти раз выше, как показано на скамьях ниже.



Миграция
Теперь идет вторая фаза: развертывание в больших масштабах, чтобы сделать эти улучшения доступными как можно большему количеству людей. Сайт займет немного времени: требуемое оборудование и его конфигурация требуют действительно последней версии OpenStack, Newton, по которой все наши инфраструктуры постепенно мигрируют. Хорошей новостью является то, что эти оптимизации не влияют на цену или номенклатуру наших экземпляров Public Cloud: они просто интегрированы в существующее предложение. На самом деле, вы даже можете наслаждаться этим!

Если IOPS является критерием выбора для ваших действий в облаке, мы предлагаем вам получить конкретное представление о производительности, предлагаемой несколькими щелчками мыши: вам просто нужно запустить VM B2 (General Purpose), размещенный в регионе GRA5.

А после?
Мы считаем, что интенсивное использование ввода-вывода имеет место в нашем общедоступном облаке. Параллельно с текущей миграцией мы готовим следующий шаг, который еще больше повысит уровень производительности на 10. Не заходя слишком далеко в детали предложения, все еще находящегося на стадии «незавершенного производства», просто представьте, что ваша виртуальная машина когда-нибудь сможет получить доступ в переходе PCI к кластеру SSD NVMe, установленному в соответствии с выбранным вами RAID и выделенным к вашим потребностям…