Migration de datacentres à chaud We did it
Выйти из версий, которые больше не поддерживаются, создавать расширение центра обработки данных, заменять центр обработки данных, настраивать аварийное восстановление, использовать случаи, требующие перемещения рабочей нагрузки между различными центрами обработки данных. И никогда не было так легко и быстро переместиться с Западного побережья на восточное побережье или из Амстердама в Лимбург. За несколько кликов рабочие нагрузки отправляются через защищенные туннели HCX между разными центрами обработки данных.
Чтобы дать некоторые цифры, клиенту потребовалось 5 недель для перемещения 300 ТБ виртуальных машин, включая планирование, установку, репликацию и переход на другой ресурс. За один день этот клиент установил 23 ТБ данных, или 1 ТБ / час между двумя центрами обработки данных в Германии. Другой клиент переместился из своего центра обработки данных более 200 ТБ, распространив более 750 виртуальных машин без простоя.
Год назад никто не мог представить себе эти горячие движения. Сама концепция смещения рабочих нагрузок между двумя центрами обработки данных была фантазией, делая ее горячей, просто химерической.
Перемещение рабочей нагрузки зависит от технологии VMware, HCX, для платформы Private Cloud. Эта технология, помимо управления безопасным перемещением рабочих нагрузок, обеспечивает плавный переход путем предоставления сетевого соединения между исходным дата-центром и дата-центром назначения через расширенную сеть L2, протянутую. Виртуальная машина, которая отправляется в Private Cloud hot, не теряет связи с другими машинами, с которыми она работает в номинальных условиях.
HCX использует 3 устройства, один для управления передачей виртуальных машин из одного центра обработки данных в другой, Cloud Gateway (CGW), один из которых работает с CGW, WAN Accelerator и тот, который используется для растянутой сети (L2C). Эти устройства автоматически развертываются на стороне частного облака и требуют четвертого устройства на стороне помещения, чтобы пилотировать развертывание и настройку этих трех основных элементов.
Примечание: CGW также отображается в инвентаре в качестве зарегистрированного хоста.
Подводя итог, будут созданы два минимальных туннеля между исходным дата-центром и целевым центром обработки данных, частным облаком OVH. Туннель между CGW для передачи виртуальных машин и туннель между L2C, который будет создавать растянутую сеть в случае необходимости расширения подсети. Само собой разумеется, что можно развернуть несколько L2C, в зависимости от количества расширяемых сетей.
Как только архитектура станет готовой предпосылкой, мы увидим панель управления, которая суммирует возможности миграции и имеет историю.
Существует множество способов перемещения виртуальных машин, горячей миграции, теплой миграции и холодной миграции.
Горячая миграция, безусловно, самая впечатляющая. Через несколько кликов виртуальная машина находится в целевом центре данных без потери состояния, возможности подключения и контекста. Метод похож на vMotion, известных пользователей VMware, этот метод называется vMotion Migration. Принцип заключается в том, что хранение виртуальной машины отправляется в целевой центр назначения, как только хранилище виртуальной машины полностью синхронизировано, необходимо синхронизировать очередь памяти и ЦП, а центр данных назначения возьмите реле. Ограничением этого метода является секвенциализация процесса, который может влиять на рабочие нагрузкираспространяются через несколько виртуальных машин и требуют низкой задержки между виртуальными машинами. Когда VM мигрирует, латентность между центрами данных будет ощущаться:
Так что с «Массовая миграция» «Мы рассмотрим эту проблему, добавив, кроме того, функции, которые помогут контролировать миграцию. Цель этой миграции — синхронизировать один или несколько виртуальных машин с центром данных назначения, пока они все еще находятся в исходном центре данных, и поддерживать эту синхронизацию с течением времени. Рокер всех виртуальных машин будет проходить в течение выбранного администратора за эту миграцией, более благоприятной временной интервал в качалке, который будет проходить через угасания VM в центре источника и данных Запуск виртуальной машины в целевом центре данных. В дополнение к освоению триггера можно настроить виртуальную машину (обновление VMware Tools, обновление виртуального оборудования и т.д.) Поскольку все виртуальные машины перемещаются одновременно, растянутая сеть.
Последний способ переключения является разрушительным для производственных машин и поэтому скорее предназначен для миграции шаблонов, архивов, резервных копий. Холодно, VM выключено, и будет просто синхронизировать данные и автоматически переключаться, когда все данные поступают в датацентр назначения.
У нас есть более чем трехлетний опыт безопасной миграции рабочих нагрузок, сначала в центрах обработки данных vCloud Air, а затем в собственных дата-центрах OVH. В течение этого периода мы мигрировали экзабайты данных по всему миру.
HCX — это инструмент, который был предназначен для ответа на несколько проблем, связанных с миграцией, а также обеспечения работы виртуальных машин во время их передачи, необходимости переключения групп виртуальных машин, а также сетевого соединения между различными центрами обработки данных, и мы должны ассоциировать архитектурную работу. Действительно, миграция готовит вверх по течению, с проклейкой достаточно центра обработки данных назначения, которые могут адаптироваться с течением времени на OVH Private Cloud. Также необходимо работать над оценкой времени качания и стратегии качания, связанной с различными рабочими нагрузками источника центра обработки данных. В остальном это всего лишь история нескольких кликов в HCX.
Чтобы дать некоторые цифры, клиенту потребовалось 5 недель для перемещения 300 ТБ виртуальных машин, включая планирование, установку, репликацию и переход на другой ресурс. За один день этот клиент установил 23 ТБ данных, или 1 ТБ / час между двумя центрами обработки данных в Германии. Другой клиент переместился из своего центра обработки данных более 200 ТБ, распространив более 750 виртуальных машин без простоя.
Год назад никто не мог представить себе эти горячие движения. Сама концепция смещения рабочих нагрузок между двумя центрами обработки данных была фантазией, делая ее горячей, просто химерической.
Перемещение рабочей нагрузки зависит от технологии VMware, HCX, для платформы Private Cloud. Эта технология, помимо управления безопасным перемещением рабочих нагрузок, обеспечивает плавный переход путем предоставления сетевого соединения между исходным дата-центром и дата-центром назначения через расширенную сеть L2, протянутую. Виртуальная машина, которая отправляется в Private Cloud hot, не теряет связи с другими машинами, с которыми она работает в номинальных условиях.
HCX использует 3 устройства, один для управления передачей виртуальных машин из одного центра обработки данных в другой, Cloud Gateway (CGW), один из которых работает с CGW, WAN Accelerator и тот, который используется для растянутой сети (L2C). Эти устройства автоматически развертываются на стороне частного облака и требуют четвертого устройства на стороне помещения, чтобы пилотировать развертывание и настройку этих трех основных элементов.
Примечание: CGW также отображается в инвентаре в качестве зарегистрированного хоста.
Подводя итог, будут созданы два минимальных туннеля между исходным дата-центром и целевым центром обработки данных, частным облаком OVH. Туннель между CGW для передачи виртуальных машин и туннель между L2C, который будет создавать растянутую сеть в случае необходимости расширения подсети. Само собой разумеется, что можно развернуть несколько L2C, в зависимости от количества расширяемых сетей.
Как только архитектура станет готовой предпосылкой, мы увидим панель управления, которая суммирует возможности миграции и имеет историю.
Существует множество способов перемещения виртуальных машин, горячей миграции, теплой миграции и холодной миграции.
Горячая миграция, безусловно, самая впечатляющая. Через несколько кликов виртуальная машина находится в целевом центре данных без потери состояния, возможности подключения и контекста. Метод похож на vMotion, известных пользователей VMware, этот метод называется vMotion Migration. Принцип заключается в том, что хранение виртуальной машины отправляется в целевой центр назначения, как только хранилище виртуальной машины полностью синхронизировано, необходимо синхронизировать очередь памяти и ЦП, а центр данных назначения возьмите реле. Ограничением этого метода является секвенциализация процесса, который может влиять на рабочие нагрузкираспространяются через несколько виртуальных машин и требуют низкой задержки между виртуальными машинами. Когда VM мигрирует, латентность между центрами данных будет ощущаться:
Так что с «Массовая миграция» «Мы рассмотрим эту проблему, добавив, кроме того, функции, которые помогут контролировать миграцию. Цель этой миграции — синхронизировать один или несколько виртуальных машин с центром данных назначения, пока они все еще находятся в исходном центре данных, и поддерживать эту синхронизацию с течением времени. Рокер всех виртуальных машин будет проходить в течение выбранного администратора за эту миграцией, более благоприятной временной интервал в качалке, который будет проходить через угасания VM в центре источника и данных Запуск виртуальной машины в целевом центре данных. В дополнение к освоению триггера можно настроить виртуальную машину (обновление VMware Tools, обновление виртуального оборудования и т.д.) Поскольку все виртуальные машины перемещаются одновременно, растянутая сеть.
Последний способ переключения является разрушительным для производственных машин и поэтому скорее предназначен для миграции шаблонов, архивов, резервных копий. Холодно, VM выключено, и будет просто синхронизировать данные и автоматически переключаться, когда все данные поступают в датацентр назначения.
У нас есть более чем трехлетний опыт безопасной миграции рабочих нагрузок, сначала в центрах обработки данных vCloud Air, а затем в собственных дата-центрах OVH. В течение этого периода мы мигрировали экзабайты данных по всему миру.
HCX — это инструмент, который был предназначен для ответа на несколько проблем, связанных с миграцией, а также обеспечения работы виртуальных машин во время их передачи, необходимости переключения групп виртуальных машин, а также сетевого соединения между различными центрами обработки данных, и мы должны ассоциировать архитектурную работу. Действительно, миграция готовит вверх по течению, с проклейкой достаточно центра обработки данных назначения, которые могут адаптироваться с течением времени на OVH Private Cloud. Также необходимо работать над оценкой времени качания и стратегии качания, связанной с различными рабочими нагрузками источника центра обработки данных. В остальном это всего лишь история нескольких кликов в HCX.
OVH support letsencrypt over the years
Игровые VPS во Франции с защитой от DDoS
Здравствуйте, уважаемые клиенты!
Сегодня была добавлена тарифная линейка виртуальных серверов «FR-GAME».
Основная информация о линейке:
Вы можете ознакомиться с тарифами линейки или перейти в панель управления для заказа виртуальных серверов.
Сегодня была добавлена тарифная линейка виртуальных серверов «FR-GAME».
Основная информация о линейке:
- Локация: Франция/Страсбург
- Датацентр: OVH
- Виртуализация: KVM
- Канал: 100 MBPS/unlim
- FR-GAME-1
- CPU: 1 X 4.0 GHz
- RAM: 1 GB DDR4
- HDD: 20 GB SSD
- Стоимость: 399 ₽
- Заказать
Вы можете ознакомиться с тарифами линейки или перейти в панель управления для заказа виртуальных серверов.
Обзор центров обработки данных 2019 года, шаг 2: Гравелинс, Франция, Западная Европа
Кейп-Норт, для остальной части нашего тура! Мы продолжаем обзор наших инфраструктур с шагом в центре обработки данных Gravelines (GRA). Всего в 60 километрах от штаб-квартиры, это одна из крупнейших команд в отраслевом бизнес-подразделении с 60 сотрудниками на площадке, разделенная на несколько технических команд, обеспечивающих присутствие на месте 24/24, 365 дней в году.
В настоящее время два центра обработки данных Gravelin GRA 1 и GRA 2 могут вмещать более 85 000 серверов.
Площадь общей площади более 9 гектаров, включая 20 000 м 2 зданий, расширилась. Чтобы реагировать на рост и безопасность, на этом участке в этом году есть дополнительная линия высокого напряжения. Электрическая мощность составляет 40 МВт
Новые серверные комнаты помогли удовлетворить спрос на очень сильный рост на этом сайте. В самом сердце Европы GRA 1 и 2 напрямую связаны с Парижем, Лондоном и Брюсселем, что обеспечивает очень высокие латентности производительности в этих городах, где цифровое использование экспоненциально развивается.
Чтобы обеспечить высокую доступность всего сайта, каждый источник питания, помимо избыточности, сбрасывается инверторами. Установка генератора систематически устанавливается параллельно, как показано ниже.
Команды R&D OVH также продолжают внедрять инновации, в частности, для повышения энергоэффективности центров обработки данных. В этом контексте Gravelines скоро получит новые технологические достижения, к которым мы вернемся.
В настоящее время два центра обработки данных Gravelin GRA 1 и GRA 2 могут вмещать более 85 000 серверов.
Площадь общей площади более 9 гектаров, включая 20 000 м 2 зданий, расширилась. Чтобы реагировать на рост и безопасность, на этом участке в этом году есть дополнительная линия высокого напряжения. Электрическая мощность составляет 40 МВт
Новые серверные комнаты помогли удовлетворить спрос на очень сильный рост на этом сайте. В самом сердце Европы GRA 1 и 2 напрямую связаны с Парижем, Лондоном и Брюсселем, что обеспечивает очень высокие латентности производительности в этих городах, где цифровое использование экспоненциально развивается.
Чтобы обеспечить высокую доступность всего сайта, каждый источник питания, помимо избыточности, сбрасывается инверторами. Установка генератора систематически устанавливается параллельно, как показано ниже.
Команды R&D OVH также продолжают внедрять инновации, в частности, для повышения энергоэффективности центров обработки данных. В этом контексте Gravelines скоро получит новые технологические достижения, к которым мы вернемся.
Инженер по надежности сайта (контейнеры) H/F
careers.ovh.com/fr/offres/site-reliability-engineer-containers-hf
Если мы немного разъясним, вот связанные миссии:
- Сократите наши эксплуатационные расходы и автоматизируйте лучшие решения по всем возникающим трудностям и проблемам
- Оцените важность сообщений о проблемах с инфраструктурой OVH
- Предложите и помогите внедрить передовую практику и меры, чтобы инциденты случались только один раз и никогда больше .
- Обеспечение непрерывности обслуживания с обязанностями по вызову (24/7 производственная среда)
- Работа с командами для выявления, устранения узких мест для повышения производительности и сокращения затрат.
- Предоставлять поддержку владельцам приложения, позволяя им защищать свои платформы
- Короче говоря, вы работаете с современными инструментами с открытым исходным кодом, одновременно поддерживая критически важные системы, предлагающие широкий спектр приложений. Мы рассчитываем на то, что вы бросите вызов дизайну, архитектуре и масштабируемости инфраструктуры и сыграете жизненно важную роль в улучшении стабильности наших продуктов и инфраструктуры.
Открытое облако ускоряет скорость до x10 на IOPS
Хорошие новости для всех тех, кто интенсивно использует хранилище в Public Cloud: мы приступили к развертыванию как аппаратных, так и программных оптимизаций, которые позволяют нам в долгосрочной перспективе демонстрировать повышенную производительность на всех экземплярах и регионы. Прирост не является анекдотическим: на примере типа B2-7 мы, например, находимся от 2000 IOPS до 20 000 IOPS, что составляет 10!
Прежде чем вдаваться в подробности этих оптимизаций, немного истории. В самом начале виртуальные машины, размещенные в Public Cloud, были связаны с удаленным хранилищем: это было логическое решение с точки зрения объединения, но латентность сети ограничивала производительность в больших масштабах. Поэтому мы быстро решили переключиться на локальное хранилище, а затем настроили избыточность. С этим локальным SSD RAID мы думали, что достигли очень хорошего уровня производительности.
Однако некоторые клиенты заставили нас вернуться немного по-другому: для них мы представляем лучшее соотношение цены и качества на рынке с точки зрения количества процессоров, пропускной способности и т.д., Но результаты, полученные с использованием особо сложных приложений с точки зрения хранилище запятнало заключительную записку. Вывод был само собой разумеющимся: во времена SSD NVMe некоторые из наших программных решений заслуживают пересмотра.
Найдите правильную комбинацию
В наших тестах был отмечен первый трек оптимизации: Qcow, формат образа диска, используемый для хранения виртуальных машин. Копирования при записи (копировании при записи) имеют много преимуществ в виртуальной среде, но это также означает, что система проверит на физическом диске каждый раз, когда данные записываются или называются, это не пустая трата времени незначителен.
Параллельно речь шла о файловой системе .LVM дал отличные результаты в синтетических тестах, но производительность оказалась менее привлекательной с применением тестов, соответствующих реальности поля: на практике наши клиенты, которые интенсивно используют Redis, MongoDB или Hadoop, не ограничены для выравнивания блоков 4K. Новый эталонный этап был необходим с более представительными инструментами.
Сравнение различных форматов хранения, сравниваемых командой OVH Metrics. В красном: характеристики PCI Raw с io = native на NVME. В оранжевом цвете, полученные с LVM, и в желтом цвете, сделанные с виртуальными машинами перед оптимизацией. Наконец, зелёным, производительность выделенных серверов, которая является стандартной мерой, которую мы пытаемся подойти, «Нижняя лучше».
Как показано в вышеприведенном тесте, результаты, полученные с помощью RAW, оказались очень близкими к результатам выделенных серверов.
В конце этого процесса мы предложили некоторым клиентам проверить правильную комбинацию, а именно переход из Qcow в RAW и файловую систему на основе оптимизированной версии Ext4. Хорошая новость, она единогласна среди первых клиентов-тестировщиков: они измеряют производительность в IOPS до десяти раз выше, как показано на скамьях ниже.
Миграция
Теперь идет вторая фаза: развертывание в больших масштабах, чтобы сделать эти улучшения доступными как можно большему количеству людей. Сайт займет немного времени: требуемое оборудование и его конфигурация требуют действительно последней версии OpenStack, Newton, по которой все наши инфраструктуры постепенно мигрируют. Хорошей новостью является то, что эти оптимизации не влияют на цену или номенклатуру наших экземпляров Public Cloud: они просто интегрированы в существующее предложение. На самом деле, вы даже можете наслаждаться этим!
Если IOPS является критерием выбора для ваших действий в облаке, мы предлагаем вам получить конкретное представление о производительности, предлагаемой несколькими щелчками мыши: вам просто нужно запустить VM B2 (General Purpose), размещенный в регионе GRA5.
А после?
Мы считаем, что интенсивное использование ввода-вывода имеет место в нашем общедоступном облаке. Параллельно с текущей миграцией мы готовим следующий шаг, который еще больше повысит уровень производительности на 10. Не заходя слишком далеко в детали предложения, все еще находящегося на стадии «незавершенного производства», просто представьте, что ваша виртуальная машина когда-нибудь сможет получить доступ в переходе PCI к кластеру SSD NVMe, установленному в соответствии с выбранным вами RAID и выделенным к вашим потребностям…
Прежде чем вдаваться в подробности этих оптимизаций, немного истории. В самом начале виртуальные машины, размещенные в Public Cloud, были связаны с удаленным хранилищем: это было логическое решение с точки зрения объединения, но латентность сети ограничивала производительность в больших масштабах. Поэтому мы быстро решили переключиться на локальное хранилище, а затем настроили избыточность. С этим локальным SSD RAID мы думали, что достигли очень хорошего уровня производительности.
Однако некоторые клиенты заставили нас вернуться немного по-другому: для них мы представляем лучшее соотношение цены и качества на рынке с точки зрения количества процессоров, пропускной способности и т.д., Но результаты, полученные с использованием особо сложных приложений с точки зрения хранилище запятнало заключительную записку. Вывод был само собой разумеющимся: во времена SSD NVMe некоторые из наших программных решений заслуживают пересмотра.
Найдите правильную комбинацию
В наших тестах был отмечен первый трек оптимизации: Qcow, формат образа диска, используемый для хранения виртуальных машин. Копирования при записи (копировании при записи) имеют много преимуществ в виртуальной среде, но это также означает, что система проверит на физическом диске каждый раз, когда данные записываются или называются, это не пустая трата времени незначителен.
Параллельно речь шла о файловой системе .LVM дал отличные результаты в синтетических тестах, но производительность оказалась менее привлекательной с применением тестов, соответствующих реальности поля: на практике наши клиенты, которые интенсивно используют Redis, MongoDB или Hadoop, не ограничены для выравнивания блоков 4K. Новый эталонный этап был необходим с более представительными инструментами.
Сравнение различных форматов хранения, сравниваемых командой OVH Metrics. В красном: характеристики PCI Raw с io = native на NVME. В оранжевом цвете, полученные с LVM, и в желтом цвете, сделанные с виртуальными машинами перед оптимизацией. Наконец, зелёным, производительность выделенных серверов, которая является стандартной мерой, которую мы пытаемся подойти, «Нижняя лучше».
Как показано в вышеприведенном тесте, результаты, полученные с помощью RAW, оказались очень близкими к результатам выделенных серверов.
В конце этого процесса мы предложили некоторым клиентам проверить правильную комбинацию, а именно переход из Qcow в RAW и файловую систему на основе оптимизированной версии Ext4. Хорошая новость, она единогласна среди первых клиентов-тестировщиков: они измеряют производительность в IOPS до десяти раз выше, как показано на скамьях ниже.
Миграция
Теперь идет вторая фаза: развертывание в больших масштабах, чтобы сделать эти улучшения доступными как можно большему количеству людей. Сайт займет немного времени: требуемое оборудование и его конфигурация требуют действительно последней версии OpenStack, Newton, по которой все наши инфраструктуры постепенно мигрируют. Хорошей новостью является то, что эти оптимизации не влияют на цену или номенклатуру наших экземпляров Public Cloud: они просто интегрированы в существующее предложение. На самом деле, вы даже можете наслаждаться этим!
Если IOPS является критерием выбора для ваших действий в облаке, мы предлагаем вам получить конкретное представление о производительности, предлагаемой несколькими щелчками мыши: вам просто нужно запустить VM B2 (General Purpose), размещенный в регионе GRA5.
А после?
Мы считаем, что интенсивное использование ввода-вывода имеет место в нашем общедоступном облаке. Параллельно с текущей миграцией мы готовим следующий шаг, который еще больше повысит уровень производительности на 10. Не заходя слишком далеко в детали предложения, все еще находящегося на стадии «незавершенного производства», просто представьте, что ваша виртуальная машина когда-нибудь сможет получить доступ в переходе PCI к кластеру SSD NVMe, установленному в соответствии с выбранным вами RAID и выделенным к вашим потребностям…
Get your VPS for a bargain price
Повысьте производительность своего сайта или приложения с помощью Virtual Private Server
По мере роста вашего бизнеса неизбежно, что на ваши веб-сайты и приложения будут предъявляться более высокие требования. В OVH мы здесь, чтобы помочь вам справиться с этими задачами, предлагая решения, которые поддерживают ваш постоянный рост. Именно поэтому мы предлагаем виртуальные частные серверы всего за 2,99 евро в месяц.
VPS — идеальное решение для любого бизнеса, который хочет управлять своими хостинговыми решениями управляемым, управляемым способом, без какого-либо ущерба производительности. Через панель управления OVH вы сможете свободно управлять своей хостинговой средой таким образом, который вам больше всего подходит.
www.ovh.ie/vps/vps-ssd.xml
Undergoing a digital transformation with Hosted Private Cloud
OVH and Arcade Beauty
Управляющее резюме
Arcade Beauty Group, созданная в 2014 году, сочетает в себе опыт Arcade Marketing и Bioplan: производственная компания, специализирующаяся на поставках образцов и мини-продуктов для парфюмерных и косметических брендов. Благодаря хорошо зарекомендовавшемуся во всем мире ассортименту образцов, упаковок для парфюма, макияжа и ухода за кожей, монодозовой дозы, компания теперь готова решать проблемы цифровой трансформации.
По мере того, как рынок красоты переходит от массовой выборки к более целенаправленному подходу, Arcade Beauty разрабатывает интеллектуальные решения выборки, которые отвечают требованиям основных косметических брендов. Кроме того, компания предлагает новые решения, которые будут эффективно сочетать цифровые технологии с прямым распределением проб, тем самым обеспечивая лучшую отдачу от инвестиций.
Для достижения этих целей Arcade Beauty решила претерпеть полную трансформацию на уровне инфраструктуры и внедрить M3 Infor: платформу глобального планирования ресурсов предприятия (ERP). Michał Maciejewski и Patrick Zawadzki были достаточно любезны, чтобы сесть с нами, чтобы поговорить о проблемах переноса старых систем европейских сайтов в облако.
Соревнование
Развертывание глобального программного решения для планирования ресурсов предприятия для объединения компании
Благодаря наличию в трех основных регионах Северной Америки, Европы и Бразилии, Arcade Beauty имеет обширную и сложную ИТ-среду, которая обслуживает многие производственные площадки по всему миру. В начале 2017 года европейская инфраструктура была разбросана по разным адресам и провайдерам, включая четыре отдельных службы Active Directory, два локальных центра обработки данных и пять независимых ERP — по одному для каждого промышленного объекта.
С момента слияния в 2014 году Arcade Beauty превратилась в «одну компанию», расширяя глобальное сотрудничество между рассеянными местами. Консолидация и миграция устаревших сред на платформу на основе облачных вычислений и развертывание глобального программного обеспечения ERP явились важными шагами для достижения стандартизации и унификации на предприятии.
Решение бизнес-задач миграции требует тщательного планирования и разработки надлежащей стратегии. Критические проблемы миграции включают в себя минимизацию разрушения основных бизнес-процессов, выбор оптимального времени, а также привлечение и поддержку конечных пользователей на протяжении всего переходного периода.
Для безупречного управления миграцией важно выбрать надежного партнера, который будет предоставлять масштабируемую инфраструктуру в рамках ограниченного бюджета ИТ. Ключевыми требованиями также являются способность поддерживать высокую производительность и доступность платформы, предоставляя компании необходимую поддержку на этапах миграции.
Решение
Локальное частное облако, расширенное с помощью сети, определяемой программным обеспечением, в центре компании
«Arcade Beauty», усталая от поддержания дорогостоящей инфраструктуры на объекте, выбрала инфраструктуру Private Cloud, основанную на технологии VMware, которая является отличительным продуктом портфеля OVH. Высокая пропускная способность, надежность, безопасность и простота управления ресурсами были фундаментальными требованиями для обслуживания важнейших бизнес-приложений в разных географических точках.
Это стоит выбрать Private Cloud, когда мы ожидаем, что услуга опередит потребности бизнеса, чтобы быстро освободить необходимые ресурсы и создать возможности. Мы также ценим надежность, масштабируемость и простоту управления инфраструктурой с помощью Private Cloud, особенно в географически распределенных средахMichał Maciejewski, администратор инфраструктуры ИТ для Европы
Чтобы упростить процесс, OVH предложила Arcady Beauty бесплатное приватное облачное испытание в начале партнерства, что позволило ИТ-команде компании планировать процесс миграции очень подробно. Поскольку устаревшая среда была основана на виртуализации Microsoft Hyper-V, прямая миграция была невозможна. Поэтому Arcade Beauty решила использовать решение Veeam Cloud Connect для перемещения виртуальных машин в новую ИТ-инфраструктуру.
Выбор полностью выделенного оборудования, управляемого OVH, с доступными ресурсами по требованию, позволил Arcade Beauty эффективно планировать пропускную способность и контролировать затраты, сохраняя их в рамках ИТ-бюджета. Уровень виртуализации VMware Private Cloud помогает компании упростить и ускорить развертывание ИТ и оставаться на шаг впереди быстро меняющихся потребностей бизнеса.
Благодаря программной сети (NSX) гибкость ИТ-операций значительно возросла. Раньше расширение сети, создание VLAN или даже развертывание брандмауэра требовало много человеко-часов и километров кабелей с темным волокном. Теперь это занимает всего несколько минут и несколько кликов. Высококачественные компоненты хостов XL + гарантируют вычислительные ресурсы, необходимые для управления всей рабочей нагрузкой компании, при одновременном эффективном запуске десятков виртуальных машин на каждом хосте.
Результат
Одна компания» — Повышенная производительность на всех уровняхMIGR
How to enhance a software-driven communications product using cloud computing
OVH and 3CX
Управляющее резюме
С момента выпуска своего бесплатного продукта IP PBX в 2006 году 3CX выросла, чтобы обслуживать глобальную пользовательскую базу из более чем 50 000 клиентов. С миссией сократить долю на телекоммуникационных счетах до 80%, компания сосредоточила свое внимание на том, чтобы позволить своим клиентам устанавливать, запускать и масштабировать свою единую коммуникационную платформу экономичным способом и без простоя.
Благодаря эффективности и экономичности в качестве основных функций, 3CX адаптировал свой продукт в удобное для пользователя решение, которое обеспечивает альтернативу традиционной модели корпоративной телефонии «на местах». Для сегодняшних предприятий системы связи критически важны и полагаются на высокопроизводительные инфраструктуры. Внедрение Cloud для 3CX стало естественной эволюцией, которая позволяет компаниям легко управлять своей средой и не выходить за рамки своего ИТ-бюджета.
Комбинация облачных технологий OVH, обеспечиваемая пропускной способностью большой пропускной способности, обеспечивает надежную основу для широкомасштабных потребностей в услугах мультимедийных коммуникаций.
Соревнование
Обеспечение быстрой, последовательной многоканальной коммуникации для растущих предприятий.
Цифровые УАТС сильно зависят от быстрой и надежной инфраструктуры. Системы голосовой и видеосвязи, особенно когда группы участвуют, имеют очень низкий уровень допуска к ошибкам сети и задержкам. Это особенно актуально для платформы, которая обслуживает более 190 ГБ ежедневного кэшированного трафика, отличного от CDN.
По мере того, как бизнес растет в голове, важность эффективной коммуникации также значительно возрастает. Дополнительные расширения линий, более сложные потоки вызовов, больше видео трафика, больше журналов вызовов и голосовых сообщений, чтобы назвать несколько. Для 3CX для эффективной обработки более 51 000 еженедельных звонков надежная и масштабируемая инфраструктура имеет решающее значение для качества обслуживания и удовлетворенности клиентов.
Компании, которые предпочитают избегать затрат на управление собственной инфраструктурой, могут опираться на облачную службу, управляемую поставщиком. Это дает 3CX возможность обслуживать клиентов, которые могут быть ограничены более консервативным ИТ-бюджетом. Чтобы управляемое решение оставалось доступным, 3CX требует конкурентного поставщика облачных вычислений, который не ставит под угрозу производительность и надежность.
Решение
Настройка Private Cloud, предназначенная для обеспечения максимальной гибкости в разных местах.
Среди требований к облачной инфраструктуре 3CX нуждалось в самоуправляемом решении с широкополосным доступом в Интернет. Было установлено, что служба Private Cloud, основанная на VMware, предложит необходимую гибкость и позволит 3CX управлять всеми своими услугами с одного места.
Теперь наша ИТ-команда способна управлять всеми нашими ИТ-услугами по фиксированному бюджету. Когда возникнет такая необходимость, мы можем легко реагировать на растущий спрос и вносить необходимые изменения в любое времяСтефан Вальтер, руководитель службы поддержки и поддержки клиентов
Инфраструктура 3CX состоит из двух сред в географически разделенных центрах обработки данных: одна в Европе, а другая в Канаде. Обе среды работают на оборудовании Dedicated Cloud для непрерывной надежной работы с выделенными ресурсами. Продукт PBX Express компании, который позволяет клиентам 3CX легко развертывать облачную PBX-систему, работает на двух экземплярах Public Cloud, а OpenStack OS управляет пулом ресурсов.
Ссылка vRack объединяет серверы в обоих центрах обработки данных в одной виртуальной локальной сети, чтобы гарантировать, что все частные трафики между двумя регионами остаются безопасными. Эксклюзив для клиентов OVH, vRack позволяет 3CX обеспечить непрерывность обслуживания для своих клиентов посредством избыточного подключения к сети с низкой задержкой OVH.
Результат
Ведущий путь в облачных коммуникациях.
Это решение позволяет 3CX предлагать платформу коммуникаций с облачной платформой для клиентов, которые могут не иметь опыта или ресурсов для управления внутренней АТС. С более чем 50 000 клиентов (среди которых мы находим American Express, Intercontinental, Mitsubishi Motors) и 10 000 реселлеров по всему миру, 3CX имеет ежегодный прирост в 40%.
Используя публичное облако OVH для включения средств настройки продукта PBX Express, клиенты 3CX могут установить полную систему PBX на серверы своего предпочтительного поставщика облачных вычислений. OVH Private Cloud обеспечивает рабочую платформу, через которую 3CX может запускать и управлять своими веб-сервисами, хранилищем, управлением данными и всеми критическими системами, которые лежат в основе их каталога средств связи.
Сервер 3CX и сетевая инфраструктура являются важным фактором качества их услуг, а также их непрерывного расширения.
В последние годы спрос на что-либо в облаке, а не только на АТС, быстро растет. Мы увидели это изменение и предсказали, что оно будет применяться к нашей отрасли, и мы ответили соответственно, чтобы обслуживать облачный рынокСтефан Вальтер, руководитель службы поддержки и поддержки клиентов