Партнерство с Intel и SAP на постоянной памяти Intel Optane DC для SAP HANA

Нан Боден, старший директор, Глобальные технологические партнерства, Google Cloud и Parthasarathy Ranganathan, заслуженный инженер

Наши клиенты делают необычные вещи своими данными. Но по мере роста их данных они сталкиваются с такими проблемами, как стоимость ресурсов, необходимых для их обработки и хранения, а также общие ограничения по размеру при низкой рабочей нагрузке в памяти.

Использование нашими клиентами рабочих нагрузок в памяти с помощью SAP HANA для использования в новых случаях использования данных приводит к увеличению емкости памяти. Мы постоянно подталкиваем границы размеров экземпляров GCP и исследуем все более рентабельные способы выполнения рабочих нагрузок SAP на GCP.

Сегодня мы объявляем о партнерстве с Intel и SAP для предоставления виртуальных машин GCP, поддерживающих предстоящую постоянную память Intel® Optane ™ DC Persistent Memory для рабочих нагрузок SAP HANA. Эти виртуальные машины GCP будут оснащены будущими процессорами Intel® Xeon® Scalable (под кодовым названием Cascade Lake), тем самым расширяя размер ресурсов VM и предоставляя преимущества для клиентов.

Compute Engine VM с постоянной памятью Intel Optane DC обеспечит более высокую общую емкость памяти с более низкой стоимостью по сравнению с экземплярами только с динамической оперативной памятью (DRAM). Это поможет вам расширить масштабы ваших экземпляров, одновременно контролируя затраты. Compute Engine постоянно фокусировался на сокращении ваших служебных накладных расходов за счет таких возможностей, как Live Migration. В сочетании с преимуществами постоянной стойкости Intel Optane DC Persistent Memory вы получите более быстрое время перезагрузки для наиболее важных бизнес-приложений.

Экземпляры Google Cloud в постоянной памяти Intel Optane DC для SAP HANA и другие рабочие нагрузки будут доступны в альфа в этом году для тестирования клиентов. Чтобы узнать больше, заполните эту форму, чтобы зарегистрировать свой интерес.

Чтобы узнать больше об этом партнерстве, посетите наши страницы партнерства Intel и SAP.
cloud.google.com/intel/
cloud.google.com/sap

Новые домены — новые возможности для вашего бизнеса


Что такое домен и почему его выбор так важен?
Домен — имя вашего сайта. В современном мире адреса ресурсов выполняют роль вывесок магазинов. Они могут как привлечь потенциальных клиентов, так и отпугнуть их. Запомнят ли посетители ваш сайт или быстро закроют вкладку — это зависит от многих факторов, в том числе от выбранного веб-адреса.

www.reg.ru/domain/new/

Новые SSL-сертификаты от Certum: надежно и выгодно


Вас приветствует компания .masterhost!

Рады представить новую линейку SSL-сертификатов от нашего официального партнёра, центра Certum. С их помощью Вы легко подтвердите надежность Вашего проекта прямо в браузере.

С SSL-сертификатами от Certum Вы сможете не только защитить аудиторию сайтов от мошенничества, но и продвинуть свои ресурсы в Сети: проекты, использующие HTTPS-соединение, поднимаются выше в результатах поиска и маркируются как надежные.

Не дайте отсутствию сертификата негативно сказаться на доверии посетителей к Вашему сайту, выберите подходящий для себя SSL-сертификат прямо сейчас:

masterhost.ru/service/ssl/CertumCommercialSSL/
masterhost.ru/service/ssl/CertumCommercial_Wildcard/

Даунтайм 20 июля из-за проблемы с платформами Intel


В эту пятницу, 20 июля, мы снова столкнулись с проблемами на платформах Intel. Во время сбоя система управления питанием «обнаруживает» несуществующий перегрев и переводит сервер в экономный режим. В этом режиме у процессора остается активным только одно ядро, и его частота снижается до 1,5 ГГц. По сравнению с нормальными 10 ядер по 2,4 ГГц (24 ГГц) можно сказать, что сервер и вовсе не работает.

Аналогичный случай произошел 7 января. После него специалист Intel установил патчи на каждый родительский сервер, в котором установлена подверженная проблеме платформа. В этот раз пострадали другие, более новые платформы. Оказались затронуты виртуальные серверы на тарифах Атлант, Форсаж и на стандартных тарифах KVM с дисками NVMe и SSD.

Хронология событий:
  • Примерно в 13:00 МСК — возникновение проблемы, снижение производительности
  • 13:25 первый сигнал от систем мониторинга — из-за провала в производительности стали отказывать клиентские сервисы.
  • Сразу же после этого приступили к восстановлению — уже знали, в чем проблема и как её решить. Начали работы с Атлантов.
  • 13:46 Все системы Атлантов вернулись в строй. Приступили к восстановлению других услуг.
  • 14:48 Все затронутые серверы работают в штатном режиме.
  • Ошибка проявилась на 28-ми родительских серверах. Каждый из них приходилось выключать через консоль, находить в дата-центре и обесточивать физически, а потом запитывать заново и включать. Только после этого запускаются виртуальные машины, что тоже происходит не мгновенно. Поэтому потребовалось столько времени.

Нам очень жаль, что клиентам пришлось столкнуться с недоступностью серверов. Intel уже разработали патч для пострадавших платформ. Как только подготовим родительские серверы, пригласим специалиста Intel для обновления. Все новые серверы поставляются уже с патчем от этой проблемы.

Tokyo connectivity upgrade, 50% off till end of July



Connectivity upgraded in Tokyo, Japan
Firstly, many thanks for your feedback on our new Tokyo location!

All feedback is welcomed and useful, and thanks to your responses we have been able to identify and address routing issues to certain parts of the globe from our new Tokyo location.

The site has been upgraded as a result, and now has higher throughput and lower latency to a large portion of the world! In celebration of this we are extending our June promotion till the end of July, get your even faster Tokyo Resource now!

To take advantage of this special deal, either enter offer code: JP2018 before purchasing or click the designated link below.
https://manage.dediserve.com/cart/

Графические процессоры в решении современных IT-задач



Графические процессоры (graphics processing unit, GPU) — яркий пример того, как технология, спроектированная для задач графической обработки, распространилась на несвязанную область высокопроизводительных вычислений. Современные GPU являются сердцем множества сложнейших проектов в сфере машинного обучения и анализа данных. В нашей обзорной статье мы расскажем, как клиенты Selectel используют оборудование с GPU, и подумаем о будущем науки о данных и вычислительных устройств вместе с преподавателями Школы анализа данных Яндекс.

Графические процессоры за последние десять лет сильно изменились. Помимо колоссального прироста производительности, произошло разделение устройств по типу использования. Так, в отдельное направление выделяются видеокарты для домашних игровых систем и установок виртуальной реальности. Появляются мощные узкоспециализированные устройства: для серверных систем одним из ведущих ускорителей является NVIDIA Tesla P100, разработанный именно для промышленного использования в дата-центрах. Помимо GPU активно ведутся исследования в сфере создания нового типа процессоров, имитирующих работу головного мозга. Примером может служить однокристальная платформа Kirin 970 с собственным нейроморфным процессором для задач, связанных с нейронными сетями и распознаванием образов.

Подобная ситуация заставляет задуматься над следующими вопросами:
  • Почему сфера анализа данных и машинного обучения стала такой популярной?
  • Как графические процессоры стали доминировать на рынке оборудования для интенсивной работы с данными?
  • Какие исследования в области анализа данных будут наиболее перспективными в ближайшем будущем?

Попробуем разобраться с этими вопросами по порядку, начиная с первых простых видеопроцессоров и заканчивая современными высокопроизводительными устройствами.

Эпоха GPU
Для начала вспомним, что же такое GPU. Graphics Processing Unit — это графический процессор широко используемый в настольных и серверных системах. Отличительной особенностью этого устройства является ориентированность на массовые параллельные вычисления. В отличие от графических процессоров архитектура другого вычислительного модуля CPU (Central Processor Unit) предназначена для последовательной обработки данных. Если количество ядер в обычном CPU измеряется десятками, то в GPU их счет идет на тысячи, что накладывает ограничения на типы выполняемых команд, однако обеспечивает высокую вычислительную производительность в задачах, включающих параллелизм.

Первые шаги
Развитие видеопроцессоров на ранних этапах было тесно связано с нарастающей потребностью в отдельном вычислительном устройстве для обработки двух и трехмерной графики. До появления отдельных схем видеоконтроллеров в 70-х годах вывод изображения осуществлялся через использование дискретной логики, что сказывалось на увеличенном энергопотреблении и больших размерах печатных плат. Специализированные микросхемы позволили выделить разработку устройств, предназначенных для работы с графикой, в отдельное направление.

Следующим революционным событием стало появление нового класса более сложных и многофункциональных устройств — видеопроцессоров. В 1996 году компания 3dfx Interactive выпустила чипсет Voodoo Graphics, который быстро занял 85% рынка специализированных видеоустройств и стал лидером в области 3D графики того времени. После серии неудачных решений менеджмента компании, среди которых была покупка производителя видеокарт STB, 3dfx уступила первенство NVIDIA и ATI (позднее AMD), а в 2002 объявила о своем банкротстве.

Общие вычисления на GPU
В 2006 году NVIDIA объявила о выпуске линейки продуктов GeForce 8 series, которая положила начало новому классу устройств, предназначенных для общих вычислений на графических процессорах (GPGPU). В ходе разработки NVIDIA пришла к пониманию, что большее число ядер, работающих на меньшей частоте, более эффективны для параллельных нагрузок, чем малое число более производительных ядер. Видеопроцессоры нового поколения обеспечили поддержку параллельных вычислений не только для обработки видеопотоков, но также для проблем, связанных с машинным обучением, линейной алгеброй, статистикой и другими научными или коммерческими задачами.


Признанный лидер
Различия в изначальной постановке задач перед CPU и GPU привели к значительным расхождениям в архитектуре устройств — высокая частота против многоядерности. Для графических процессоров это заложило вычислительный потенциал, который в полной мере реализуется в настоящее время. Видеопроцессоры с внушительным количеством более слабых вычислительных ядер отлично справляются с параллельными вычислениями. Центральный же процессор, исторически спроектированный для работы с последовательными задачами, остается лучшим в своей области.

Для примера сравним значения в производительности центрального и графического процессора на выполнении распространенной задачи в нейронных сетях — перемножении матриц высокого порядка. Выберем следующие устройства для тестирования:
  • CPU. Intel Xeon E5-2680 v4 — 28 потоков с HyperThreading, 2.4 GHZ;
  • GPU. NVIDIA GTX 1080 — 2560 CUDA Cores, 1607 Mhz, 8GB GDDR5X.
Используем пример вычисления перемножения матриц на CPU и GPU в Jupyter Notebook:


В коде выше мы измеряем время, которое потребовалось на вычисление матриц одинакового порядка на центральном или графическом процессоре («Время выполнения»). Данные можно представить в виде графика, на котором горизонтальная ось отображает порядок перемножаемых матриц, а вертикальная — Время выполнения в секундах:


Линия графика, выделенная оранжевым, показывает время, которое требуется для создания данных в обычном ОЗУ, передачу их в память GPU и последующие вычисления. Зеленая линия показывает время, которое требуется на вычисление данных, которые были сгенерированы уже в памяти видеокарты (без передачи из ОЗУ). Синяя отображает время подсчета на центральном процессоре. Матрицы порядка менее 1000 элементов перемножаются на GPU и CPU почти за одинаковое время. Разница в производительности хорошо проявляется с матрицами размерами более 2000 на 2000, когда время вычислений на CPU подскакивает до 1 секунды, а GPU остается близким к нулю.

Более сложные и практические задачи эффективнее решаются на устройстве с графическими процессорами, чем без них. Поскольку проблемы, которые решают наши клиенты на оборудовании с GPU, очень разнообразны, мы решили выяснить, какие самые популярные сценарии использования существуют.

Кому в Selectel жить хорошо с GPU?
Первый вариант, который сразу приходит на ум и оказывается правильной догадкой — это майнинг, однако любопытно отметить, что некоторые применяют его как вспомогательный способ загрузить оборудование на «максимум». В случае аренды выделенного сервера с видеокартами, время свободное от рабочих нагрузок используется для добычи криптовалют, не требующих специализированных установок (ферм) для своего получения.

Ставшие уже в какой-то степени классическими, задачи, связанные с графической обработкой и рендерингом, неизменно находят свое место на серверах Selectel с графическими ускорителями. Использование высокопроизводительного оборудования для таких задач позволяет получить более эффективное решение, чем организация выделенных рабочих мест с видеокартами.

В ходе разговора с нашими клиентами мы также познакомились с представителями Школы анализа данных Яндекс, которая использует мощности Selectel для организации тестовых учебных сред. Мы решили узнать побольше о том, чем занимаются студенты и преподаватели, какие направления машинного обучения сейчас популярны и какое будущее ожидает индустрию, после того как молодые специалисты пополнят ряды сотрудников ведущих организаций или запустят свои стартапы.

Наука о данных
Пожалуй, среди наших читателей не найдется тех, кто не слышал бы словосочетания «нейронные сети» или «машинное обучение». Отбросив маркетинговые вариации на тему этих слов, получается сухой остаток в виде зарождающейся и перспективной науки о данных.

Современный подход к работе с данными включает в себя несколько основных направлений:
  • Большие данные (Big Data). Основная проблема в данной сфере — колоссальный объем информации, который не может быть обработан на единственном сервере. С точки зрения инфраструктурного обеспечения, требуется решать задачи создания кластерных систем, масштабируемости, отказоустойчивости, и распределенного хранения данных;
  • Ресурсоемкие задачи (Машинное обучение, глубокое обучение и другие). В этом случае поднимается вопрос использования высокопроизводительных вычислений, требующих большого количества ОЗУ и процессорных ресурсов. В таких задачах активно используются системы с графическими ускорителями.
Граница между данными направления постепенно стирается: основные инструменты для работы с большими данным (Hadoop, Spark) внедряют поддержку вычислений на GPU, а задачи машинного обучения охватывают новые сферы и требуют бо́льших объемов данных. Разобраться подробнее нам помогут преподаватели и студенты Школы анализа данных.



Трудно переоценить важность грамотной работы с данными и уместного внедрения продвинутых аналитических инструментов. Речь идёт даже не о больших данных, их «озерах» или «реках», а именно об интеллектуальном взаимодействии с информацией. Происходящее сейчас представляет собой уникальную ситуацию: мы можем собирать самую разнообразную информацию и использовать продвинутые инструменты и сервисы для глубокого анализа. Бизнес внедряет подобные технологии не только для получения продвинутой аналитики, но и для создания уникального продукта в любой отрасли. Именно последний пункт во многом формирует и стимулирует рост индустрии анализа данных.

Новое направление
Повсюду нас окружает информация: от логов интернет-компаний и банковских операций до показаний в экспериментах на Большом адронном коллайдере. Умение работать с этими данными может принести миллионные прибыли и дать ответы на фундаментальные вопросы о строении Вселенной. Поэтому анализ данных стал отдельным направлением исследований среди бизнес и научного сообщества.

Школа анализа данных готовит лучших профильных специалистов и ученых, которые в будущем станут основным источником научных и индустриальных разработок в данной сфере. Развитие отрасли сказывается и на нас как на инфраструктурном провайдере — все больше клиентов запрашивают конфигурации серверов для задач анализа данных.

От специфики задач, стоящих перед нашими клиентами, зависит то, какое оборудование мы должны предлагать заказчикам и в каком направлении следует развивать нашу продуктовую линейку. Совместно со Станиславом Федотовым и Олегом Ивченко мы опросили студентов и преподавателей Школы анализа данных и выяснили, какие технологии они используют для решения практических задач.


Технологии анализа данных
За время обучения слушатели от основ (базовой высшей математики, алгоритмов и программирования) доходят до самых передовых областей машинного обучения. Мы собирали информацию по тем, в которых используются серверы с GPU:
  • Глубинное обучение;
  • Обучение с подкреплением;
  • Компьютерное зрение;
  • Автоматическая обработка текстов.
Студенты используют специализированные инструменты в своих учебных заданиях и исследованиях. Некоторые библиотеки предназначены для приведения данных к необходимому виду, другие предназначены для работы с конкретным типом информации, например, текстом или изображениями. Глубинное обучение — одна из самых сложных областей в анализе данных, которая активно использует нейронные сети. Мы решили узнать, какие именно фреймворки преподаватели и студенты применяют для работы с нейронными сетями.



Представленные инструменты обладают разной поддержкой от создателей, но тем не менее, продолжают активно использоваться в учебных и рабочих целях. Многие из них требуют производительного оборудования для обработки задач в адекватные сроки.

Дальнейшее развитие и проекты
Как и любая наука, направление анализа данных будет изменяться. Опыт, который получают студенты сегодня, несомненно войдет в основу будущих разработок. Поэтому отдельно стоит отметить высокую практическую направленность программы — некоторые студенты во время учебы или после начинают стажироваться в Яндексе и применять свои знания уже на реальных сервисах и службах (поиск, компьютерное зрение, распознавание речи и другие).

О будущем анализа данных мы поговорили с преподавателями Школы анализа данных, которые поделились с нами своим видением развития науки о данных.

По мнению Влада Шахуро, преподавателя курса «Анализ изображений и видео», самые интересные задачи в компьютерном зрении — обеспечение безопасности в местах массового скопления людей, управление беспилотным автомобилем и создание приложение с использованием дополненной реальности. Для решения этих задач необходимо уметь качественно анализировать видеоданные и развивать в первую очередь алгоритмы детектирования и слежения за объектами, распознавания человека по лицу и трехмерной реконструкции наблюдаемой сцены. Преподаватель Виктор Лемпицкий, ведущий курс «Глубинное обучение», отдельно выделяет в своем направлении автокодировщики, а также генеративные и состязательные сети.

Один из наставников Школы анализа данных делится своим мнением касательно распространения и начала массового использования машинного обучения:
Машинное обучение из удела немногих одержимых исследователей превращается в ещё один инструмент рядового разработчика. Раньше (например в 2012) люди писали низкоуровневый код для обучения сверточных сетей на паре видеокарт. Сейчас, кто угодно может за считанные часы
  • скачать веса уже обученной нейросети (например, в keras);
  • сделать с ее помощью решение для своей задачи (fine-tuning, zero-shot learning);
  • встроить её в свой веб-сайт или мобильное приложение (tensorflow / caffe 2).
Многие большие компании и стартапы уже выиграли на такой стратегии (например, Prisma), но еще больше задач только предстоит открыть и решить. И, быть может, вся эта история с машинным/глубинным обучением когда-нибудь станет такой же обыденностью, как сейчас python или excel»

Точно предсказать технологию будущего сегодня не сможет никто, но когда есть определенный вектор движения можно понимать, что следует изучать уже сейчас. А возможностей для этого в современном мире — огромное множество.

Возможности для новичков
Изучение анализа данных ограничивается высокими требованиями к обучающимся: обширные познания в области математики и алгоритмики, умение программировать. По-настоящему серьезные задачи машинного обучения требуют уже наличия специализированного оборудования. А для желающих побольше узнать о теоретической составляющей науки о данных Школой анализа данных совместно с Высшей Школой Экономики был запущен онлайн курс «Введение в машинное обучение».

Вместо заключения
Рост рынка графических процессоров обеспечивается возрастающим интересом к возможностям таких устройств. GPU применяется в домашних игровых системах, задачах рендеринга и видеообработки, а также там, где требуются общие высокопроизводительные вычисления. Практическое применение задач интеллектуального анализа данных будет проникать все глубже в нашу повседневную жизнь. И выполнение подобных программ наиболее эффективно осуществляется именно с помощью GPU.

Мы благодарим наших клиентов, а также преподавателей и студентов Школы анализа данных за совместную подготовку материала, и приглашаем наших читателей познакомиться с ними поближе.

А опытным и искушенным в сфере машинного обучения, анализа данных и не только мы предлагаем посмотреть предложения от Selectel по аренде серверного оборудования с графическми ускорителями: от простых GTX 1080 до Tesla P100 и K80 для самых требовательных задач.

Резервное копирование c помощью инструментов Veeam



Используйте возможности Veeam Backup&Replication для резервного копирования и восстановления виртуальных машин VMware, а также храните бэкапы в «Облачном репозитории Veeam Cloud Connect».

На сегодняшний день ни одна компания не пренебрегает бэкапами. Вирусы-шифровальщики, ошибки программного обеспечения, физическое повреждение или изъятие носителей информации могут стать причинами потери данных, без которых функционирование бизнеса затрудняется или даже приостанавливается. И, конечно, не стоит забывать про человеческий фактор — любой сотрудник может случайно удалить как простой документ, так и целую базу данных.

С развитием технологий акцент сценариев использования резервного копирования сместился от обеспечения надежного хранения данных к обеспечению непрерывности бизнеса.

Пару месяцев назад мы рассказывали о запуске в Selectel публичного облака на базе VMware. В июне мы запустили две новые услуги, отлично его дополняющие:

Резервное копирование как сервис
Вместе с повышением требований к непрерывности работы растет и объем хранимых данных, что становится проблемой для IT-инфраструктуры бизнеса. Чем больше бизнес зависит от IT-систем, тем большие убытки он понесет в случае потери данных и простоя, пока идет восстановление работоспособности.

Раньше единственной страховкой от «несчастных случаев» потери данных было использование и поддержание СХД (систем хранения данных): от покупки актуальных версий ПО до расширения штата системных администраторов.

Сегодня достаточно соблюдать ряд правил, благодаря которым бэкапы всегда будут своевременными, а заботу об инфраструктуре можно передать сервис-провайдеру.

Правила хорошего бэкапа
Возможность оперативно восстанавливать утраченные данные спасает часы и дни работы. Если же в это верится с трудом, прочитайте почти хрестоматийную историю Pixar.

Для предотвращения потери данных рекомендуется придерживаться следующих правил:

Автоматическое резервное копирование
Бэкап должен выполняться автоматически согласно установленному расписанию.
Обязательно проводите резервное копирование перед установкой нового ПО, модернизацией аппаратного обеспечения и при переносе данных.

Тестовое восстановление данных
Тестовое восстановление данных из бэкапа должно проводиться регулярно.
Каким бы надежным ни было ПО для резервного копирования, всегда остается вероятность ошибки, из-за которой восстановиться не получится. Частота тестового восстановления зависит от критичности данных, которые необходимо бэкапить.

Избавление от дублей
Устранение дубликатов должно проводиться для оптимизации пространства, занимаемого хранящимися резервными копиями.
Устранение дубликатов позволяет копировать только уникальные фрагменты данных (причем только один раз) и оптимизирует использование дискового пространства в СХД.

Правило «3-2-1»
  1. Иметь по меньшей мере три копии данных.
  2. Хранить копии на двух разных носителях.
  3. Хранить одну резервную копию на удаленной площадке.
Подробно об этом правиле еще в 2013 году рассказывали наши партнеры из Veeam.

Veeam Backup для облака на базе VMware
Первым делом мы запустили услугу резервного копирования для нашего облака на базе VMware на базе инструментария Veeam — признанного пионера и лидера в сегменте резервного копирования для виртуальных сред.

Veeam интегрирован с VMware, что позволяет удобно и быстро делать резервные копии без установки дополнительных агентов.

Наше решение представлено на схеме:

Подробнее о работе с нашей услугой читайте в базе знаний.

Возможности
  • Создание заданий на резервное копирование и восстановление доступно из консоли Veeam Backup Enterprise Manager.
  • Резервное копирование на уровне образа виртуальных машин (далее ВМ) с учетом состояния приложений.
  • Упрощенное резервное копирование работающих ВМ для архивирования.
  • Быстрое инкрементное копирование отдельных ВМ с помощью уже существующего задания резервного копирования.
  • Восстановление ВМ или vApp целиком.
  • Восстановление файлов и отдельных дисков.
  • Восстановление объектов приложений (SQL Server, Oracle).


Преимущества
  • Снижение RTO и RPO (допустимое время простоя сервиса в случае сбоя и допустимый объем возможных потерь данных в случае сбоя) за счет обеспечения высокой скорости восстановления и минимизации потерь данных в случае сбоя.
  • Уменьшение капитальных затрат на оборудование и его эксплуатацию ― все данные хранятся в облаке.
  • Снижение затрат на ПО — оплачиваются только необходимые ресурсы.



Облачный репозиторий Veeam Cloud Connect
Для клиентов, использующих Veeam on-premise в своей инфраструктуре, подойдет услуга хранения бэкапов в Облачном репозитории Selectel.

Примечание: решение подходит для клиентов, использующих Veeam Backup & Replication версии 9.5 и выше и Veeam Agent 2.0 и выше.

Наше решение работает следующим образом:

Подробнее о работе с нашей услугой читайте в базе знаний.

Преимущества
  • Отсутствие капитальных затрат, связанных с созданием собственной удаленной площадки.
  • Безопасность — все данные шифруются на стороне клиента.
  • Высокая надежность — Veeam Cloud Connect согласуется с правилом «3-2-1».
Более того, мы храним каждый бэкап в трех копиях на разных физических дисках!



Дальнейшие планы
Конечно, услугой резервного копирования для VMware мы не ограничимся.

Veeam позволяет проводить множество полезных операций:
  • миграция инфраструктуры VMware,
  • DRaaS — сервис аварийного восстановления инфраструктуры клиента,
  • бэкапы физических машин.
Кстати, за последние пару лет в Veeam очень сильно продвинулись в сфере резервного копирования физической инфраструктуры, и мы уже работаем над запуском услуги резервного копирования для выделенных серверов. Следите за новостями!
selectel.ru/services/additional/veeam-backups/
my.selectel.ru/

Плановые работы: 24 июля 2018 года

24 июля 2018 года, с 11:30-12:00 пройдут плановые работы по обновлению программного обеспечения. Возможные перебои в работе ресурсов в течении 3-5 минут.
Для KVM VPS полная перезагрузка в связи с обновлением ядер.

Почему OVH становится OVHcloud?



В течение 2016 года я осознал сложность предложения очень широкого спектра продуктов под одной торговой маркой. Действительно, в OVH мы предлагаем, например, доменные имена и веб-хостинг для веб-мастеров и цифровых агентств, а также выделенные серверы для системных администраторов, Public Cloud для разработчиков или Cloud Hybrid для разработчиков. компании. В целом, OVH предлагает 25 продуктовых линий, более 92 коммерческих предложений с более чем 1000 коммерческих ссылок, которые используются 1,4 миллионами клиентов в 138 странах мира. Для этого разнообразия продуктов мы должны добавить сложность единой поддержки клиентов по телефону и электронной почте на нескольких языках.

В 2017 году мы работали над разъяснением того, что мы хотим предложить всем нашим клиентам, партнерам и интеграторам. Именно поэтому на Саммите 2017 я объявил о создании 3 суб-брендов: OVHmarket, OVHspirit и OVHenterprise.

Теперь мы будем говорить о OVHcloud коммерчески, что помогает лучше понять, что такое наш бизнес. OVHcloud соберет 3 суб-бренда OVHmarket, OVHspirit и OVHenterprise. Таким образом, мы будем общаться через один и тот же бренд OVHcloud и с теми же продуктами по всему миру. Это амбициозный выбор и эмоционально очень сложный. Мы много думали, и у нас было несколько колебаний. После 20 лет, я думаю, что, чтобы дать глобальный масштаб, OVH должен частично изменить свое название, именно по этой цене мы предоставим все возможности для того, чтобы стать действительно глобальной компанией, стремящейся обеспечить все его услуги по всему миру.

OVHmarket
Подмаркет OVHmarket, доступный только в Европе, объединяет продукты для МСП, SMI, TPI и подрядчиков, чтобы помочь им использовать цифровые технологии. Здесь мы находим все продукты доступа в Интернет, ADSL, SDSL, оптоволокно для бизнеса, IP-телефонию с арендой или покупкой предварительно настроенных телефонов Plug & Phone, более 100 расширений имени домены, службы DNS, почтовые службы и обмен, WebHosting или CloudWeb.

Помимо продуктов, которые мы создаем и управляем самостоятельно, мы работаем над интеграцией двух типов продуктов от наших партнеров:
  • внешние продукты, которые позволяют, например, цифровой биллинг, управление взаимоотношениями с клиентами (CRM), цифровой маркетинг и т. д. чтобы наши клиенты могли использовать все свои базы данных;
  • продукты управления услугами, предлагать такие продукты, как помощь в настройке Exchange, настройка WordPress или обновление Prestashop через нашу сеть партнеров.
OVHmarket наследует наш бесплатный номер 1007. Сегодня, доступный напрямую всем, 1 из 4 звонков не имеет ничего общего с продуктами, которые мы предлагаем! Это увеличивает время ожидания. Вот почему мы будем постепенно рассматривать отношения с клиентами на OVHmarket, продолжая предлагать бесплатный звонок. В будущем часть поддержки будет оказываться нашими партнерами через платные услуги (я буду развивать более подробно OVHmarket в будущем блоге).

OVHspirit
OVHspirit — это историческое сердце нашего бизнеса. Мы известны тем, что предлагаем непревзойденные предложения по соотношению цена / производительность. OVHspirit позволит нам продолжать выступать на этом рынке в Европе и США. Он включает в себя все облачные продукты, такие как выделенные серверы, VPS или выделенное облако для системных администраторов. Здесь мы хотим предложить все предложения Kimsufi и SoYouStart.

С OVHspirit мы хотим быть более агрессивными с точки зрения цены. Цель: предложить клиентам наиболее «чувствительную к цене» возможность платить только то, что им нужно, четко объясняя объем и пределы предлагаемой услуги. С 28 центрами обработки данных в 12 точках в Европе, США, Канаде и Азии мы стремимся предлагать ряд серверов VPS и Dedicated Cloud по самой привлекательной цене, доступной на местном уровне, независимо от того, где в мире являются нашими центрами обработки данных. Например, играя в моменты доступности, мы сможем снизить цены примерно на 4%, плюс 5%.

Клиенты OVHspirit являются техническими экспертами в своих областях. Они не обращаются в службу поддержки, чтобы понять продукт или помочь им использовать Linux, но они ищут очень быструю поддержку в случае инцидента, не более того. При всей прозрачности каждый может скорректировать уровень поддержки, который он хочет извлечь, чтобы заплатить только то, что ему подходит лучше всего (я буду развиваться более подробно OVHspirit в будущем блоге).

OVHenterprise
Мы хотим предложить бескомпромиссное обслуживание для клиентов, которые ищут качество, прежде всего, и для которых цена не является самым важным критерием. Для них мы разработали в 2006 году первое предложение выделенных серверов HG. Затем в 2013 году мы создали выделенное облако на основе vSphere как службы.

В настоящее время мы работаем над предложением Public Cloud для OVHentreprise. С переносом всех наших API-интерфейсов в API OpenStack наше Public Cloud будет соответствовать рыночным стандартам и позволит нашим клиентам использовать Terraform, Ansible и т. Д. с кодом с открытым исходным кодом экосистемы. Используя все эти стандартные API внутри, и благодаря принципу микросервиса, мы ускоряем время инноваций (я буду говорить более широко в блоге).

Чтобы продолжить качество, мы внедрили новый стандарт, включающий сертификаты ISO27000, PCI-DSS, SecNumCloud и т. Д. Чтобы предложить частное облако для всех критических миссий компании, клиент полностью изолирован от всех остальных и может попросить нас развернуть все облачные сервисы в этой полностью частной среде.

В OVHentreprise мы хотим поддержать клиента с 3 уровнями поддержки:
  • включенная в цену, первая позволяет иметь случайную поддержку, которая фиксирует проблемы с очень быстрым временем отклика, мы не будем предлагать здесь советы по использованию наших продуктов;
  • второй уровень обеспечивает доступ к консультационной поддержке при многопользовательском использовании и поддержке инцидентов для решений, которые по определению намного сложнее контролировать и поддерживать;
  • третий уровень поддержки предназначен для компаний, которые используют продукты и решения OVHentreprise посредством конкурсов, требующих конкретной поддержки на ежедневной основе. Это зачастую очень сложные инфраструктуры, Hybrid Cloud, между центрами обработки данных клиентов, OVH и иногда предложениями наших конкурентов. (Я буду развивать OVHenterprise больше в будущем блоге)

Все эти 3 суб-бренды поступят в ближайшие месяцы на наших сайтах в Европе, Канаде и США. Чтобы избежать путаницы, мы решили постепенно перенести все сайты OVH на один веб-сайт. Отныне все предложения будут на OVHcloud.com, а также в Европе, Канаде и США. Мы будем действовать и думать в компании мирового класса, чтобы сделать OVH уникальным, быть на вершине во всех областях и показать нам при любых обстоятельствах высоту наших обязательств и нашей ответственности. Мы хотим стать альтернативным технологическим гигантом.