Harness the power of the OVH cloud for FY19

OVH развернула, эксплуатировала и поддерживала собственную волоконно-оптическую сеть с 2006 года. Она объединяет 32 точки присутствия (PoP) по всему миру. Как эта инфраструктура приносит пользу нашим клиентам? Почему мы должны постоянно развивать его? А что означает «пропускная способность сети»? Читай дальше что бы узнать.



Что означает «пропускная способность сети»?
Все наши 28 центров обработки данных подключены к Интернету через магистраль ОВЧ. Под этим мы подразумеваем нашу собственную сеть, управляемую нашими собственными командами. Эта сеть охватывает 32 точки присутствия (PoP), которые связаны друг с другом через волоконно-оптические кабели.

Каждый PoP действует как пересечение шоссе между OVH и другими провайдерами. К ним могут относиться провайдеры интернет-услуг, облачные провайдеры и операторы связи. Когда мы говорим о пропускной способности сети, мы имеем в виду общую емкость всех этих «пересечений». И это то, что достигло 15 Тбит / с.

Наличие нашей собственной сети является основным преимуществом в нашем бизнесе. Это дает нам гораздо больший контроль над качеством, поскольку мы максимально приближены к нашим клиентам и их конечным пользователям. Напротив, большинство наших конкурентов полагаются на сторонний «транзитный» оператор. В результате они имеют меньший контроль над качеством.

Зачем нам нужны такие огромные мощности?
Управляя нашей основой, мы можем предложить нашим клиентам высококачественную пропускную способность и низкий уровень задержек в любой точке мира. Это также помогает нам защищать пользователей от атак типа «отказ в обслуживании» (DDoS).

Фактически, одной из причин, по которой OVH требуется много избыточной мощности, является поглощение всплесков высокоинтенсивных атак. Потому что речь идет не только о том, как справляться с атаками, но и о возможности противостоять им. Из наших данных за 2017 год видно, что атаки DDoS продолжают увеличиваться в объеме.

Как поставщик облачных сервисов, мы, естественно, имеем намного больше исходящего трафика, чем входящий трафик. И он продолжает расти примерно на 36% в год. Тем не менее, нам по-прежнему важно увеличить пропускную способность входящего трафика, если только для того, чтобы избежать перегруженности, вызванной DDoS-атаками. Таким образом мы можем управлять и фильтровать атаки с помощью нашей системы DDoS VAC без законного трафика, испытывающего любые проблемы с насыщением.

Избыточная емкость также увеличивает доступность. Если, например, у нас есть инцидент в одном из наших PoP, или один из наших партнеров (например, оператор или поставщик интернет-услуг) испытывает отключение волоконно-оптического кабеля, это не имеет значения. Мы все равно можем избежать любых перегрузок и поддерживать качество обслуживания с точки зрения низкой латентности. И мы можем это сделать, потому что мы тесно связаны с нашими партнерами через несколько PoP. Если мы подключаемся к одному и тому же оператору через два PoP, это означает, что мы не можем превышать 50% использования для каждого PoP. Если мы подключены через три PoP, это означает 33% каждого и так далее. В случае инцидента или сбоя основная трудность заключается в ожидании перенаправления трафика (другими словами, на который PoP).

Обзор вопросов модернизации сетей Азиатско-Тихоокеанского региона
Наши недавние обновления сети в Азиатско-Тихоокеанском регионе действительно демонстрируют, как команды OVH могут вмешиваться на всех уровнях магистрали, улучшать доступность и защищать клиентов.

Новые базовые маршрутизаторы были добавлены в центры обработки данных в Сиднее и Сингапуре. Каждый маршрутизатор поддерживает до 4,8 Тбит / с пропускной способности.

Мы также установили четыре новых магистральных маршрутизатора (два в Сингапуре и два в Сиднее), которые подключены через 100 Гбит / с. Благодаря этим дополнениям OVH может подключаться к большему числу поставщиков, и в результате мы можем расширить наши возможности за пределами нашей собственной сети.

OVH также инвестировал в 100 Гбит / с ссылки для подключения к другим PoP. Увеличение нашей способности справляться с DDoS-атаками усилило безопасность нашей сети.

Наконец, мы смогли получить драгоценные миллисекунды, добавив новую связь с низкой задержкой между двумя центрами данных OVH в Азиатско-Тихоокеанском регионе (задержка в 88 мс вместо 144 мс) и изменение маршрутизации через Сингапур.

Новые условия для облачных VDS. Еще больше памяти!

С сегодняшнего дня изменены все тарифные планы услуги Облачные VDS. Произведено увеличение оперативной памяти в 2 раза! Активная деятельность по улучшению работы проекта продолжается, и данное нововведение позволит нашим клиентам улучшить работу своих проектов на всех уровнях.
  • VDS-1. Было 512 Мб RAM — стало 1024 Мб RAM
  • VDS-2. Было 1024 МБ RAM — стало 2048 Мб RAM
  • VDS-3. Было 2048 МБ RAM — стало 4096 Мб RAM
  • VDS-4. Было 4096 МБ RAM — стало 8192 Мб RAM

Изменены и условия по конфигуратору VDS-серверов, теперь максимально доступная конфигурация:
  • Оперативная память – 16 GB
  • Количество процессоров – 12 шт.
  • Дисковое пространство – 100 GB
  • Публичные IPv4-адреса – 4 шт.
Стоит отметить что стоимость услуг осталась прежней. А новые условия уже применены ко всем действующим облачным VDS.
syncweb.ru/oblachnye-vds

Розыгрыш NVMe SSD ускорителя Intel Optane 900p 480GB среди пользователей Cloud2



Для продвижения нашей новой услуги Cloud2 мы решили устроить розыгрыш SSD-ускорителя Intel Optane 900P размером 480 GB. Память 3d-Xpoint совершила революцию в мире SSD, предоставляя недостижимую для других SSD производительность и надежность. Мы в НетПоинт широко используем продукты Intel, основанные на 3d-Xpoint и наши клиенты уже успели оценить их по достоинству.

Сегодня мы объявляем розыгрыш такого ускорителя среди пользователей Cloud2.


В настоящее время все карты Intel Optane идут в комплекте с бесплатным эксклюзивным кораблем для игры Star Citizen — Sabre Raven.

Для участия в розыгрыше необходимо заказать услугу Premium VPS с ресурсами не менее 4 GB RAM и 60 GB дискового пространства (1100 рублей). В этой квоте можно создать от 1 до 4х VPS, например, высокопроизводительный VPS: highcpu.2c4g с диском 60 GB или 4 lowcpu.1c1g.

Розыгрыш состоится 20 ноября 2018 года среди пользователей, которые потратили за период с 18 октября по 18 ноября не менее 1100 рублей на услуги Cloud2. Розыгрыш будет осуществляться случайным выбором из всех счетов в биллинге, которые удовлетворяют указанным выше критериям. Номера всех счетов, участвующих в розыгрыше, будут опубликованы на сайте НетПоинт.

Мы напоминаем, что Вы можете заказать бесплатный перенос вашего ресурса как с услуги CS1 так и с других услуг НетПоинт в Cloud2, а так же со сторонних площадок.

Все аккаунты, которые уже используют Cloud2 и соответствуют критериям, описанным выше участвуют в розыгрыше.

Отказ от ответственности. В том случае, если компания Intel перестанет распространять ускорители с купоном на Sabre Raven, мы будем разыгрывать ускоритель без этого корабля. Однако, в настоящий момент, нам не известно о таких планах поставщика.

billing.netpoint-dc.com/billmgr?func=register&lang=ru

Написали статью про то, как мы переезжали вместе с вами в новый ДЦ

С 2014 года мы находились в ДЦ DataPRO, который является крупнейшим Tier 3 коммерческим ЦОД в России. Нас все устраивало, так как мы начинали с размещения 2 серверов через компанию, которая арендует стойки в данном ДЦ. Время шло и парк нашего оборудования рос. Также постепенно появлялось и сетевое оборудование для реализации наших задач. Были куплены два коммутатора Cisco 4948E и взят в аренду выделенный канал в 1 gbt/s для доступа нашей инфраструктуры в Интернет. У нас начали появляться клиенты, которым были необходимы широкие каналы и мы приобрели коммутатор Extreme X670-48X, который имеет 48 SFP+ портов по 10 gbt/s каждый. Данный коммутатор стал ядром няшей сети, а коммутаторы Cisco мы занесли по разным стойкам. И собственно все бы ничего, но мы не имели физического доступа к своему оборудованию, так как размещались мы через одного провайдера и наши серверы находились в разных стойках и разных концах зала, следовательно кроссировка стоила отдельных денег при подключении к нашей сети. Мы пытались найти компромисс, но так и не смогли договориться с данной компанией о выгодных условиях для нас. Также для нас был очень важен доступ к своему оборудованию. И мы решили искать место, где нам будет удобно и комфортно, а нашим клиентам станет еще лучше. Мы рассматривали многие ДЦ в Москве, общались с огромным количеством менеджеров и собрали полную картину рынка услуг Colocation по аренде серверных стоек и по размещению своих стоек. Мы получали очень красивые предложения, но с очень высокими ценами, иногда выше рыночных в 2-2,5 раза. Иногда поступали очень вкусные предложения по цене, но оказывалось, что площадка не соответсвует нашим требованиям.

Разумным вариантом было остаться в ДЦ DataPRO, только выехать в свои стойки, но нас еще при работе с данным ЦОД смущало, что в ночное время оставался 1 дежурный инженер на весь огромный ДЦ, а держать круглосуточную службу своих инженеров в ЦОД мы не могли, так как наша тех. поддержка находится в разных городах страны. Также предложенная стоимость аренды стоек от DataPRO нас не устраивала. В результате поиска мы остановились на 2-ух ДЦ: IXcellerate и DataLine.

Сначала мы решили, что будем размещаться в IXcellerate и уже начали договариваться на срок переезда и все документальные процедуры, но получили от DataLine более вкусное условие на размещение и переговоры пошли уже с другим ЦОД. Как только мы договорились и соблюли все юридические процедуры, началась активная подготовка к переезду.

Мы установили второй Extreme X670-48X в стойке DataLine и настроили его, а от знакомого Хостинг-провайдера, который уже достаточно давно размещает свои серверы в данном ДЦ, получили линк на 10gbt/s. Мы решили пока использовать его каналы связи и анонсировать свои IP адреса на его AS, так как мы пока не подключаемся напрямую к операторам связи, так проще и удобнее. В скором времени мы планируем покупать Маршрутизатор Juniper MX240 и подключать несколько операторов связи.

Мы расписали план переезда оборудования: так как перевезти все за одну ночь было физически невозможно, мы разбили это на 3 ночи. Сначала мы перевезли все ноды с виртуальными серверами и серверы виртуального хостинга. Так как у нас был настроен тунель, все работало с двух площадок паралельно и даунтайм был только на момент физического выключения серверов. Перевозили все вдвоем, а в DataLine был еще 1 сотрудник, который помогал с монтированием серверов в стойки и их подключением, чтобы время простоя было минимальным. В первую ночь мы перевезли 22 сервера и 2 коммутатора. Во вторую ночь мы перевозили серверы клиентов, которые арендуются у нас (было перевезено порядка 33 серверов и 3 коммутаторов). В третью ночь мы перевозили оставшиеся клиентские серверы и всю свою инфраструктуру-серверы на которых работает вся наша система(это еще 11 серверов и 2 коммутатора). В общей сложности мы перевезли 66 серверов и 7 коммутаторов – это не считая километров проводов питания и патчей. Ночки были веселыми, хорошо что в Москве ночью нет пробок и мы достаточно быстро добирались от одного ДЦ до другого. Спасибо инженерам DataLine за быструю приемку оборудования, которая, к слову, производилась в 2 раза быстрее, чем выдача наших серверов в ДЦ DataPRO.

Как только мы перевезли все что было можно, мы полностью переключили всю сеть на новый ЦОД и все заработало в штатном режиме, мы доехали в DataPRO и забрали наш последний коммутатор, который как раз и был реализацией шлюза для паралельной работы двух площадок.

Что мы получили в результате:
  • мы не зависим от третьих лиц и имеем прямой доступ к своему оборудованию и своим стойкам(в данный момент у нас их 2, скоро будет 3-тья).
  • мы получили возможность настроить все так, как нужно нам и сделать свою топологию сети, для удобства и правильного хождения траффика.
  • мы можем установить Ваше оборудование в свои стойки, что раньше мы не могли сделать.
  • мы получили возможность беспроблемного масштабирования и выбор оператора связи из всех присутствующих в DataLine.

serv-tech.ru

Это был наш первый опыт с переездом и мы очень надеемся, что следующий переезд будет уже в собственный ЦОД. К чему мы, собственно, и стремимся.

Надеюсь, данная статья Вам понравилась и Вам было интересно её прочитать. Теперь Вы знаете о нас чуточку больше и мы стали ближе к своим клиентам.






9 серверов Intel E3-1245v2/32/3x120 SSD - по 3390р/месяц



Есть 9 серверов:
Xeon E3-1245v2 (3.8GHz) [4ядра/8потоков] / 32 ГБ / 3x 120 ГБ SSD / 250 Mbps / Anti-DDoS

Можно ставить Linux и Windows(бесплатно)

Можно заказать у нас в течении еще 2-3 дней.
Цена: 3390р/месяц, заказать можно написав на почту sales@abcd.host либо создать тикет в личном кабинете: panel.abcd.host/billmgr

Сейчас такие серверы для новых заказов стоят около 4000р/месяц с установочным платежом 1600р каждый.

_________
ABCD.host

Обзор датацентров 2019 года, шаг 1: Страсбург, Франция, Центральная Европа

Страсбург, 4 сентября 2018 года. Мы начали обзор наших инфраструктур с центрами данных Страсбурга, кодовыми именами SBG 1,2,3 и 4. Более месяца мы проведем экскурсию и осмотрим наши 12 сайтов и 28 центров обработки данных, развернутых по всему миру. Все перед нашим ежегодным мероприятием, саммит OVH, который состоится 18 октября в Париже.


Потому что новый год в OVH — 1 сентября, дата начала нашего финансового года. Поэтому мы будем приветствовать всю семью во всем мире, как и традиция. Мы делаем инвентарь, чтобы увидеть, где мы находимся в нашей программе роста и модернизации всей нашей инфраструктуры. Мы встречаем все команды, уделим время, чтобы посмотреть в зеркало заднего вида, и мы разделяем наши «хорошие резолюции». Это наш начинающий бизнес на 2019 год. Все, не забывая о дружелюбии, потому что, кстати, мы также делим выпивку, обед.

Какие новости от SBG?
Начнем с электричества, после аудита, который мы начали на всех наших сайтах. В партнерстве с нашим поставщиком мы обеспечили инфраструктуру среднего напряжения на сайте. Мы отделили SBG1 от SBG2. Каждый центр данных теперь независимо и эффективно защищен. Со своей стороны, SGB3 был разработан с низковольтными генераторами и полностью независимыми цепями ИБП от SBG1 / 2 и 4.

Имеется в общей сложности 10 генераторов BT, протестированных ежемесячно для проверки электрической безопасности сайта.

Мы также начали ввод в эксплуатацию центра обработки данных SBG3, который извлекает выгоду из последних стандартов OVH, включая новые генераторы, которые его часть (см. Фото ниже). SBG3 будет иметь критическую ИТ-мощность 4 МВт и сможет вмещать до 25 000 серверов, что почти удвоит текущую общую пропускную способность сайта.



Открытие SBG3 знаменует собой важный шаг в эволюции этого сайта, для которого существует множество проектов. Нам повезло, что мы можем арендовать соседнюю партию с возможностью покупки прямо напротив, что открывает новые перспективы для расширения и множество других решений для миграции SBG1 и SBG4.

Лето подходит к концу, и для команд сезон прошел хорошо, несмотря на жару. Это всегда тест для наших инфраструктур, как и для всех центров обработки данных, так и для людей, которые заботятся о ежедневном оборудовании. На этом первом этапе в Страсбурге я сохраняю команду из 30 очень добросовестных и сплоченных людей, которые в контексте новых стандартов качества OVH внушают мне большую уверенность в росте этого сайта.

Чтобы ответить на наше местное развитие, мы уже начали набор на должности техников инфраструктуры и ИТ-специалистов.

Четверг 7/09 состоялся второй этап нашего тура с центром обработки данных в Лимбурге в Германии, в нескольких миллисекундах от Страсбурга, по волокнам. Было вполне естественно путешествовать между Францией и Германией в тот же день, когда два бывших чемпиона мира по футболу встретились в Мюнхене!

Как согласовать репозиторий ITIL и гибкость для управления его инфраструктурами?

Для управления инфраструктурой мы внедрили библиотеку передовой практики ITIL * в OVH, которая является гибкой организацией, используя методы SCRUM в развитии своих услуг. Репозиторий ITIL стал международным обязательством в области управления ИТ-услугами, но его также часто считают тяжелым и, вероятно, задушить организацию, теряя гибкость. Как SCRUM может сочетаться с ITIL? Объединив оба мира, вы получите «Agile Service Management».

Метод Agile основан на трех основных элементах:
  • Взаимодействие между людьми
  • Важность инструментов
  • Непрерывная адаптация к изменениям

При разработке службы вы должны помнить об этих значениях, но как насчет того, когда вы предоставляете услугу? Как смешивать эти гибкие принципы с подходом ITIL?

Давайте сравним эти основные значения с ITIL. Во-первых, ITIL, похоже, уделяет большое внимание процессам и их документации. Для объяснения 26 процессов ITILv4 требуется более тысячи страниц, целью которых является получение качества обслуживания без учета качества взаимодействия между отдельными лицами.

Аналогичным образом договорные соглашения переходят на внутренние соглашения (OLA) и внешние (SLA) соглашения об уровне обслуживания, которые позволяют измерять качество услуг без учета предполагаемого предоставляемого обслуживания.

Кроме того, процессы предсказуемы; они всегда производят одинаковые эффекты в соответствии с тем, что мы вводим. Все этапы четко определены, и ответ на изменения является непреодолимым, поскольку вы не можете отклоняться от того, что написано.

Поэтому априорно существует сильный антагонизм между двумя методологиями. Но будьте осторожны с этим выводом немного поспешным, потому что оба подхода также очень взаимодополняют друг друга.

Фактически, ITIL и SCRUM — это не что иное, как эффективная практика, применяемая соответственно для ИТ-производства и развития ИТ. Действительно, SCRUM — это прежде всего рабочий метод, принципы которого помогают принимать быстрые решения, но не дают никакой системы отсчета. С другой стороны, ITIL предоставляет систему координат через определенные процессы, но не указывает, как выполнить эту работу.

Таким образом, объединение SCRUM и ITIL не является невозможным; мы тогда берем лучшее из обоих миров, полагаясь на первоначальную философию ITIL: «вдохновляйтесь этим методом и применяйте его так, чтобы он был вам лучше всего».

Например, мы реализовали процесс «управления изменениями», чтобы он был текучим и полезным для всех. Хотя мы имеем высокий уровень автоматизации процессов, некоторые операции могут по-прежнему быть ручными из-за их сложности или низкой частоты; поэтому процесс внедрения изменений рассматривается Консультативным советом по изменениям (CAB).

В OVH CAB не является административным органом, который управляет всем. Он распространяется таким образом, что вызов операций выполняется между «знанием». Мы задаем себе классические вопросы, связанные с изменениями, чтобы измерить его подготовку (укомплектование персоналом, время, откат ...) и присущий ему риск. С тех пор изменения отслеживаются, архивируются и передаются изнутри и снаружи через «рабочие» задачи.

Сварной водяной блок без какой-либо работы

Сварной водяной блок без какой-либо работы: мы последовательно выполнили 7 штук, которые были полностью собраны (водонепроницаемы), за один проход. Мы держим 10! в 0/1/10/100/1000 :)

Следующий шаг:
— тест на большой громкости
— проверить некоторые варианты параметров 1 на 1