+101.66
Рейтинг

Виталий Никсенкин

Прекращение обновлений BILLmanager на CentOS 7





С 29 апреля 2025 года мы прекращаем выпуск обновлений BILLmanager для операционной системы CentOS Linux 7.

Техническая поддержка продукта на этой ОС оказываться не будет.

CentOS 7 больше не получает критические обновления безопасности с июня 2024 года, и не рекомендуется нами для использования с продуктом BILLmanager.

Для нормальной и безопасной работы необходимо перенести BILLmanager на сервер c поддерживаемой операционной системой.
www.ispsystem.ru/docs/bc/o-platforme/trebovaniya-k-serveru

Рекомендуем заранее произвести процесс переноса, чтобы продолжать пользоваться преимуществами платформы BILLmanager.

Как перейти на поддерживаемую ОС?
Для перехода на поддерживаемую операционную систему потребуется перенести BILLmanager на новый сервер. Для этого воспользуйтесь статьей в документации.
www.ispsystem.ru/docs/bc/ustanovka-i-obnovlenie/perenos-meyodu-serverami

Ознакомиться с этапами переноса можно в статье на сайте.
www.ispsystem.ru/news/end-of-support-for-centos-7-in-billmanager

-30% на Premium M на 3 месяца | ClouDNS



Сейчас самое время обновиться! В течение ограниченного времени мы предлагаем СКИДКУ 30% на Premium M на 3 месяца — больше выгоды по более низкой цене.

Обновитесь до 16 апреля, чтобы воспользоваться этим эксклюзивным предложением. Наслаждайтесь премиум-функциями и улучшенной производительностью по специальной сниженной цене!

Активируйте свой план Premium M сейчас!
www.cloudns.net

Домен за полцены — идеальное решение для вашего бизнеса от PQ!

PQ.Hosting запускает новый проект — PQ.Domains, который открывает для вас мир безграничных онлайн-возможностей. Теперь вы можете не только размещать проекты на сверхмощных VPS, но и регистрировать домены!



Зачем выбирать PQ.Domains?
Раньше домены и хостинг приходилось искать по разным сайтам. Теперь всё стало проще: зарегистрируйте домен и сразу подключите сервер PQ.Hosting — получите полный контроль над вашими онлайн-проектами.

Что вас ждёт:
  • Ваш идеальный первый домен в любой выбранной зоне за полцены: будьте первым среди счастливчиков, кто зарегистрирует его с 50% скидкой!
  • Высокая скорость и надёжность: все проекты работают на мощных серверах PQ.Hosting.
  • Простота и удобство: домен и хостинг — в несколько кликов.
  • Поддержка 24/7: мы всегда готовы помочь.

Какие доменные зоны доступны?
  • Национальные и региональные: .ru,.рф, .su,.рус, .kz, .moscow,.москва и др.
  • Международные: .com, .net, .org, .biz, .info, .co, .tv, .io и др.
  • Тематические: .shop, .online, .tech, .website, .store, .fun, .games, .blog и десятки других.

А теперь главное: только сейчас — скидка 50% на ВСЕ ЗОНЫ! Используйте промокод PERFECTDOMAIN при заказе и сэкономьте половину стоимости!
*Акция действует до 12.04.25 23:59 UTC+3 — не упустите шанс!

Создавайте свои цифровые проекты без лишних сложностей.
PQ.Domains + PQ.Hosting — это надёжность, простота и мощность под одной крышей.
А сейчас — идеальное время начать с 50% скидкой по промокоду PERFECTDOMAIN!
Перейти к регистрации домена и воспользоваться акцией прямо сейчас!


pq.domains

Аренда стоек 47U до 16 кВт в ДЦ рядом с ТТК, доступно более 100 стоек!



Постоплата, темные волокна, защита от DDOS

В связи с переездом крупного клиента в собственный дата-центрс мая 2025 года становятся доступными более 100 стоек (47U 600x1070 до 14 кВт) в дата-центре Datacheap. Предоставляем скидки при предварительном бронировании стоек. Возможна аренда отдельного серверного зала, замена стоек под нужды клиента. Описание ЦОДа доступно по ссылке datacheap.ru/about/

Оптика заведена по двум независимым вводам, присутствуют следующие операторы темных волокон:
  • Нетком-Р
  • Мастертел
  • Юл-ком
  • Телеком Биржа

Быстрая организация L2 каналов до М9, постоплата, защита о DDOS, помощь в переезде, доступ и техподдержка 24\7. Бесплатные «удаленные руки» на базовые работы с оборудованием клиентов. Ячейки для хранения оборудования, склад для крупных клиентов.

Также мы предоставляем в аренду выделенные и виртуальные сервера как типовых конфигураций, так и под индивидуальный заказ.

Наши контакты:
  • Адрес: г. Москва, ул. Угрешская дом 2 стр. 147
  • Ближайшие станции метро: Кожуховская
  • Ближайшая станция МЦК: Дубровка и Угрешская



ТЕЛЕФОН
8 (800) 333-01-81
+7 (495) 640-64-10
ПОЧТА info@datacheap.ru
TELEGRAM @Datacheap_senior_specialist

datacheap.ru

Сбой с вероятностью один раз в 20 лет: о мартовском инциденте в дата-центре



30 марта сервисы, размещённые в одном из наших основных дата‑центров, оказались недоступны. К инциденту привела авария на опорной подстанции, которая спровоцировала отказ сразу двух вводов питания и последующий каскадный сбой оборудования.

В этой статье подробно покажем, какие именно риски сработали — а для этого объясним, как устроено энергоснабжение в дата‑центре и на что это влияет. С этой точки зрения посмотрим, как развивались события в этот день и что бывает в дата‑центре, когда случаются ситуации, вероятность которых оценивается как «один на десятилетия». В завершение расскажем, что планируем делать дальше, чтобы не допустить повторения, и какой урок из этого могут извлечь другие инженеры.

Как устроено энергоснабжение дата-центра
Для того чтобы понять ход воскресных событий, даже если вы редко сталкиваетесь с инженерной инфраструктурой, потребуется сделать шаг назад и вспомнить, как работают системы энергоснабжения в целом и как устроено резервирование электропитания в дата‑центре на случай аварий. Если вы опытный инженер, и уже хорошо всё это знаете, можете просто промотать немного дальше.

Кратко о национальной электроэнергетической системе в целом. Если сильно упрощать, то систему энергоснабжения в масштабе страны можно поделить на несколько уровней:
  • Источники — многочисленные электростанции, которые генерируют энергию: ТЭС, ГЭС, АЭС и т. д.
  • Сеть передачи энергии — линии электропередачи (ЛЭП) высокого уровня напряжения, которые образуют «кровеносную систему» для снабжения электричеством всех уголков страны.
  • Систему преобразования и распределения. Поскольку по магистральным линиям идёт ток высокого напряжения, для передачи энергии в готовом для потребления виде нужны электроподстанции, которые принимают энергию от генераторов, преобразуют уровень напряжения и распределяют дальше по регион
  • Ну и вокруг всего этого есть большой блок эксплуатации: инженерам необходимо следить за исправностью всего оборудования, вовремя проводить ТО, устранять возникающие аварии и минимизировать последствия и так далее. Для этого существуют лучшие практики и правила эксплуатации, в работе им помогает система диспетчерской связи — для этой статьи подробнее расписывать не будем.

Единая энергетическая система России — крупнейшее в мире энергообъединение с централизованным управлением. Чтобы обеспечить электропитанием все субъекты федерации параллельно работают семь объединённых энергетических систем (ОЭС) — Центра, Юга, Северо‑Запада, Средней Волги, Урала, Сибири и Востока. Подробнее о том, как это устроено можно также почитать здесь.

Чтобы такая масштабная система работала без сбоев, инженеры строят отказоустойчивую сеть и продумывают варианты «страховки», например, то самое резервирование: альтернативные схемы работы на случай отказа какого‑то из узлов. Например, в случае разрыва ЛЭП продумываются альтернативные пути передачи, но не только. У всех подобных систем довольно сложная внутренняя архитектура.

По ту сторону этой системы есть потребители электричества, которые тоже бывают разных уровней, от простых жителей с розетками на 220 В, до сверхкрупных предприятий, которые могут ставить свои трансформаторы для приёма тока высокого напряжения и преобразования энергии для своих нужд.

Как мы учитываем эту информацию при строительстве дата‑центров. Стандарты проектирования дата‑центров предписывают внимательно выбирать место для строительства с учётом всех факторов риска: от доступности инфраструктуры и до вероятности стихийных бедствий и техногенных катастроф. Доступность и надёжность энергоснабжения — как раз один из таких важнейших факторов.

Если вернуться конкретно к дата‑центру Яндекса, то он появился в 2010-х годах на площадке, которая раньше принадлежала заводу и уже имела выгодное положение: она расположена максимально близко к генератору и надёжному поставщику энергии. Для понимания надёжности: самая близкая к дата‑центру подстанция на 220 кВ не сбоила ни разу с 1960 года. Её установленная мощность 251 МВА, и сегодня подстанция обеспечивает параллельную работу нескольких региональных энергосистем.

Заметка на полях: на самом деле, одна довольно крупная авария на нашей памяти случалась в 2015 году, когда на подстанции полностью отключился трансформатор. Но поскольку таких трансформаторов на подстанции подобного уровня несколько — нагрузку удалось перераспределить на другие линии, и мы как потребитель почти ничего не заметили. За счёт чего можно обеспечить резервирование — расскажу чуть ниже.

Такие подстанции проектируются как сложные распределённые системы, чтобы предоставить потребителям определённые гарантии независимости ячеек. Теоретически можно подключиться и к нескольким подстанциям, но в этом нет практического смысла, так как они все являются частью одной системы, замкнутой по своему дизайну. Поэтому существующее решение было наиболее подходящим вариантом.

Когда на площадке был создан первый энергоцентр, дата‑центр потреблял относительно немного, но с учётом планов по загрузке мощностей мы также установили дизель‑генераторные установки (ДГУ) в качестве резервного источника питания. Несмотря на распространённый миф, что «ДГУ всех спасут», эти установки тоже являются точкой отказа. И на этот случай есть несколько вариантов подстраховки.

Что делать с тем, что у ДГУ есть свои риски. Когда в системе электроснабжения происходят нештатные ситуации, у нас всегда есть угроза скачка напряжения, из‑за которого мы рискуем получить пробой изоляции, выход из строя блоков питания и других частей оборудования. Для чувствительного IT‑оборудования это особенно опасно, поэтому на случай аварий схемы подключения продумываются так, чтобы скачок напряжения «не дошёл» до конечного сервера, и переключение для него было максимально бесшовным и незаметным.

Для такого плавного переключения рядом с ДГУ часто стоят источники бесперебойного питания (ИБП), которые могут сразу же принять на себя нагрузку на то время, пока ДГУ заводится и выходит на полную мощность. Другой частый вариант — вместо ДГУ использовать ДРИБП (дизель‑роторные источники бесперебойного питания), которые являются устройством «два в одном» и сочетают в себе возможности ДГУ и ИБП. У них свои особенности, схема подключения будет чуть другой, но в целом это тоже распространённый вариант. Мы его тоже используем.

Также для сокращения времени запуска ДГУ их стараются держать тёплыми, проводят регулярное ТО и тестовые пуски, чтобы убедиться, что резервный источник питания в любой момент готов принять нагрузку.

Но иногда именно в момент аварии ДГУ могут сразу не запуститься именно из‑за того, что что‑то в системе идёт нештатно. А значит, считать такую установку основным источником питания всё равно нельзя, нужен ещё какой‑то резерв.

Как резервирование питания сейчас устроено у нас. Через 10 лет после строительства мы завершили постепенную модернизацию дата‑центра, чтобы привести его в соответствие с растущими нагрузками и лучшими практиками и стандартами проектирования.

Одна из таких зарекомендовавших себя практик — два независимых источника питания. Чтобы минимизировать риски отказа на стороне энергосистемы, можно подключаться к таким источникам напрямую (что мы и сделали). Для этого мы по сути стали потребителем более высокого уровня и заключили договор с федеральным оператором.

В результате мы подключили дата‑центр по линиям высокого напряжения (110 кВ) напрямую к опорной подстанции в сети национального оператора — в нашей схеме это уровень 1.

Как это выглядит:


Нижним уровнем в такой схеме будет технологический модуль дата‑центра — это автономный технологический квант с точки зрения размещения оборудования и инженерных систем. Типичный дата‑центр Яндекса содержит несколько десятков таких модулей: модули сервисов Яндекса, модули облака, пара модулей сетевого центра.

И если на первом уровне опорная подстанция немного остаётся для нас «чёрным ящиком», то на всех последующих мы контролируем всё сами и обеспечиваем резервирование. Пройдёмся по всем уровням, что для этого сделано:
  • Уровень 2: построили собственные кабельные линии от опорной подстанции. Так мы избежали использования более хрупких распределительных сетей общего назначения между дата‑центром и подстанцией.
  • Для резервирования питания два раздельных ввода питания подключены к раздельным ячейкам питающей подстанции высокого напряжения.
  • Уровень 3: построили собственную подстанцию 110кВ. Подстанция введена в эксплуатацию ещё в 2014 году, оборудована двумя трансформаторами 110/10кВ и закрытым распределительным устройством 10кВ.
  • Каждый модуль дата‑центра подключается двумя линиями к разным секциям шин 10кВ. И это одна из причин, почему уже упомянутая крупная авария на опорной подстанции в 2015 году прошла незамеченной.
  • Уровень 4. Это уровень распределительных линий 10кВ между нашей подстанцией и технологическими модулями дата‑центра. На этом же уровне находятся ДРИБП.
  • Они используются для поддержания работоспособности сетевой инфраструктуры дата‑центра, сервисов безопасности, наблюдения и управляющего контура (Observability).
  • Уровень 5. Это технологический модуль дата‑центра.Типовая схема подключения всех технологических модулей дата‑центра: два независимых трансформатора 10/04 кВ, ИБП и распределительное устройство, для возможности проведения регламентных работ.

В случае, если один из вводов питания оказывается недоступен, второй ввод может полностью принять нагрузку на себя — мощность дата‑центра рассчитана таким образом, что одного ввода достаточно, чтобы держать электроснабжение полностью загруженного дата‑центра. Осуществлять переключение помогает распределительное устройство, или АВР (автоматический ввод резерва). С его помощью также можно проводить обслуживание на одной из линий.

Для чего остались ДГУ в этой схеме. В дата‑центрах Яндекса дизельные установки используются для поддержания работоспособности управляющего контура дата‑центровых сервисов.

Решение с ДРИБП помогает сократить время реакции операционной команды в случае сбоев по питанию. Так каждый дата‑центр остаётся транзитным для трафика других дата‑центров, а также при этом обеспечивается мягкий взлёт для остальных сервисов. Помимо этого сеть нужна в том числе для мониторинга инженерных систем и рабочих мест сотрудников дата‑центра, чтобы множество проблем можно было заметить удалённо.

Для понимания масштабов и эксплуатационных рисков: проведение планового обхода всего дата‑центра в этой зоне потребует от пары дежурных инженеров 4 часов на ногах. Следовательно, если где‑то не срабатывает автоматика, или сама процедура по регламенту должна выполняться с участием инженера — большой объём работы по устранению серьёзной аварии потребует и серьёзного усиления команды.

Благодаря тому, что сеть и управляющие сервисы дополнительно зарезервированы с помощью ДРИБП, даже если сбой крупный, зона по‑прежнему видна на мониторинге, и связана по сети с другими зонами доступности, а значит, трафик может убегать из одного дата‑центра в другой. Это важная деталь, когда нужно зарезервироваться на уровне всей сети дата‑центров.

Как это работает при резервировании уровнем выше. При планировании схем резервирования мы исходим из того, что сервисы управляющего контура Яндекса должны продолжать работать и при недоступности одного дата‑центра. В этом случае нагрузка должна перераспределяться по остальным зонам доступности.

Поскольку это довольно сложная задача, то помимо самой схемы с дополнительным резервированием, серьёзно продумываются и регламенты эксплуатации. Мы регулярно проводим для команды учения с имитацией падения одного дата‑центра, и как правило продолжаем совершенствовать систему эксплуатации по итогам таких учений.

По нашей статистике от команды эксплуатации за последние четыре года:
  • Если иметь в виду линии 110 кВ и нашу высоковольтную часть подстанции, в том числе трансформаторы 63 МВт, — то около десятка раз проводилось плановое обслуживание, при этом дата‑центр находился в рабочем состоянии на одной линии или одном трансформаторе. Было зафиксировано одно неплановое отключение линии из‑за сработки защиты на опорной подстанции: после локализации оказалось, что срабатывание защиты было ложным, но все системы отработали штатно. Все подобные инциденты наше оборудование и наши пользователи не почувствовали.
  • По среднему напряжению 10 кВ за четыре года было 56 плановых отключений по одной линии какого‑либо модуля для техобслуживания. Работали на втором вводе, и IT‑оборудование также продолжало функционировать.

Понятно, что все плановые работы идут с предупреждением сервисов соответствующих модулей и с особым регламентом проведения работ.

Но в целом эти данные показывают, что энергосистема большого дата‑центра — это живой и функционирующий механизм. И функционирующий хорошо и надёжно.

Теперь посмотрим, какие из перечисленных рисков сработали для нас в то воскресенье и что привело к «эффекту домино».

Что происходило 30 марта
В 12:25 воскресенья на мониторинге мы заметили недоступность дата‑центра по питанию и сразу приступили к выяснению и устранению проблемы.

Как было видно в системе, в 12:18 на площадке запустились ДРИБП, но уже в 12:20 стало наблюдаться «резкое занижение напряжения». В 12:27 главный инженер обслуживающей организации связался с дата‑центром и сообщил, что на подстанции отключились обе линии 110 кВ, но причина пока неизвестна. А значит, у нас Проблема № 1: сразу две точки отказа по питанию с непонятным прогнозом, а дизель‑генераторы просто не рассчитаны на то, чтобы принять такую нагрузку.

При этом на площадке находилась только воскресная смена, а значит, мы начинаем уже на этом этапе усиливать команду.

До 13:00 мы полностью сняли всю маршрутизацию трафика для всех наших дата‑центров, чтобы возвращение работоспособности проходило под контролем дежурной смены. Одновременно с этим это помогло в течение первых 30–40 минут дать рекомендации всем пользователям мультизональных сервисов перераспределить нагрузку на другие зоны.

Также примерно в это же время мы получили сообщение с федеральной подстанции, что технически система готова к подаче напряжения, но по регламенту нужно получить разрешение от диспетчерского управления. Возникает Проблема № 2: при сбоях такого масштаба, которые затрагивают сразу несколько региональных подсистем, «нельзя просто взять и включить всё обратно», нужно убедиться, что это не усугубит ситуацию.

В 15:30 вернулось питание от подстанции и стартовали работы по восстановлению электропитания дата‑центра.

С 15:52 начался запуск инженерных систем из состояния blackout — в первую очередь для модулей облачной платформы. Здесь было важно перед IT‑эксплуатацией проверить работоспособность оборудования, и по регламенту это ручной процесс, с подключением инженера. Здесь появляется Проблема № 3: не все работы можно провести автоматически, мы зависим от скорости ручных операций.

Но поскольку во время потери питания ДГУ приняли нагрузку от сетевого оборудования и систем эксплуатации, мы смогли быстрее приступить к восстановлению работоспособности сетевого и серверного оборудования.

К 17:04 мы восстановили электропитание и работу оборудования. Приступили к восстановлению работы сервисов.

19:08 — убедились в целостности данных и конфигураций инфраструктурных систем. Приступили к восстановлению работоспособности сервисов.

20:30 — восстановили доступность первых базовых сервисов, рантмайма, хранилища и начали поэтапное восстановление сервисов баз данных.

В 21:55 успешно завершилось включение всех инженерных систем для работы IT‑оборудования в облачных модулях.

Около 22:22 работа основных сервисов полностью восстановлена. Приступили к возвращению балансировки сетевой нагрузки и доступности остальных сервисов и к 00:00 полностью восстановили работоспособность всех сервисов в зоне.

Что мы планируем делать дальше
Как показал наш опыт, маловероятные ситуации, которые случаются раз в 10–20 лет, вполне могут оказаться реальностью. Следовательно, уже сейчас мы ведём переоценку рисков, которые связаны с энергоснабжением дата‑центров.

Самым лёгким вариантом может показаться «просто поставить больше ДГУ», но с одной стороны такое решение нельзя будет реализовать в короткие сроки, а с другой — как мы помним, ДГУ не панацея (см. начало статьи). Поэтому планируем комплексную работу на нескольких уровнях.

На уровне дата‑центров
Мы продолжаем опираться на принятую в Яндексе модель резервирования на случай отказа «−1 ДЦ» и старательно придерживаемся её во всех сервисах. Но при этом мы знаем, что у части пользователей Yandex Cloud нагрузка размещена только в одной зоне, и поэтому для модулей облачной платформы рассматриваем альтернативные схемы резервирования, в том числе с использованием ДГУ как третьего, резервного источника питания.

На уровне сервисов Яндекса
Мы продолжим проведение регулярных учений для отработки действий команды эксплуатации на случай нештатных событий. В этот раз сервисы Яндекса в основном пережили сбой нормально, но мы выявили несколько мер, которые позволят ускорить «холодный» старт зоны.

На уровне Yandex Cloud
Чтобы клиенты облачной платформы также могли реализовать модель «−1 ДЦ» для проектирования высоконадёжных сервисов, есть несколько зон доступности. Мы продолжим развивать инструменты мультизональной отказоустойчивости и пополнять библиотеку архитектурных решений, которыми могут воспользоваться клиенты.

Одно из последних решений — инструмент Zonal Shift. Это механизм оперативного отключения подачи трафика L3/L7-балансировщиков в зону. В условиях полного отказа дата‑центра он уже доказал свою эффективность и помог точечно управлять нагрузкой для сервисов с мультизональной архитектурой. Надеемся, что он поможет клиентам в том числе для проведения учений.

Чему другие инженеры могут научиться на нашем опыте
Мультизональность на такие случаи — это необходимость для mission‑critical‑сервиcов. Мы публикуем этот разбор в том числе для того, чтобы больше компаний могли оценить подобные риски для себя и заранее подготовиться к возможным инцидентам. Чтобы не повторять чужой опыт в подобной ситуации, лучше быть готовым ко всему: знать, как может развиваться проблема, для более быстрой диагностики и минимизации последствий.

Обновление Yandex BareMetal: показываем самые популярные сценарии



Сегодня мы выпустили в публичное превью сервис по аренде выделенных серверов Yandex BareMetal — теперь пользователи облака могут арендовать у нас серверы и интегрировать их с облачной средой. С сервисом можно работать по API, а также гранулярно настраивать права доступа к серверам за счёт интеграции с Yandex Identity and Access Management.

В этой статье покажем, какие наиболее популярные сценарии можно реализовать с помощью обновлённого сервиса.

Что важно для компаний, которые арендуют физические серверы
По данным исследования Yandex Cloud, 59% российских компаний начали использовать услуги аренды физических серверов относительно недавно, в последние 1,5 года.

Какие облачные сервисы наиболее актуальны при интеграции с bare metal:
  • сервисы защиты от DDoS‑атак (59% респондентов);
  • сервисы резервного копирования (48% респондентов);
  • облачный роутер — единая сеть между выделенными серверами и облачной инфраструктурой (46%).

Для чего чаще всего применяют технологии bare metal:
  • для хранения и обработки данных — 70% респондентов;
  • для собственных виртуализаций, например, Openstack или VMware — 66%;
  • для хостинга бизнес‑приложений — 47%;
  • для задач бэкофиса — 44%.
На примере сервисов Yandex Cloud далее мы увидим, как могут решаться разные задачи благодаря интеграции облачных сервисов c выделенными физическими серверами.

Сценарии интеграции с сервисами резервного копирования
Традиционно в составе облачной платформы задача по безопасному и надёжному хранению данных решается при помощи двух технологий:
  • Встроенные в платформу облака технологии защиты дисков виртуальных машин. В случае Yandex Cloud стоит вспомнить про снимки дисков виртуальных машин.
  • Технология объектного хранилища, которая подходит не только для задач по хранению данных приложений, адаптированных к облачной инфраструктуре, но и для хранения резервных копий.

В большинстве случаев эти технологии закрывают значительную часть сценариев по защите данных. Тем не менее, в некоторых случаях этого недостаточно.

Для наглядности возьмём сценарий, связанный с защитой данных на файловом уровне, для приложения, которое не может работать с S3. Представим случай, когда специфика работы приложения требует контроля целостности при выполнении операций по резервному копированию.

Какую технологию использовать?
Ответ на вопрос кроется в использовании дополнительных, или наложенных решений для защиты информации. Примером такого облачного сервиса может быть Yandex Cloud Backup, который решает задачи по резервному копированию данных не только для защиты виртуальных машин, но и физических серверов в сервисе Yandex BareMetal. Поскольку физический сервер остаётся неизменным атрибутом традиционной ИТ‑инфраструктуры, то для него важно предусмотреть защиту на всех уровнях. Raid‑массивы призваны защитить от потери данных при выходе из строя одного или нескольких накопителей/блочных устройств. Если же из строя выходит целый сервер, то понадобятся как раз такие специализированные решения.

Как работает интеграция. Cloud Backup использует специализированный агент, который устанавливается в ОС физического сервера, за счёт чего появляется возможность выполнять операции резервного копирования:
  • для всех блочных устройств в составе сервера;
  • для определённых блочных устройств в составе сервера;
  • для определённых файлов и папок (директорий);
  • для данных приложений, требующих контроля целостности (базы данных);
  • также следует отметить, что грамотная настройка стратегии защиты (стратегии резервного копирования) положительно влияет на показатели RPO и RTO.

Для начала работы с этим провайдером резервного копирования пользователь проходит несколько подготовительных шагов, которые обеспечивают безопасное и надёжное создание и хранение бэкапов:
  • Настройку сервисных аккаунтов.
  • Настройку тестового сервера и необходимых сетевых разрешений.
  • Создание политик резервного копирования.
Подробнее о тонкостях конфигурирования можно узнать в документации. При настройке важно помнить о базовых практиках безопасности: не создавать долгоживущих ключей, использовать надёжное хранилище секретов, внимательно назначать сетевые доступы.

Такая правильно настроенная интеграция с Cloud Backup решает задачу защиты данных от потери на физическом серверном оборудовании в рамках «одного окна», не покидая консоль Yandex Cloud.

Сценарии интеграции с объектным хранилищем
В контексте физических серверов S3-совместимое хранилище может решать несколько задач.

Опция 1. Клиент решил перенести нагрузку из виртуальной машины на физический сервер, при этом приложение использовало технологии облака, и часть данных приложения размещались в S3-хранилище.

Опция 2. Клиент разворачивает на bare‑metal‑серверах кластер баз данных, например, кластер PostgreSQL высокой доступности. Технологии кластеризации, обеспечивающие репликацию данных между всеми вычислительными единицами в кластера позволяют решить задачу доступности базы для конечных потребителей, однако эта технология не помогает защитить данные от порчи или утраты, в случае повреждения базы данных.

Для решения задачи по защите данных следует применять стратегию защиты с использованием технологии Point‑in‑Time Recovery (PITR), которая позволяет восстановить состояние кластера на любой момент времени в интервале от создания самой старой полной резервной копии до архивации самого свежего журнала опережающей записи (Write Ahead Log, WAL). Это позволит приблизить показатели RTO и RPO к минимальным значениям, а хранение резервных копий и WAL транзакций в объектном хранилище (S3) обеспечит сохранность резервных копий.

Основное отличие второго сценария в том, что схема защиты выстраивается на уровне базы данных, защита может быть выполнена без использования дополнительного ПО.

Как работает интеграция с S3-хранилищем в случае с PostgreSQL?
Для реализации потребуется решить две задачи:
  • Подключить кластер к объектному хранилищу с использованием FUSE‑драйвера, которым, например может выступить GeeseFS, оптимизированный для работы с Yandex Object Storage.
  • Интегрировать приватные подсети BareMetal с объектным хранилищем (S3) через сервисное подключение. В решении данной задачи поможет технология Cloud Interconnect, при помощи которой серверы BareMetal смогут взаимодействовать с приватными подсетями в Virtual Private Cloud.

Из каких кубиков складывается головоломка, или как решить задачу?
  • Создать VRF и приватную подсеть в BareMetal.
  • Арендовать физический сервер.
  • Создать сервисное подключение к S3 (Private Endpoint) в одной из имеющихся подсетей в VPC. Смотрим на документацию.
  • Настроить интеграцию с подсетями VPC (из BareMetal в VPC) через Cloud Interconnect. Смотрим на документацию.
  • Если используется собственный DNS‑сервер, создать необходимые ресурсные записи для направления трафика к S3-хранилищу на IP‑адрес сервисного подключения.
Если приватный DNS не используется в BareMetal‑контуре, настроить сопоставление через файл /etc/hosts (storage.yandexcloud.net <--> в IP‑адрес сервисного подключения).

Итоговая диаграмма сетевой связности для доступа к S3 будет выглядеть следующим образом:


Безусловно, доступные сценарии не исчерпываются этими примерами: так, в прошлый раз мы рассказывали о возможностях собственной виртуализации. Однако благодаря появившейся в обновлении интеграции с Cloud Interconnect, а также с расширением функциональности работы через API — можно выстроить и более сложные архитектурные сценарии.

Назначен новый глава Yandex Cloud



Платформу Yandex Cloud возглавил Григорий Атрепьев — он перешёл на эту должность с поста директора по продуктам Yandex Cloud. Операционным директором стал Александр Черников, который ранее отвечал за развитие бизнеса Yandex Cloud в России и СНГ.

Григорий Атрепьев работает в Yandex Cloud с момента создания платформы в 2018 году. Он присоединился к ней в роли архитектора облачных решений — специалиста, который проектирует и организует работу IT-систем в облаке. Под руководством Григория в Yandex Cloud были сформированы команды облачных архитекторов, технических аккаунт-менеджеров и инженеров. Это позволило платформе динамично расширять продуктовый портфель и оказывать клиентам всестороннюю помощь в любых задачах — от создания облачной IT-архитектуры до внедрения искусственного интеллекта в бизнес-процессы. В качестве руководителя Yandex Cloud Григорий будет формировать стратегию платформы и развивать экосистему B2B-продуктов, в том числе решения on-premises и продукты на базе ИИ.

Александр Черников присоединился к Yandex Cloud в 2019 году. В его зону ответственности входило развитие направления по работе с клиентами и масштабирование коммерческого блока. Под его руководством в 2022–2024 гг. выручка платформы выросла почти в 7 раз — до 19,8 млрд руб. В должности операционного директора Александр продолжит растить бизнес облачной платформы и новых направлений Yandex Cloud, а также развивать взаимоотношения с клиентами и партнёрами.

Грядет плановая миграция биллинга



Ориентировочно 27 апреля с 02:00 до 05:00 UTC (10:00–13:00 GMT+8) пройдет плановая миграция биллинга на новую платформу. Во время работ возможны перебои в доступе — включая полный даунтайм примерно на час.

Если вы планируете какие-либо действия в биллинге в это время — лучше отложить. Мы постараемся сделать все быстро и аккуратно.

Спасибо за понимание!

Объяснение центров обработки данных: как работает резервный источник питания?





Для работы серверам необходимо питание. Каждая миллисекунда отключения питания приводит к простою сервера. Вот почему современные центры обработки данных используют сложные системы питания, чтобы поддерживать ваши проекты в режиме онлайн, даже если возникают проблемы с основным источником питания.

Давайте рассмотрим, как эти системы делают возможным такой уровень надежности. В статье ниже вы узнаете:
  • Проектирование систем электроснабжения центров обработки данных
  • Различные способы обеспечения избыточности питания
  • Что произойдет, если отключится основное питание?
  • Как системы резервного копирования поддерживают работу ваших серверов
  • Почему современное управление питанием имеет значение для ваших проектов
В этой статье мы будем использовать Hub Europe, наш флагманский центр обработки данных, в качестве примера, чтобы показать вам, как работает электропитание центра обработки данных не только в теории, но и на практике.

Требования к электропитанию центра обработки данных
Центры обработки данных потребляют огромное количество электроэнергии — столько же, сколько тысячи домов вместе взятых. Вашим серверам, а также системам охлаждения и другой инфраструктуре нужны мегаватты электроэнергии, поставляемой надежно и круглосуточно. Для сравнения: центр обработки данных мощностью 3,1 МВт, такой как Hub Europe, потребляет примерно столько же электроэнергии, сколько небольшой город.

В то время как дом может без особых проблем пережить периодические отключения электроэнергии, центры обработки данных должны поддерживать рабочую нагрузку, которую клиенты выполняют на серверах, расположенных внутри.

Система уровней надежности
Способ, которым обеспечивается эта постоянная мощность, был кодифицирован Uptime Institute в уровневую систему. Различные уровни центров обработки данных предлагают существенно разные уровни надежности:

Центры обработки данных Tier I обеспечивают базовую емкость без избыточности. Они имеют один путь для питания и охлаждения, обеспечивая 99,671% времени безотказной работы (до 28,8 часов простоя в год). Во время обслуживания эти объекты должны полностью отключаться, что делает их пригодными только для некритических рабочих нагрузок.

Центры обработки данных Tier II добавляют некоторые избыточные компоненты, но по-прежнему поддерживают единый путь распределения. Они предлагают 99,741% времени безотказной работы (до 22 часов простоя в год). Хотя они включают избыточные критические компоненты питания и охлаждения, им не хватает нескольких путей распределения, необходимых для одновременного обслуживания.

Для центров обработки данных уровня III требуется:
  • 72-часовое резервное питание на случай длительных отключений электроэнергии
  • Избыточность N+1: каждая критическая система должна иметь как минимум одну дополнительную резервную копию, которая может взять на себя всю нагрузку исходной системы. Это позволяет проводить обслуживание, не прерывая ваши услуги.
Вышеуказанные стандарты призваны обеспечить 99,982% времени безотказной работы. Это до 1,6 часов потенциального простоя в год.

Принципы Tier III реализованы в нашем центре обработки данных Hub Europe, где есть двойные линии питания, несколько резервных систем и независимые пути питания для обеспечения питания на всем пути к вашим серверам. Система устроена как сеть подземных магистралей, по которым электричество подается через отдельные защищенные туннели. Даже если одна «дорога» блокируется, электричество продолжает бесперебойно течь по альтернативному маршруту.

Путешествие энергии через центр обработки данных
Энергия проходит тщательно спланированный путь от коммунальных компаний до серверов в центре обработки данных. Давайте проследим этот путь через каждый этап, чтобы лучше понять поток энергии.

От коммунального предприятия к объекту
Электроэнергия поступает через высоковольтные линии электропередач – обычно от 2 до 30+ киловольт. Аналогичные требования к электропитанию можно найти в торговых центрах, региональных больницах, университетских кампусах и на предприятиях тяжелой промышленности, таких как сталелитейные заводы или химические заводы.

Современные центры обработки данных, такие как Hub Europe, используют два независимых канала для резервирования. Каждое подключение 20 кВ создает собственную цепь питания с выделенным оборудованием — если одно подключение к сети выходит из строя, ваши серверы продолжают работать на другом.

Трансформаторы преобразуют входящее высоковольтное электричество в уровни, которые может использовать объект, понижая его до 480 вольт. Это создает два полностью независимых пути питания с самого первого этапа. Для сравнения, бытовой электронный трансформатор, который питает ваш ноутбук (обычно преобразуя напряжение розетки в 19 вольт), выполняет ту же основную функцию, что и эти огромные блоки центра обработки данных, но в крошечных масштабах — обрабатывает ватты вместо мегаватт.

Полная цепочка питания создает несколько точек преобразования, каждая из которых понижает напряжение до более управляемых уровней:
  • Напряжение сети (20+ кВ на входе в центр обработки данных)
  • Распределение мощности (480 В после преобразования трансформатора)
  • Уровень оборудования (400 В в современных установках или 208 В в традиционных установках)
  • Питание, готовое для сервера (обычно 208 В/120 В однофазное или 400 В/230 В трехфазное в зависимости от требований сервера)
Каждый шаг снижает напряжение до более управляемых и безопасных уровней, сохраняя при этом мощность, необходимую для работы серверного оборудования. Современные серверы обычно имеют блоки питания, которые принимают диапазон напряжений (100-240 В), что позволяет им работать эффективно независимо от незначительных изменений в конечном питании.

Центральный распределительный пункт
От трансформаторов электроэнергия поступает в центральный узел (например, в систему Low Voltage Main Distribution – LVMD – в случае Hub Europe). Эта сложная система объединяет функции распределения электроэнергии и переключения передачи в одном центральном узле. Она действует как контроллер трафика, направляя электроэнергию по нескольким путям:
  • Через системы бесперебойного питания к вашим серверам
  • Непосредственно к системам объекта, таким как охлаждение



Он также обрабатывает дополнительные / альтернативные источники энергии – в случае Hub Europe, например, солнечную батарею мощностью 250 кВт и аварийный дизельный генератор. Говоря о солнечной энергии в Hub Europe, 250-киловаттная батарею вырабатывает достаточно электроэнергии для питания около 125 домов одновременно.

Солнечная батарея — это лишь часть более широких инициатив по устойчивому развитию, реализуемых в Hub Europe, которые позволили Contabo подать заявку на сертификацию ISO 50001 для Hub Europe в качестве подтверждения нашей приверженности устойчивому развитию.

Системы защиты и резервного копирования
В состав LVMD входят компоненты автоматического переключения нагрузки (ATS). Эти компоненты постоянно контролируют качество входящей мощности, следя за:
  • Полная потеря электроэнергии (отключение электроэнергии)
  • Падения напряжения (провалы)
  • Краткосрочные колебания
При отключении электроэнергии последовательность событий обеспечивает работу серверов:
  • Системы ИБП активируются в течение миллисекунд, обеспечивая мгновенное резервное питание
  • Аварийные генераторы запускаются немедленно, начиная процедуру прогрева.
  • В течение следующих 10–15 секунд генераторы достигают полной скорости и стабильной производительности.
  • АВР постоянно контролирует качество электроэнергии генератора.
  • После стабилизации мощности генератора ATS переключает серверы с ИБП на питание от генератора.
  • При восстановлении электроснабжения система ATS проверяет его стабильность перед обратным переключением.
  • Во время этих переходов серверы продолжают работать без перебоев.
  • Генераторам обычно требуется несколько секунд, чтобы достичь полной мощности и стабилизироваться. В течение этого переходного периода системы ИБП заполняют пробел, гарантируя, что серверы никогда не заметят переключения.

Подход к ИБП различается в зависимости от объекта — некоторые используют системы на основе батарей, обеспечивающие до 15 минут питания, в то время как другие используют маховиковые системы для более короткого покрытия. Hub Europe, наш пример, использует ИБП на основе батарей.

Сама система ИБП избыточна для дополнительной защиты и обслуживания без последствий. Двойные пути ИБП создают две полностью независимые системы защиты питания для ваших серверов. В Hub Europe это означает, что ваше оборудование получает питание от двух отдельных систем ИБП одновременно, каждая из которых способна справиться с полной нагрузкой, если другая выйдет из строя.

Когда один ИБП нуждается в обслуживании, серверы продолжают работать на втором пути без перерыва. Этот подход с двумя путями устраняет отдельные точки отказа в системе защиты питания — если один ИБП испытывает проблемы с батареями, электроникой или нуждается в обновлении прошивки, резервный ИБП поддерживает бесперебойную работу всего.

Окончательная поставка
Напольные блоки распределения питания (PDU — устройства, распределяющие электроэнергию по нескольким единицам оборудования в центре обработки данных) выполняют следующее преобразование напряжения. Они понижают напряжение с 480 В до 400 В (в современных помещениях) или до 208 В (в традиционных установках). Вариант 400 В снижает потери мощности во время распределения, повышая общую эффективность.

От PDU, Remote Power Panels (RPPs) распределяют питание по выделенным цепям, каждая из которых защищена собственным выключателем. В то время как традиционные объекты подают питание через кабели под полом, некоторые новые центры обработки данных используют системы воздушных шин для более гибкой подачи питания.

В каждой стойке силовые кабели заканчиваются в стандартизированных выходных коробках, установленных в верхней или нижней части серверного шкафа. Эти коробки подключаются к двум отдельным стоечным PDU — по одному от каждой цепи питания. Современные серверы используют преимущества этой двойной схемы питания с помощью резервных источников питания. Каждый источник питания подключается к разным PDU, получая питание от отдельных цепей. Если в какой-либо из цепей возникают проблемы, сервер автоматически работает полностью на оставшемся источнике питания без перерыва.

Избыточность в действии
Как мы видели, современные центры обработки данных используют несколько уровней защиты для поддержания питания в случае возникновения проблем. Чтобы проиллюстрировать это, давайте подробнее рассмотрим, как все работает в Hub Europe при возникновении различных сценариев.

Избыточность в действии
Нормальные операции

В стандартном режиме работы мощность поступает из первичной точки поставки 20 кВ через систему подачи и трансформатора мощности, а также фотоэлектрическую батарею. LVMD получает 3,1 МВт мощности от трансформатора (дополненную до 250 кВт от солнечной энергии) и распределяет ее по трем путям:
  • Через линию 1 к системе ИБП
  • Через линию 2 как резервный путь ИБП
  • Непосредственно к системам объекта, таким как охлаждение и освещение



Если основная точка подачи питания выходит из строя, резервное соединение 20 кВ активируется автоматически. Переход происходит плавно через систему подачи питания, поддерживая постоянную подачу питания во все системы.

Полный отказ коммунальных служб
В редкой ситуации, когда выходят из строя оба источника электропитания, задействуются несколько систем:
  • Система ИБП обеспечивает немедленное питание критических нагрузок
  • Активируется аварийный генератор мощностью 3,1 МВт
  • Обходная схема позволяет при необходимости напрямую подключать генератор.
  • Солнечная энергия продолжает поставлять до 250 кВт в LVMD, если это возможно

Поддержание без перерыва
Помимо сценариев отключения электроэнергии, дата-центры требуют регулярного обслуживания для обеспечения надежной работы. Это включает замену батарей ИБП, тестирование генераторов и управление топливом, проверки компонентов распределения электроэнергии и модернизацию инфраструктуры. Избыточная конструкция Hub Europe означает, что эти важные действия происходят без влияния на серверы. Например, во время обслуживания ИБП:
  • Инженеры сначала проверяют, сможет ли альтернативный путь электропитания выдержать полную нагрузку.
  • Они активируют обходные цепи для изоляции зоны обслуживания.
  • Энергия поступает через резервные системы, пока продолжается работа
  • После тестирования системы восстанавливают соединение без прерывания обслуживания.
Как упоминалось ранее, стандарт избыточности N+1 означает, что каждая критическая система имеет по крайней мере одну независимую резервную копию. Эта избыточность распространяется на все системы защиты — от подачи питания до блоков ИБП и распределительных путей. Если какой-либо отдельный компонент нуждается в обслуживании или выходит из строя, ваши приложения остаются защищенными резервными системами.

Тестирование в реальных условиях
Системное тестирование используется для подтверждения того, насколько хорошо эти уровни защиты работают вместе. Например, стресс-тестирование в Hub Europe, проведенное в августе 2024 года, включало постепенное увеличение нагрузки по разным путям питания с одновременным мониторингом всех систем. Даже при пиковых нагрузках в 1800 кВт напряжение оставалось стабильным, а резервные системы сохраняли готовность.

Итог
Когда вы размещаете свои приложения в современном центре обработки данных, несколько систем защиты питания работают вместе, чтобы поддерживать ваши проекты в режиме онлайн. От двойных линий электропитания до резервирования на уровне стойки, каждый компонент добавляет еще один уровень защиты для ваших серверов.

В Hub Europe эта сложная инфраструктура питания доказывает свою ценность каждый день. Благодаря комплексным системам резервного копирования ваши серверы получают надежное питание, необходимое для бесперебойной работы.

Как мы решили проблемы с серверами в 2024 году



Вы заметили, что в конце 2024 года у наших серверов чаще возникали неполадки? Мы тоже! Серверы иногда зависали, иногда возвращались к жизни сами по себе, а иногда требовали перезагрузки для восстановления. Что странно? Наш мониторинг не выявил никаких очевидных причин этих зависаний.

Типичные проблемы с сервером имеют очевидные причины — проблемное клиентское приложение, неисправная сеть или настройки виртуализации или проблемы с оборудованием. Это было по-другому. Обычные шаги диагностики не указали на четкую первопричину. В то же время стабильность нашей инфраструктуры становилась все хуже и хуже.

Мы поняли, что нам нужно больше, чем просто рутинное устранение неполадок. Мы собрали специализированную целевую группу, в которую вошли не только наши собственные эксперты, но и внешние разработчики ядра и специалисты от поставщиков программного обеспечения, таких как Virtuozzo. Если бы очевидные ответы были неверны, нам пришлось бы копать глубже — гораздо глубже.

Охота за ответами
Некоторые технические проблемы заявляют о себе громко. Другие, как эта, прячутся на виду. Наша целевая группа начала с изучения всех возможных углов — различных марок оборудования, различных центров обработки данных, профилей пользователей, рабочих нагрузок. Казалось, ничто не указывало на явного виновника.

Около 20% наших заявок на поддержку упоминали проблемы с конфигурацией сервера, и это число привлекло наше внимание. Обычно проблемы с конфигурацией демонстрируют четкие закономерности. Но эти заявки описывали различные симптомы, приводящие к одному и тому же результату: не отвечающие серверы, требующие перезагрузки.

Проверка теорий
Мы проверили гипотезы об оборудовании. Может ли это быть специфично для определенных марок серверов? Проблемы возникали в системах Lenovo, Dell и HPE и не были связаны с проблемами жесткого диска. Может быть, определенные местоположения центров обработки данных? Никакой закономерности. Мы рассмотрели различные версии ОС и программного обеспечения для виртуализации, но также не было четкой причины. Даже когда мы проанализировали, как разные клиенты использовали свои серверы, мы не смогли обнаружить никаких значимых закономерностей.

Первый прорыв произошел, когда мы изменили Proxmox и версию ядра Linux, которую мы используем на наших серверах vhost. Стабильность в целом улучшилась, но теперь у серверов начали возникать совершенно другие проблемы с производительностью. Наша целевая группа продолжала копать, изучая шаблоны управления памятью.

Понимание управления памятью
Танец памяти

Прежде чем продолжить наш рассказ, давайте объясним, что такое управление памятью.

В производственных средах управление памятью — это осторожный балансирующий акт. ЦП постоянно дирижирует сложным танцем, перемещая данные между ОЗУ и подкачкой. Активные приложения остаются в быстрой ОЗУ, а неактивные перемещаются в более медленное пространство подкачки на основе шаблонов использования.

Эта координация происходит тысячи раз в секунду, обычно без чьего-либо внимания. Это отраслевой стандарт, используемый в облачных вычислениях на протяжении десятилетий. Этот подход RAM-плюс-своп обрабатывает все, от небольших сайтов WordPress до загруженных баз данных и далее.

Обещание ZRAM
Введите ZRAM — стандартную функцию ядра Linux, разработанную для того, чтобы сделать управление памятью еще более эффективным. Сжимая данные прямо в самой RAM, он предлагает на 25% больше емкости. Подумайте об этом так: в то время как swap используется для хранения менее используемых данных вне RAM, ZRAM сжимает данные, чтобы хранить больше их в RAM.

Раскрытие настоящего виновника
Теперь, когда у нас есть некоторый контекст, давайте вернемся к нашему расследованию. Со временем, исправляя некоторые проблемы со стабильностью с помощью обновлений системы, мы внедрили ZRAM в нашу инфраструктуру. Сначала все казалось хорошо. Затем наши инструменты мониторинга начали улавливать необычные закономерности в операциях ввода/вывода.

Проблема не была сразу очевидна. Серверы работали нормально, пока не достигали определенного состояния памяти. Критический момент наступал, когда системы достигали полной емкости и им требовалось одновременно обрабатывать как ZRAM, так и пространство подкачки. Мы обнаружили, что запуск физической памяти с подкачкой работал нормально, как и физическая память с ZRAM. Но когда были включены и сжатие, и подкачка, возникала проблема зависания сервера.

Наши отладочные журналы и дампы данных раскрыли всю историю. Отладка на уровне ядра показала, что когда и ОЗУ (сжатая с помощью ZRAM), и подкачка достигли емкости, передача между ними работала неправильно. Вместо плавного перемещения данных между сжатой ОЗУ и пространством подкачки системы полностью зависали. Модели задержек в наших отладочных дампах указывали на фундаментальную проблему с этим подходом к управлению памятью.

К декабрю 2024 года у нас было достаточно доказательств, чтобы сделать решительный шаг. Мы деактивировали ZRAM во всех системах. Эффект был мгновенным и очевидным: эти загадочные проблемы ввода/вывода исчезли. Что еще важнее, загадочные зависания системы, которые раздражали наших клиентов и нас самих, резко сократились.

Миссия выполнена.

Мы надеемся, что полученные нами знания о поведении ZRAM помогут другим поставщикам, сталкивающимся с аналогичными проблемами.

С нетерпением жду
Поддержание стабильности инфраструктуры сервера — это постоянная задача. Хотя деактивация ZRAM решила проблему снижения производительности, с которой мы столкнулись в 2024 году, мы продолжаем изучать другие способы обеспечения еще более стабильной среды. Мы также улучшаем нашу инфраструктуру: мы обновляем наш парк vhosts до новых процессоров AMD Turin, новейших ЦП, которые предлагают еще более эффективную обработку памяти.

Мы не можем гарантировать, что вы никогда не столкнетесь с простоями, но мы можем гарантировать, что продолжим оптимизировать и совершенствовать работу, чтобы ваши рабочие нагрузки выполнялись бесперебойно 24 часа в сутки, 7 дней в неделю, 365 дней в году.

contabo.com