Рейтинг
0.00

RUvds Хостинг

2 читателя, 78 топиков

С Новым годом!



Вот и прошли очередные двенадцать месяцев, и мы снова поздравляем наших коллег, клиентов и партнеров – друзей, с которыми мы имели честь пронестись через ритмичный 2025-й.

В нём было многое. В том числе и то, что хочется забрать с собой в будущее. Весь этот год мы открывали новые площадки, проектировали спутники, запускали ЦОД в Заполярье и даже добрались до Антарктиды, воплощая то, что ещё совсем недавно казалось лишь планами на перспективу. Всё это стало возможным благодаря вам – людям, с которыми мы привыкли делиться всем. В том числе – новогодним настроением, тем самым чувством праздника, которое, посетив нас однажды, согревает ещё долгие месяцы.

Пусть новый 2026-й станет не просто ярким, а прорывным – годом, когда накопленный опыт, знания и силы позволят совершить невозможное, застолбив места там, куда ещё вчера многие боялись даже смотреть. Пусть планы становятся явью, удача сопутствует всем начинаниям, а успех занимает место постоянного спутника ваших будней. В конце концов, мы к этому шли, мы этого достойны, и мы этого заслужили!

С праздником!

ruvds.com

Я наконец-то понял, как открытость может помешать — и отчёт об аварии





В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали.

Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии.
Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы.

Так вот.

Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр.
Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным.

Наверное.

Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

Сбои случаются у всех, но не все про них рассказывают
До понедельника было другое событие.

Место действия — наш ЦОД в Королёве. Он находится на территории особо охраняемого завода. Завод, как и ЦОД, запитан от двух независимых подстанций + у нас есть ИБП, дизели и запас топлива + договор на поставки топлива и аренду дополнительного резервного дизеля.
Тестовые прогоны дизелей случаются регулярно как минимум на смене топлива с летнего на зимнее.

Подстанции в последние годы нестабильны. Там в 2023-м уже был ремонт, в результате которого электрики увидели летающие дверцы шкафа. Вот отчёт по этой истории. На этот раз случилось что-то новое, и обе подстанции вышли из строя. На этот раз нам не сообщали никаких деталей, то есть спектр причин мог быть очень широк: от банального человеческого фактора до диверсий.

Для нас важно то, что обе подстанции перестали подавать электричество в позапрошлый четверг.

ЦОД в Королёве переключился на дизель и почти 4 часа так работал с перерывами на попытки включения линий подстанций несколько раз. Подачу питания восстанавливали несколько раз, мы выжидали, переходили на городской ввод, и несколько раз происходило повторное отключение и снова переход на дизель.

Примерно через 4 часа подача питания от подстанций была восстановлена и оставалась стабильной. Авария закончилась.

Для абсолютного большинства клиентов ЦОДа все эти действия прошли незаметно. Сеть сохранялась, всё оборудование сохраняло работоспособность, так как каждый сервер имеет два блока питания, и они подключены к разным ИБП. Были некоторые проблемы с сетевым оборудованием в это время, которое потребовало перезагрузку коммутаторов по итогу, но в целом эту ситуацию отработали штатно.

В чём прикол с ИБП при «миганиях» света
Важно то, что дизели не стартуют мгновенно. Пока они заводятся, серверы и коммутаторы живут на
  • ИБП — старых добрых батареях. Что произошло:
  • При первом отключении батареи частично разрядились, ЦОД перешёл на дизель.
  • Батареи начали заряжаться от дизеля.
  • Они не успели полностью зарядиться, ЦОД перешёл на городской ввод.
  • Ещё 10 минут они заряжались от города.
  • Затем снова переход на дизели, то есть они разряжаются до примерно 20–30% остаточной ёмкости, потому что не успели зарядиться полностью прошлый раз.

Если свет моргнёт ещё раз, надо либо сутки стоять на дизеле и заряжать батареи, либо рисковать переключением с возможностью не переключиться обратно. Стандартная процедура — стоять на дизеле до безопасного заряда батарей.

Ещё несколько раз свет «мигал», когда питание прерывалось на несколько секунд, без переключения на дизели.

В прошлый понедельник ситуация повторилась
Питание с двух — напомню, независимых с независимыми маршрутами — подстанций пропало на 20 минут.

И вот в этот момент вылетело два ИБП.

Это вызвало отключение четырёх серверов, которые были одновременно подключены к вылетевшим батареям. Остальным серверам повезло больше, у каждого был как минимум один ИБП.

Почему всего четыре, а не полстойки? Потому что эта стойка неполная.

ИБП при такой нагрузке вылетать не должны.

Но!

Во-первых, мы планировали плановую замену батарей в ИБП как раз в начале декабря (напоминаю, авария — уже почти середина декабря). 2 декабря мы оплатили счета за них, и они должны были приехать 3–5 декабря.

Они действительно приехали к поставщику, но коробки оказались битые.

Поставщик отказался поставлять батареи, и был на 100% прав. Если логисты побили коробку — это всегда возврат и тщательная диагностика, возможно, списание.

То есть ровно неделю мы стояли с несколькими батареями за сроком плановой замены.
Срок плановой замены подбирается с запасом. Это не так, что ровно день в день батарея умирает.

Диагностика у нас постоянная, в помещении сверяется температура (она около 18–19 градусов Цельсия), плюс мы смотрим напряжение. У самих ИБП тоже есть собственные средства диагностики, и они зажигают лампочки, если нужна замена батарей.

Лампочки не горели. Температура была нормальная. Батареи давали нормальное напряжение.

Но часть из них почему-то решила взять и умереть при разряде в понедельник в этих двух ИБП.

Понедельник
В понедельник я оказался в странной ситуации:
  • Мы не понимали, что случилось. Но поддержка уже ответила клиентам наиболее вероятной версией, что в результате некоторого испорченного телефона стоило нам сильного недопонимания клиентов. Очень упрощая, клиент спросил, есть ли резервирование ИБП. Админ ответил, что нет, ни один ЦОД так не делает. Админ имел в виду ЦОДы TIER-III (T4 так делает) и резервирование 2N по мощности. ИБП должны выдерживать 2 переключения на своих батареях, и общий пул батарей не дублируется практически никогда. Смысл в том, что это именно общий пул, суммарная ёмкость. Она уже содержит резерв. Но из-за непонимания, что каждый имел в виду, клиент решил, что резервирования питания в ЦОДе нет.
  • Я в это время пытался разобраться с поставщиком и достать батареи быстрее.
  • Через несколько часов мы решили, что вместо расследования причин проблем с батареями, сначала надо провести все плановые замены. Поставщик не успевал с повторной поставкой, поэтому мы поехали и купили батареи в магазине как физики.
  • Дальше мы ковырялись с заменами и всё поменяли.
  • Ещё позже приехали батареи от поставщика.
  • До вечера мы разбирались с тем, что происходит.
  • Затем начислили положенные по SLA компенсации за простой тем, кто пострадал.
  • В итоге мы почти не трогали обсуждения, и в публичном поле творилось не самое хорошее.

Главный мой вопрос был — а что именно случилось с батареями? Они не должны были так деградировать. Плановая замена на то и плановая профилактическая, чтобы такого не было. Если бы горели лампы «замените батарею», можно было бы рассуждать про то, что мы не так обслужили ИБП, но смысл профилактической замены — сделать всё так, чтобы эти лампы никогда не загорались.

Первая наша гипотеза, которую поддержали инженеры, — батареи стали хуже. Тут я обосновать пока не могу.

Второй вариант — частые «мигания» питания могли повредить батареи. Но вообще-то они для этого и спроектированы.

Решения мы везде принимали правильные. Да, при аварии в четверг фактически был проведён стресс-тест системы, но мониторинг показывал, что все ИБП работают, ошибок нет. По этой причине не было никакого мотива каким-то образом там искать прямо в четверг эти батарейные блоки на замену, когда мы знали, что они едут. Принимать битые коробки мы точно не должны были.

Непохоже, что проигрывая эту ситуацию ещё раз, мы поступили бы иначе, имея тот же набор исходных данных для решения.

Почему пострадало относительно небольшое количество серверов. Мы применяем шахматную схему подключения, в которой серверы подключаются в таком порядке, чтобы минимизировать количество потенциально страдающих серверов при отключении более чем одного ИБП по любой причине. Ниже пример логики этой схемы. Если бы не она, отключились бы восемь серверов.



Возвращаюсь к вопросу открытости
Если бы мы ничего никому не сказали, ситуация для нас была бы гораздо легче. Время такое, что всё, что угодно, можно свалить на блокировки, санкции и т.п. И даже подсказывать не надо, это вроде как самоочевидная причина, люди сами очень быстро так подумают.

Если бы мы сказали позже на сутки, не было бы слухов и неправильного толкования того, что сказал саппорт. Они отвечали, ещё не до конца поняв, в чём проблема. Можно было не отвечать? Спокойно. Все так делают.

С другой стороны, пострадало 4 сервера в одном из 20 ЦОДов. Но ощущение из-за нашей публичности было такое, как будто авария крупная. И вот здесь главный минус открытости — складывается впечатление, что у нас такое происходит чаще, чем обычно. Так вот, нет. Ломается всё у всех, но если про это не говорить, это незаметно.

Я всё ещё считаю, что нужно держать в курсе всегда и по имеющимся на текущий момент данным. У нас открыты чаты и комментарии везде, есть сообщество клиентов в ТГ. Да, нас больно бьют за каждую проблему, и некоторые вещи эмоционально очень хочется не рассказывать. Это цена открытости.

ruvds.com/ru-rub

10 лет RUVDS в цифрах и 27 фактах

Всем привет! В этом году нам исполнилось 10 лет! Не так много по меркам истории, но Вояджер за это время вон куда улетел. В этой статье будет 27 коротких интересных фактов о том, что произошло за эти годы — уверены, про многое вы даже не знали (и не могли знать).



1. У компании три дня рождения
  • 18 сентября 2015 года был зарегистрирован домен ruvds.com
  • 16 октября 2015 года были прописаны NS-записи и сайт впервые вышел в онлайн
  • 16 декабря 2015 — первый пользователь сервиса!
Первые два мы уже отметили :) А вот с третьим можете нас поздравлять прямо сегодня в комментариях.

2. 315 500 491 секунда аптайма
Мы на связи 10,004 лет. И с каждой секундой значение растёт!

Посчитаем в наших любимых космических масштабах. Voyager-1 (самый быстрый из двух) удаляется от Солнечной системы со скоростью примерно 17 километров в секунду, то есть за время нашего аптайма на одометре «путешественника» набежало 5 365 508 347 км — не парсек и даже не световой год, но всегда надо к чему-то стремиться! Расстояние от Земли до Солнца (1 астрономическая единица) на данный момент 149 597 870,7 км, то есть за время нашей работы далёкий странник прошёл это расстояние 35,85 раз — 17 раз сгонял туда-обратно и сейчас завершает 18-й ;)

3. 1 207 572 созданных виртуальных сервера
Столько серверов было создано за всё время нашего существования на момент написания публикации. Прямо сейчас эта циферка уже выросла — актуальное значение мы выводим в футере нашего сайта:

Если бы каждый сервер был сухой рисинкой весом в 0,03 грамма, то получилось бы скромных 36,227 кг. Но если этот рис сварить (каждая рисинка станет вдвое тяжелее), то полученной массы хватило бы на 3 864 ролла Филадельфия (гугл выдаёт расход в 150 г риса на 8 штук). До задачи про зерно и шахматы ещё далеко, но опять же, есть к чему стремиться. Да и аппетит пусть нагуляется — ниже будет ещё кое-что вкусное.

4. 20 дата-центров
И было это так:
  • 2016 — открыли свой ДЦ Rucloud в Королёве
  • 2017 — Цюрих (Швейцария)
  • 2018 — Лондон, M9 (Москва)
  • 2019 — Франкфурт, Екатеринбург, Казань и Санкт-Петербург
  • 2020 — Останкино (Москва), Амстердам и Новосибирск
  • 2023 — Астана, Алматы, Владивосток, Измир (Турция) + Космический ЦОД RUVDS (спутник)
  • 2024 — Арктический ЦОД (временный))
  • 2025 — Ереван (Армения), Краснодар, Мурманск, Омск и Уфа


Практически про каждую локацию мы писали что-то интересное, но не хочется превращать эту публикацию в подборку ссылок, так что ищите в блоге самостоятельно.

Кстати, совсем скоро — новый спутник-платформа и ЦОД в Антарктиде, stay tuned ;)



5. Суммарное потребление наших серверов — более 2 МВт·ч в сутки
Вроде совсем немного, но в то же время не так уж и мало. Гугл подсказывает интересные аналогии:
  • Примерно столько же потребляет коттеджный посёлок на 60–80 частных домов среднего размера.
  • Примерно столько же вырабатывало бы за день 400–600 (в зависимости от подготовки) человек на велотренажёрах.
  • Можно было бы полностью зарядить ~20–34 тыс. макбуков (Pro/Air), то есть на всех сотрудников Яндекса должно хватить )

6. 8198 физических процессорных ядер
Ядра — чистый изумруд! :)

7. 128 000 Тб оперативки (ОЗУ)
Таком суммарный объём оперативки (ОЗУ) наших серверов. Мы используем надёжную серверную оперативную память DDR4 с частотой 3200 МГц и DDR5.

8. Будни поддержки за 10 лет
Мало приютить у себя каждого клиента — нужно помочь ему в том случае, если у него возникают проблема. Вот несколько цифр из будней нашей технической поддержки:
  • 146 575 тикетов в хелпдеске за 10 лет
  • 657 000 отправленных смс
  • 63 781 принятых звонков
Что касается смс, то в основном речь про сообщения двухфакторной авторизацией — они по 92 символа. 77 — в сообщении об оплате или неоплате, которых тоже хватает. Если посчитать среднее значение в 85 символов, то получим 55 845 000 символов. По неточной информации из сети можно узнать, что в стандартном издании произведения «Война и мир» примерно 700 000 символов с пробелами, то есть за всё время на телефонах наших пользователей суммарно осело около 80 копий издания.

9. ~116 тысяч обращений в онлайн-чате
То есть примерно по 11600 в год или 31 в день. Но, конечно, в разные дни нагрузка может отличаться — например, в дни аварий (а у нас они тоже случаются) бывает нескольких сотен сообщений и до 200 звонков (и около 500 в месяц в спокойное время).

10. 361 статья в справочнике RUVDS
Заходите, читайте и мотайте на ус — там целая база знаний. Если чего-то не хватает — сообщите, добавим или напишем вместе.

11. Более 200 партнёров по партнёрской программе
Всех поимённо не помним, но спасибо каждому из них!
Процент отчислений партнёру со списаний приведённого клиента стартует с 15% и увеличивается по мере роста числа активных серверов привлечённых клиентов и общей заработанной суммы:
  • от 0 активных серверов или заработанных 0 руб. – 15%
  • от 30 активных серверов или заработанных 20 000 руб. – 20%
  • от 60 активных серверов или заработанных 40 000 руб. – 25%

12. 75 590 799 бонусов начислили клиентам
Просто факт с такими вот цифрами
ruvds.com/ru/bonus/
ruvds.com/ru/helpcenter/bonusnaya-programma-ruvds/

13. 3 корпоративных блога
Хабр, извини, но ты у нас не один: мы также ведём блоги на VC и Pikabu. Но, положа руку на сердце, можем уверенно сказать — Хабр любим больше всего.

Несколько достижений блога RUVDS на Хабре:
  • 8 лет на первом месте рейтинга среди всех компаний
  • 4690 публикаций (все с положительным рейтингом), 329 новостей и 58 постов
  • Рейтинга блога в 4137 единиц, абсолютный рекорд площадки
Итоги блога за год в сравнении с предыдущими годами мы традиционно подведём ближе к Новому году.

14. 5200 Хабрабургеров
Помните Хабрабургер?! Вспоминаем, и вкусовые сосочки невольно возбуждаются. По информации от нашего партнёра Burger Heroes, за всё время существования бургера было изготовлено 5200 порций или 2% от объёма продаж сети на тот момент!

Кстати, калорийность бургера была в районе 617 ккал (что в 2+ раза больше, чем у биг-мака). Суммарно имеем дело с 3 208 000 ккал. Если за марафон сжигается примерно 3000 ккал, то наших бургеров хватило бы на 1069 марафонов или на 45 131 километров — достаточно, чтобы пробежаться по экватору (и ещё бы несколько тысяч км осталось на карманные расходы).

А ещё мы были замечены в изготовлении космической еды в рамках наших космических активностей, о которых чуть ниже.

15. Сварили 100 тонн пива Smart admin
«Лёгкий, светлый, ароматный эль с низким уровнем горечи и бархатным обволакивающим вкусом, который отправляет тебя на светлую сторону» — так про нашу коллаборацию с Beer Bros Brewery написано на сервисе UNTAPPD.


Но не все знают, что ещё было несколько тонн Dark admin для фанатов тёмной стороны.


И ещё был совсем уж лимитированный шотландский эль Duke Nukem, созданный в коллаборации с Ричардом Греем (Levelord) по лицензии GearBox — со вкусом копчёного бекона ;)


16. 33 часов
Про этот факт совсем мало кто знает, так как часы были выпущены совсем в небольшом количестве. Часовое производство «Русское Время» помогло нам запечатлеть в металле, стекле и коже наши воспоминания и эмоции от развёртывания нашего оборудования в Арктике.



17. 1 воздушный шар, 1 стратостат и 2 спутника
Сначала батут, потом воздушный шар, потом стратосфера и наконец-то выше облаков, космос! Один спутник был успешно запущен, все материалы и подробности можно найти на отдельном сайте или у нас в блоге.

Второй спутник полетит в космос в конце декабря, на борту которого будут крутые статьи пользователей Хабра, первый космический антивирус от Лаборатории Касперского и кое-что ещё интересное — следите за новостями.

18. 4 хакерских квеста
Шредер для денег, рояль, азот и котики, спутник — ну же, вспоминайте, как не спали вместе с нами и пытали свою удачу и смекалку. Ещё со своей инфраструктурой мы участвовали в Standoff 12 — это, кстати, был первый CTF на спутнике в мире.



Несколько ссылок, чтобы поностальгировать: раз, два, три, четыре, пять и шесть.
Количество участников квестов: 620, 2340, 177, 213 + 15 команд пентестеров общей численностью 100 человек.
Кстати, 0 — столько профессиональнов пентесторов смогли взломать спутник в рамках киберучений Standoff.

19. Провели 3 квиза
В сети бескрайнее множество информации, полезной и бесполезной. Когда знаешь какой-нибудь интересный факт, так и хочется рассказать его кому-то… или усложнить задачу — предложить угадать правильный ответ из нескольких, среди которых невольно хочется добавить каплю юмора. Ну любим мы такое!

Некоторые вопросы в них уже могли потерять актуальность, но всё равно можете попытать свою удачу и любознательность:

20. 3 конкурса лучших статей на Хабре и Космотекст
Три раза мы проводили конкурс лучших статей на Хабре (первый, второй, третий), а совсем недавно завершили Космотекст, в рамках которого отправим в космос несколько десятков отборных статей с Хабра.


21. Три раза поддержали Технотекст
Сами мы в нём тоже участвуем и даже иногда занимаем призовые места — по оценкам других членов жюри.
Кстати, совсем скоро вроде как стартует Технотекст-8 — восьмой конкурс технических статей Хабра, который мы, забегая вперёд, в очередной раз планируем поддержать классными призами и помощью в жюри. Попытаем удачу и в этот раз!

22. Ачивки
Не стыдно достать парадную одежду со следующими медальками:
  • Мировой рекорд — за прыжок из стратосферы, подробнее тут
  • Разместили первый в истории сайт в космосе
  • Первый в мире CTF в космосе
  • «Лучший блог о системном администрировании» от Хабра в 2021 году
  • Несколько побед в «Технотекстах» разных лет
  • 1 патент на ПО — у нас там собственные сетевые драйверы для повышения эффективности распределения каналов связи между пользователями, драйверы сертифицированы Microsoft для Hyper-V. Есть регистрация в Федеральном реестре интеллектуальной собственности.
  • Первые в России застраховали свою ответственность перед третьими лицами в AIG за несанкционированное публичное раскрытие персональных данных и корпоративной информации — это случилось ещё в 2017 году.
Также есть 4 награды от ЦОДЫ.рф:
  • «Креатив года» в 2021
  • «Хостер года» в 2023
  • «Человек года» в 2024
  • «Креатив года» в 2025
Бережно храним и планируем бороться за новые. Спасибо всем, кто нас поддерживает!

23. Среди лиц бренда RUVDS есть 2 настоящих космонавта
Вы их наверняка знаете и уже что-то читали про них:
  • Михаил Корниенко — Герой России, лётчик-космонавт; пребывание в космосе — 516 дней 10 часов и 1 минута
  • Александр Лазуткин — герой России, лётчик-космонавт, бортинженер орбитальной станции «МИР»; Пребывание в космосе — 184 дня 22 часа и 7 минут


24. 2 совместных игры
Совместно с ветераном игровой индустрии, дизайнером уровней культового Duke Nukem — Ричарда Грея, мы сделали две игры
Да, это далеко не Red Dead Redemption, но всем иногда хочется позалипать в каком-нибудь тайм-киллере (а на момент запуска можно было ещё и выиграть ценные призы).

25. 1 битва роботов-хоккеистов
Поучаствовали и в такой забаве :) О том, как готовили хоккеистов, рассказывали в отдельной публикации.


26. 1 регата
Иногда нужно выдернуть шнур выдавить стекло закрыть ноутбук, выключить телефон и выбраться куда-то на природу. В таком формате нам больше всего запомнилась регата, гонка парусных судов. 400 участников, 45 яхт и 5 дней гонки под парусом — травили и набивали как могли.



27. Стали членом Ассоциации участников отрасли ЦОД
Этим летом мы стали 50-ми участниками ассоциации, а что это и зачем вкратце рассказываем тут.

Возможно, кто-то прочитал всё это и подумал, что мы участвуем вообще во всём :) И отчасти будет прав: мы любим совмещать полезное (работу) с приятным (развлечения), потому что только так можно любить то, что делаешь. У нас полно амбициозных планов и целей, а также мы как никогда открыты к новым интересным партнёрствам и проектам — пишите нам.

Надеемся, вам было интересно. Начинаем второй десяток — спасибо, что вы с нами!