Рейтинг
0.00

RUvds Хостинг

2 читателя, 80 топиков

RUVDS почти на 40% увеличил выручку по итогам 2025 года



Выручка хостинг-провайдера VPS серверов RUVDS по итогам 2025 года превысила отметку в 228,5 млн рублей. Это значение, на 38,5% превышающее данные за 2024 год, когда соответствующий показатель ограничивался в пределах 165 млн рублей.

Позитивная динамика в работе хостинг-провайдера обусловлена как плановым обновлением оборудования и повышением качества сервиса, так и вводом в строй новых площадок с вычислительными мощностями в городах России и ближнего зарубежья. В частности, в период с 1 января по 31 декабря 2025 года компания ввела в работу оборудование в Ереване, Краснодаре, Мурманске, Омске и Уфе.

«Выручка – ключевой показатель любой компании, и нам отрадно, что показатели отражают верность принимаемых управленческих решений. Позитивная динамика прослеживается на всем периоде работы: мы стабильны и демонстрируем рост в каждом из кварталов. К слову, в 4-м квартале речь идёт о сумме в 63,7 млн рублей – увеличение с аналогичным периодом 2024 года составило 28,3%. Мы продолжим работать в выбранном направлении, не забывая при этом о масштабировании и внедрении новых опций для наших клиентов», – подчеркнул гендиректор RUVDS Никита Цаплин.

Выручка компании за первое полугодие составила 121 млн рублей против 80,2 млн годом ранее, а за второе полугодие – 114,3 млн против 91,2 млн. По состоянию на февраль 2026 года в активе RUVDS числятся 20 площадок, в том числе восемь, работающих в странах ближнего и дальнего зарубежья.

ruvds.com

Барыжный флёр оперативки: что за дичь происходит сейчас на рынке



У нас ещё есть некоторое количество остатков с прошлого кризиса железа


Из-за того, что все хотели ролик с матерящимся бобром, танцующим Мадуро или хотя бы переделать индуса в красивую девушку, у нас тут бум AI-моделей. Эти модели работают на физическом железе и физическом электричестве. Железо, к сожалению, закончилось раньше, чем электричество.

Первыми пострадали не процессоры, как мы ждали, и не видеокарты, как мы уже видели, а банально оперативная память. И отчасти — SSD.

Рынок снова сошёл с ума и стал диким.

Я узнаю знакомые барыжные шаблоны ещё с эпопеи с майнингом и повышением цен на видеокарты. Вот смотрите, на момент публикации серверная планка 96 Гб DDR 5 стоила:
  • В Регарде «чисто», с документами и гарантией — 410 тысяч рублей. Для контекста: летом 2025 года, всего полгода назад, эта же позиция здесь же стоила около 90–100 тысяч рублей.
  • Но её можно купить на сером рынке у барыг. Иногда они мимикрируют под приличные компании, у них безнал с НДС, но цена плавает весь день, как биржевая котировка. Утром тебе говорят: «330 тысяч». К обеду партия может исчезнуть или стоить уже 350.
  • Есть совсем уж барыги с Горбушки и Савёлки — без документов и оплата только наличными, а получение планки — в подворотне. Цена вопроса — 250–280 тысяч рублей.

Но купить сложно. Продавец ведёт переговоры одновременно с десятком покупателей. Ты пишешь: «Возьму 20 штук». Он отвечает: «Есть 10». Пока ты едешь с деньгами, кто-то другой пять уже забрал. Никаких гарантий до момента передачи товара из рук в руки. Это не бизнес-процесс, это квест.

Это не временный всплеск и не сезонное колебание.

Давайте немного разберёмся, что же случилось.
  • TrendForce DRAM Market Report 2025–2026
  • PCPartPicker Price Trends (May–Dec 2025)
  • IDC Worldwide Quarterly Server Tracker
  • Gartner Semiconductor Forecast
  • ComputerBase & Tom's Hardware analytical summaries (GPU Crisis 2017–2022)

Рынок сорвался с цепи
Всё началось незаметно ещё в начале осени. Где-то в октябре наш поставщик железа по России написал, что хорошо бы зафиксировать объёмы поставок на следующий год. Мы не придали этому значения: обычно это часть переговоров. Он начал торопить, и это уже немного раздражало, но всё ещё не выбивалось за ситуацию «с нами агрессивно торгуются». Потом он начал давить ещё сильнее, и мы спросили, а почему он так волнуется.

Он объяснил, что за те четыре дня, пока мы переписывались от первого «Пацаны, определяйтесь уже там быстрее» до момента, когда мы спросили, а чего он такой нервный, цены выросли на 10%.

Нас это снова не особо побеспокоило, потому что тогда оперативка ввозилась через страны СНГ, и в Казахстане как раз были проблемы с логистикой: заторы на границах и так далее.

Мы списали это на волатильность курса и пробки. Казалось, это обычная осенняя история.

Оказалось, что зря мы так подумали.

К декабрю ситуация превратилась в абсурд. Мы искали серверную память высокой плотности — DDR5, 128 ГБ, частота — 5600 или 6400.

Выяснилось, что это не чисто российская проблема с логистикой и санкциями.

Вот данные TrendForce: цены на оперативную память выросли на 171% год к году. Обещают рост ещё на 90–95% в первом квартале 2026-го. Это крупнейший квартальный скачок за всю историю наблюдений. Такого не было ни в 90-е, ни в кризис доткомов.

Данные PCPartPicker (розница, май → декабрь-2025):
  • DDR4-3200 16GB: рост с $50 до $120 (+140%).
  • DDR5-6000 32GB: рост с $120 до $410 (+242%).
  • DDR5-6000 64GB: рост с $210 до $750 (+257%).

В Японии, в Акихабаре, магазины Tsukumo и Sofmap ввели лимиты на продажу памяти в одни руки. В США сеть Micro Center просто убрала ценники с полок с DDR5, предлагая уточнять цену у консультанта — классический признак гиперинфляции. Ноутбуки Framework перестал продавать модули памяти отдельно, потому что к ним не покупали самих ноутбуков. На eBay перекупы накручивают 150–250%, и люди покупают, потому что больше негде. CyberPowerPC, крупный сборщик компьютеров, официально объявила о повышении цен на свои системы, сославшись на удорожание RAM на 500%.

У нас прямо классический барыжный флёр. Можно поехать на Горбушку с сумкой нала и по дороге узнать, что партия ушла. Пишут: «Пришло транзитом, сразу ушло, сейчас есть остатки, но дороже».

Можно выгрызать куски партий: тут 10 планок, тут — ещё четыре, а тут — восемь. Все по разным ценам. Все прыгают. Больше партия — дороже планка.

Ещё есть возможность вывезти из Дубая. Там память стоит на 30–40% дешевле (около 180000 рублей в пересчёте за ту планку, что у нас стоит 250000). Но там проблема с лимитами наличных — 10 тысяч. Это всего 10–15 планок. Разве что сразу ехать автобусом админов.

Ну и я знаю людей, кто ездил в Минск, где процентов на 10 дешевле. Один тоже по дороге узнал, что партии уже нет. Для барыг сейчас важно продать в первые руки — никаких долговременных договоров нет.

DDR4 стала дороже DDR5
А потом случилось самое смешное — инверсия поколений. В смысле, что предыдущее поколение железа стало дороже текущего. Этого в нормальной экономике вообще быть не должно.

Всё это потому, что ChangXin Memory Technologies переключился на дефицитную DDR5. Дешёвая память исчезла моментально. А у огромного количества компаний серверный парк построен с DDR4. Раньше можно было просто докупить память и продлить жизнь сервера на пару лет. Теперь дешевле (условно) выкинуть старый сервер и купить новый на DDR5, но и такой стоит космос.

Тут же ожил вторичный рынок: из старых серверов выдирают память DDR4 и продают её отдельно, потому что внезапно она стала золотым активом.

И, прикиньте, подорожала даже б/у DDR3. Даже до неё дошло дело!

Но почему?
  • AI выгребает всё. OpenAI подписала соглашение с Samsung и SK Hynix (проект Stargate) на выкуп 900000 пластин DRAM в месяц. Это, на секундочку, около 40% всего мирового производства DRAM на текущий момент. Два клиента забирают почти половину мирового запаса.
  • Для видеокарт NVIDIA (H100, H200, Blackwell) нужна специальная память — High Bandwidth Memory. Она сложнее в производстве. Каждый бит HBM требует в три-четыре раза больше места на кремниевой пластине, чем обычная DDR5. При этом выход годных чипов у HBM низкий — около 50–60%. Чтобы произвести одну планку HBM, заводу нужно пожертвовать производством десятка планок обычной памяти. Маржа на HBM выше, поэтому Samsung, SK Hynix и Micron массово перепрофилируют линии. Обычная память им просто неинтересна. Доля HBM уже съела ~30% всех производственных мощностей.
  • Глядя на эту историю, производители, похоже, решили доформировать дефицит. А что? Это же легко, можно ещё разогнать цены. В Samsung перешли на ежемесячное ценообразование. Это сигнал рынку: «Мы не знаем, что будет завтра, но точно будет дороже». В Micron 3 декабря 2025 года объявили о выходе из потребительского бизнеса, А ведь они контролировали ~20% рынка.
  • Ещё есть история в США. Анонсированные тарифы в 25 и 100% на импортные чипы (привет, администрация Трампа!) стали добивающей новостью. Сборщики серверов (Dell, HP, Supermicro) начали скупать всё, что есть на складах, чтобы успеть до введения пошлин.
  • Если вам мало — ещё есть Тайвань. А Тайвань трясёт: три землетрясения за полтора года (апрель-2024, январь-2025, декабрь-2025). Каждое событие — это остановка линий. Потери TSMC от одного толчка оценивались в $92 млн. Micron теряла 4–6% квартальных поставок. Кварцевые трубы в печах лопаются, калибровка сбивается, производство падает.

А ещё Samsung и SK Hynix скоординированно сократили производство NAND более чем на 10%, чтобы удержать цены. В итоге NVMe-диски кратно подорожали вслед за оперативкой.

Я это уже наблюдал на видеокартах
Те, кто пытался собрать игровой компьютер или ферму в 2017-м или 2021-м, сейчас испытывают мощнейшее дежавю. Я вот, например, испытываю. Думаю, что ситуация с оперативкой — это прямо то же самое.

Первая волна была в 2017–2018 годах. Биткоин впервые пробил 19 тысяч долларов. Видеокарты AMD RX 580 продавались в три раза дороже стартовой цены. Точнее, не продавались, потому что просто пропали из магазинов. Nvidia тогда пыталась ограничивать продажи ограничением «две в руки», как сейчас японцы лимитируют оперативку.

Вторая волна пришла в 2020–2021 годах. Сошлось всё: ковид, сидение дома, дефицит чипов и взлёт Ethereum. В апреле-мае 2021-го цены дошли до 329% роста на RTX 3080, 230% — на RTX 3060 Ti.

Использовали ботов, чтобы выкупать партии за секунды. Сейчас барыги с Савёловского делают то же самое с серверной памятью: выкупают любые стоки, чтобы продать страждущим за нал с наценкой в 50%.

Рынок видеокарт вылечился только после перехода Ethereum на Proof of Stake 15 сентября 2022 года. Майнинг на видеокартах умер в один день. Плюс там же были падения криптобирж FTX и экосистемы Terra/Luna.

Цены упали до изначальных (с учётом инфляции). Не сразу — это шло восемь-девять месяцев. На вторичный рынок пошли ужаренные карты из майнинг-ферм. В Китае их продавали на вес.

У нас было несколько GPU-серверов для архитекторов и других графических нагрузок, и мы знали, что наши карты, купленные за 60 тысяч, стоили на Авито 20–30 тысяч.

Что будет с оперативкой?
Стоит ли ждать, что пузырь лопнет и цены вернутся к комфортным значениям лета 2025 года?

Нет.

У кризиса оперативной памяти нет события, которое его остановит. AI вроде бы не собирается прекращать обучаться или останавливать инференс.

Чтобы цены рухнули, должен лопнуть пузырь искусственного интеллекта. Многие говорят, что AI — это хайп и скоро инвесторы разочаруются. Признаки этого есть. Инвесторы начинают задавать неудобные вопросы, а вместо прибыли им показывают красивые видео и то, как ChatGPT пишет стишки. Экономический эффект от внедрения ИИ пока несопоставим с затратами на железо.

Дальше либо это изменится, либо наступит «зима AI». Но даже если она наступит, инерция всё равно будет огромной. OpenAI, Google, Microsoft и другие запрещённые в России организации уже оплатили квоты на производство чипов на годы вперёд. Там контракты, которые нельзя взять и просто прекратить. К тому же видеокарты были нужны только майнерам и геймерам, а память нужна всем. Если отвалится AI, то останется дефицит в других сегментах.

Новые фабрики Samsung P4 и SK Hynix M15X начнут промышленный выпуск не раньше 2028 года. До этого времени физического увеличения объёмов ждать особо не стоит.

Gartner прогнозирует рост цен на DRAM в 2026 году ещё на 47%. Counterpoint прогнозирует: цена на серверные модули 64GB DDR5 RDIMM может удвоиться к концу 2026-го. SK Hynix прямо заявляет: все мощности на 2026 год «фактически распроданы».

Представитель Kingston Кэмерон Крэндалл высказался предельно честно:

«Если планируете апгрейд, то делайте это сейчас. Через 30 дней будет дороже, и ещё через 30 дней — тоже».

Что мы делаем тут в России
Теперь — о том, как мы принимаем решения про закупку железа.

Если что, то мы не торопимся, и закупаем по обычному графику.

Допустим, что вы оптимист. Вы верите, что рынок перегрет и вот-вот скорректируется на 30–40%. Здесь есть валютный риск. Условно сейчас рубль держится в коридоре 70–90 за доллар.

Если через полгода мировые цены на память упадут на 40%, а рубль ослабнет к доллару на те же 40% (что вполне реально при возобновлении активного импорта или изменении сальдо торгового баланса) — смысла дёргаться нет.

Можно получить и суперкомбо: дорогой доллар + дорогая память.

Мы находимся в ситуации, когда плохих решений много.

Если мы сейчас остановимся в закупках железа, то проиграем долю рынка. В смысле клиентов не потеряем, но рынок растёт, и не расти вместе с ним — значит, терять долю. А наша конечная задача — захватить мир, а не сэкономить.

Если закупаться на всё — можно знатно рискнуть: тоже не вариант.

Превращаться в «дойную корову» — выжимать из старого железа всё до последней капли, пока оно не умрёт, — тоже путь к банкротству. Железо быстро станет медленным для клиентов, дороже в обслуживании, накопит проблемы, клиенты уйдут, а восстановиться будет нечем. В хостинге и облаках долю рынка вернуть почти невозможно: клиент, ушедший на чужие мощности, редко возвращается обратно.

Удорожание сервера на 30% увеличивает его окупаемость на те же 30–40%. Единственный способ сохранить рентабельность — переложить эти расходы на клиента. Рынок растёт, спрос на вычислительные мощности (даже без учёта AI) — огромный. В России у нас давно (с 2022 года) дефицит стоек в ЦОДах: сервер физически некуда поставить.

То есть можно или поднять цены клиентам, или потерпеть и работать с меньшей маржинальностью. Мы, наверное, выберем и то и другое.

ruvds.com/ru-rub

С Новым годом!



Вот и прошли очередные двенадцать месяцев, и мы снова поздравляем наших коллег, клиентов и партнеров – друзей, с которыми мы имели честь пронестись через ритмичный 2025-й.

В нём было многое. В том числе и то, что хочется забрать с собой в будущее. Весь этот год мы открывали новые площадки, проектировали спутники, запускали ЦОД в Заполярье и даже добрались до Антарктиды, воплощая то, что ещё совсем недавно казалось лишь планами на перспективу. Всё это стало возможным благодаря вам – людям, с которыми мы привыкли делиться всем. В том числе – новогодним настроением, тем самым чувством праздника, которое, посетив нас однажды, согревает ещё долгие месяцы.

Пусть новый 2026-й станет не просто ярким, а прорывным – годом, когда накопленный опыт, знания и силы позволят совершить невозможное, застолбив места там, куда ещё вчера многие боялись даже смотреть. Пусть планы становятся явью, удача сопутствует всем начинаниям, а успех занимает место постоянного спутника ваших будней. В конце концов, мы к этому шли, мы этого достойны, и мы этого заслужили!

С праздником!

ruvds.com

Я наконец-то понял, как открытость может помешать — и отчёт об аварии





В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали.

Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии.
Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы.

Так вот.

Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр.
Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным.

Наверное.

Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

Сбои случаются у всех, но не все про них рассказывают
До понедельника было другое событие.

Место действия — наш ЦОД в Королёве. Он находится на территории особо охраняемого завода. Завод, как и ЦОД, запитан от двух независимых подстанций + у нас есть ИБП, дизели и запас топлива + договор на поставки топлива и аренду дополнительного резервного дизеля.
Тестовые прогоны дизелей случаются регулярно как минимум на смене топлива с летнего на зимнее.

Подстанции в последние годы нестабильны. Там в 2023-м уже был ремонт, в результате которого электрики увидели летающие дверцы шкафа. Вот отчёт по этой истории. На этот раз случилось что-то новое, и обе подстанции вышли из строя. На этот раз нам не сообщали никаких деталей, то есть спектр причин мог быть очень широк: от банального человеческого фактора до диверсий.

Для нас важно то, что обе подстанции перестали подавать электричество в позапрошлый четверг.

ЦОД в Королёве переключился на дизель и почти 4 часа так работал с перерывами на попытки включения линий подстанций несколько раз. Подачу питания восстанавливали несколько раз, мы выжидали, переходили на городской ввод, и несколько раз происходило повторное отключение и снова переход на дизель.

Примерно через 4 часа подача питания от подстанций была восстановлена и оставалась стабильной. Авария закончилась.

Для абсолютного большинства клиентов ЦОДа все эти действия прошли незаметно. Сеть сохранялась, всё оборудование сохраняло работоспособность, так как каждый сервер имеет два блока питания, и они подключены к разным ИБП. Были некоторые проблемы с сетевым оборудованием в это время, которое потребовало перезагрузку коммутаторов по итогу, но в целом эту ситуацию отработали штатно.

В чём прикол с ИБП при «миганиях» света
Важно то, что дизели не стартуют мгновенно. Пока они заводятся, серверы и коммутаторы живут на
  • ИБП — старых добрых батареях. Что произошло:
  • При первом отключении батареи частично разрядились, ЦОД перешёл на дизель.
  • Батареи начали заряжаться от дизеля.
  • Они не успели полностью зарядиться, ЦОД перешёл на городской ввод.
  • Ещё 10 минут они заряжались от города.
  • Затем снова переход на дизели, то есть они разряжаются до примерно 20–30% остаточной ёмкости, потому что не успели зарядиться полностью прошлый раз.

Если свет моргнёт ещё раз, надо либо сутки стоять на дизеле и заряжать батареи, либо рисковать переключением с возможностью не переключиться обратно. Стандартная процедура — стоять на дизеле до безопасного заряда батарей.

Ещё несколько раз свет «мигал», когда питание прерывалось на несколько секунд, без переключения на дизели.

В прошлый понедельник ситуация повторилась
Питание с двух — напомню, независимых с независимыми маршрутами — подстанций пропало на 20 минут.

И вот в этот момент вылетело два ИБП.

Это вызвало отключение четырёх серверов, которые были одновременно подключены к вылетевшим батареям. Остальным серверам повезло больше, у каждого был как минимум один ИБП.

Почему всего четыре, а не полстойки? Потому что эта стойка неполная.

ИБП при такой нагрузке вылетать не должны.

Но!

Во-первых, мы планировали плановую замену батарей в ИБП как раз в начале декабря (напоминаю, авария — уже почти середина декабря). 2 декабря мы оплатили счета за них, и они должны были приехать 3–5 декабря.

Они действительно приехали к поставщику, но коробки оказались битые.

Поставщик отказался поставлять батареи, и был на 100% прав. Если логисты побили коробку — это всегда возврат и тщательная диагностика, возможно, списание.

То есть ровно неделю мы стояли с несколькими батареями за сроком плановой замены.
Срок плановой замены подбирается с запасом. Это не так, что ровно день в день батарея умирает.

Диагностика у нас постоянная, в помещении сверяется температура (она около 18–19 градусов Цельсия), плюс мы смотрим напряжение. У самих ИБП тоже есть собственные средства диагностики, и они зажигают лампочки, если нужна замена батарей.

Лампочки не горели. Температура была нормальная. Батареи давали нормальное напряжение.

Но часть из них почему-то решила взять и умереть при разряде в понедельник в этих двух ИБП.

Понедельник
В понедельник я оказался в странной ситуации:
  • Мы не понимали, что случилось. Но поддержка уже ответила клиентам наиболее вероятной версией, что в результате некоторого испорченного телефона стоило нам сильного недопонимания клиентов. Очень упрощая, клиент спросил, есть ли резервирование ИБП. Админ ответил, что нет, ни один ЦОД так не делает. Админ имел в виду ЦОДы TIER-III (T4 так делает) и резервирование 2N по мощности. ИБП должны выдерживать 2 переключения на своих батареях, и общий пул батарей не дублируется практически никогда. Смысл в том, что это именно общий пул, суммарная ёмкость. Она уже содержит резерв. Но из-за непонимания, что каждый имел в виду, клиент решил, что резервирования питания в ЦОДе нет.
  • Я в это время пытался разобраться с поставщиком и достать батареи быстрее.
  • Через несколько часов мы решили, что вместо расследования причин проблем с батареями, сначала надо провести все плановые замены. Поставщик не успевал с повторной поставкой, поэтому мы поехали и купили батареи в магазине как физики.
  • Дальше мы ковырялись с заменами и всё поменяли.
  • Ещё позже приехали батареи от поставщика.
  • До вечера мы разбирались с тем, что происходит.
  • Затем начислили положенные по SLA компенсации за простой тем, кто пострадал.
  • В итоге мы почти не трогали обсуждения, и в публичном поле творилось не самое хорошее.

Главный мой вопрос был — а что именно случилось с батареями? Они не должны были так деградировать. Плановая замена на то и плановая профилактическая, чтобы такого не было. Если бы горели лампы «замените батарею», можно было бы рассуждать про то, что мы не так обслужили ИБП, но смысл профилактической замены — сделать всё так, чтобы эти лампы никогда не загорались.

Первая наша гипотеза, которую поддержали инженеры, — батареи стали хуже. Тут я обосновать пока не могу.

Второй вариант — частые «мигания» питания могли повредить батареи. Но вообще-то они для этого и спроектированы.

Решения мы везде принимали правильные. Да, при аварии в четверг фактически был проведён стресс-тест системы, но мониторинг показывал, что все ИБП работают, ошибок нет. По этой причине не было никакого мотива каким-то образом там искать прямо в четверг эти батарейные блоки на замену, когда мы знали, что они едут. Принимать битые коробки мы точно не должны были.

Непохоже, что проигрывая эту ситуацию ещё раз, мы поступили бы иначе, имея тот же набор исходных данных для решения.

Почему пострадало относительно небольшое количество серверов. Мы применяем шахматную схему подключения, в которой серверы подключаются в таком порядке, чтобы минимизировать количество потенциально страдающих серверов при отключении более чем одного ИБП по любой причине. Ниже пример логики этой схемы. Если бы не она, отключились бы восемь серверов.



Возвращаюсь к вопросу открытости
Если бы мы ничего никому не сказали, ситуация для нас была бы гораздо легче. Время такое, что всё, что угодно, можно свалить на блокировки, санкции и т.п. И даже подсказывать не надо, это вроде как самоочевидная причина, люди сами очень быстро так подумают.

Если бы мы сказали позже на сутки, не было бы слухов и неправильного толкования того, что сказал саппорт. Они отвечали, ещё не до конца поняв, в чём проблема. Можно было не отвечать? Спокойно. Все так делают.

С другой стороны, пострадало 4 сервера в одном из 20 ЦОДов. Но ощущение из-за нашей публичности было такое, как будто авария крупная. И вот здесь главный минус открытости — складывается впечатление, что у нас такое происходит чаще, чем обычно. Так вот, нет. Ломается всё у всех, но если про это не говорить, это незаметно.

Я всё ещё считаю, что нужно держать в курсе всегда и по имеющимся на текущий момент данным. У нас открыты чаты и комментарии везде, есть сообщество клиентов в ТГ. Да, нас больно бьют за каждую проблему, и некоторые вещи эмоционально очень хочется не рассказывать. Это цена открытости.

ruvds.com/ru-rub

10 лет RUVDS в цифрах и 27 фактах

Всем привет! В этом году нам исполнилось 10 лет! Не так много по меркам истории, но Вояджер за это время вон куда улетел. В этой статье будет 27 коротких интересных фактов о том, что произошло за эти годы — уверены, про многое вы даже не знали (и не могли знать).



1. У компании три дня рождения
  • 18 сентября 2015 года был зарегистрирован домен ruvds.com
  • 16 октября 2015 года были прописаны NS-записи и сайт впервые вышел в онлайн
  • 16 декабря 2015 — первый пользователь сервиса!
Первые два мы уже отметили :) А вот с третьим можете нас поздравлять прямо сегодня в комментариях.

2. 315 500 491 секунда аптайма
Мы на связи 10,004 лет. И с каждой секундой значение растёт!

Посчитаем в наших любимых космических масштабах. Voyager-1 (самый быстрый из двух) удаляется от Солнечной системы со скоростью примерно 17 километров в секунду, то есть за время нашего аптайма на одометре «путешественника» набежало 5 365 508 347 км — не парсек и даже не световой год, но всегда надо к чему-то стремиться! Расстояние от Земли до Солнца (1 астрономическая единица) на данный момент 149 597 870,7 км, то есть за время нашей работы далёкий странник прошёл это расстояние 35,85 раз — 17 раз сгонял туда-обратно и сейчас завершает 18-й ;)

3. 1 207 572 созданных виртуальных сервера
Столько серверов было создано за всё время нашего существования на момент написания публикации. Прямо сейчас эта циферка уже выросла — актуальное значение мы выводим в футере нашего сайта:

Если бы каждый сервер был сухой рисинкой весом в 0,03 грамма, то получилось бы скромных 36,227 кг. Но если этот рис сварить (каждая рисинка станет вдвое тяжелее), то полученной массы хватило бы на 3 864 ролла Филадельфия (гугл выдаёт расход в 150 г риса на 8 штук). До задачи про зерно и шахматы ещё далеко, но опять же, есть к чему стремиться. Да и аппетит пусть нагуляется — ниже будет ещё кое-что вкусное.

4. 20 дата-центров
И было это так:
  • 2016 — открыли свой ДЦ Rucloud в Королёве
  • 2017 — Цюрих (Швейцария)
  • 2018 — Лондон, M9 (Москва)
  • 2019 — Франкфурт, Екатеринбург, Казань и Санкт-Петербург
  • 2020 — Останкино (Москва), Амстердам и Новосибирск
  • 2023 — Астана, Алматы, Владивосток, Измир (Турция) + Космический ЦОД RUVDS (спутник)
  • 2024 — Арктический ЦОД (временный))
  • 2025 — Ереван (Армения), Краснодар, Мурманск, Омск и Уфа


Практически про каждую локацию мы писали что-то интересное, но не хочется превращать эту публикацию в подборку ссылок, так что ищите в блоге самостоятельно.

Кстати, совсем скоро — новый спутник-платформа и ЦОД в Антарктиде, stay tuned ;)



5. Суммарное потребление наших серверов — более 2 МВт·ч в сутки
Вроде совсем немного, но в то же время не так уж и мало. Гугл подсказывает интересные аналогии:
  • Примерно столько же потребляет коттеджный посёлок на 60–80 частных домов среднего размера.
  • Примерно столько же вырабатывало бы за день 400–600 (в зависимости от подготовки) человек на велотренажёрах.
  • Можно было бы полностью зарядить ~20–34 тыс. макбуков (Pro/Air), то есть на всех сотрудников Яндекса должно хватить )

6. 8198 физических процессорных ядер
Ядра — чистый изумруд! :)

7. 128 000 Тб оперативки (ОЗУ)
Таком суммарный объём оперативки (ОЗУ) наших серверов. Мы используем надёжную серверную оперативную память DDR4 с частотой 3200 МГц и DDR5.

8. Будни поддержки за 10 лет
Мало приютить у себя каждого клиента — нужно помочь ему в том случае, если у него возникают проблема. Вот несколько цифр из будней нашей технической поддержки:
  • 146 575 тикетов в хелпдеске за 10 лет
  • 657 000 отправленных смс
  • 63 781 принятых звонков
Что касается смс, то в основном речь про сообщения двухфакторной авторизацией — они по 92 символа. 77 — в сообщении об оплате или неоплате, которых тоже хватает. Если посчитать среднее значение в 85 символов, то получим 55 845 000 символов. По неточной информации из сети можно узнать, что в стандартном издании произведения «Война и мир» примерно 700 000 символов с пробелами, то есть за всё время на телефонах наших пользователей суммарно осело около 80 копий издания.

9. ~116 тысяч обращений в онлайн-чате
То есть примерно по 11600 в год или 31 в день. Но, конечно, в разные дни нагрузка может отличаться — например, в дни аварий (а у нас они тоже случаются) бывает нескольких сотен сообщений и до 200 звонков (и около 500 в месяц в спокойное время).

10. 361 статья в справочнике RUVDS
Заходите, читайте и мотайте на ус — там целая база знаний. Если чего-то не хватает — сообщите, добавим или напишем вместе.

11. Более 200 партнёров по партнёрской программе
Всех поимённо не помним, но спасибо каждому из них!
Процент отчислений партнёру со списаний приведённого клиента стартует с 15% и увеличивается по мере роста числа активных серверов привлечённых клиентов и общей заработанной суммы:
  • от 0 активных серверов или заработанных 0 руб. – 15%
  • от 30 активных серверов или заработанных 20 000 руб. – 20%
  • от 60 активных серверов или заработанных 40 000 руб. – 25%

12. 75 590 799 бонусов начислили клиентам
Просто факт с такими вот цифрами
ruvds.com/ru/bonus/
ruvds.com/ru/helpcenter/bonusnaya-programma-ruvds/

13. 3 корпоративных блога
Хабр, извини, но ты у нас не один: мы также ведём блоги на VC и Pikabu. Но, положа руку на сердце, можем уверенно сказать — Хабр любим больше всего.

Несколько достижений блога RUVDS на Хабре:
  • 8 лет на первом месте рейтинга среди всех компаний
  • 4690 публикаций (все с положительным рейтингом), 329 новостей и 58 постов
  • Рейтинга блога в 4137 единиц, абсолютный рекорд площадки
Итоги блога за год в сравнении с предыдущими годами мы традиционно подведём ближе к Новому году.

14. 5200 Хабрабургеров
Помните Хабрабургер?! Вспоминаем, и вкусовые сосочки невольно возбуждаются. По информации от нашего партнёра Burger Heroes, за всё время существования бургера было изготовлено 5200 порций или 2% от объёма продаж сети на тот момент!

Кстати, калорийность бургера была в районе 617 ккал (что в 2+ раза больше, чем у биг-мака). Суммарно имеем дело с 3 208 000 ккал. Если за марафон сжигается примерно 3000 ккал, то наших бургеров хватило бы на 1069 марафонов или на 45 131 километров — достаточно, чтобы пробежаться по экватору (и ещё бы несколько тысяч км осталось на карманные расходы).

А ещё мы были замечены в изготовлении космической еды в рамках наших космических активностей, о которых чуть ниже.

15. Сварили 100 тонн пива Smart admin
«Лёгкий, светлый, ароматный эль с низким уровнем горечи и бархатным обволакивающим вкусом, который отправляет тебя на светлую сторону» — так про нашу коллаборацию с Beer Bros Brewery написано на сервисе UNTAPPD.


Но не все знают, что ещё было несколько тонн Dark admin для фанатов тёмной стороны.


И ещё был совсем уж лимитированный шотландский эль Duke Nukem, созданный в коллаборации с Ричардом Греем (Levelord) по лицензии GearBox — со вкусом копчёного бекона ;)


16. 33 часов
Про этот факт совсем мало кто знает, так как часы были выпущены совсем в небольшом количестве. Часовое производство «Русское Время» помогло нам запечатлеть в металле, стекле и коже наши воспоминания и эмоции от развёртывания нашего оборудования в Арктике.



17. 1 воздушный шар, 1 стратостат и 2 спутника
Сначала батут, потом воздушный шар, потом стратосфера и наконец-то выше облаков, космос! Один спутник был успешно запущен, все материалы и подробности можно найти на отдельном сайте или у нас в блоге.

Второй спутник полетит в космос в конце декабря, на борту которого будут крутые статьи пользователей Хабра, первый космический антивирус от Лаборатории Касперского и кое-что ещё интересное — следите за новостями.

18. 4 хакерских квеста
Шредер для денег, рояль, азот и котики, спутник — ну же, вспоминайте, как не спали вместе с нами и пытали свою удачу и смекалку. Ещё со своей инфраструктурой мы участвовали в Standoff 12 — это, кстати, был первый CTF на спутнике в мире.



Несколько ссылок, чтобы поностальгировать: раз, два, три, четыре, пять и шесть.
Количество участников квестов: 620, 2340, 177, 213 + 15 команд пентестеров общей численностью 100 человек.
Кстати, 0 — столько профессиональнов пентесторов смогли взломать спутник в рамках киберучений Standoff.

19. Провели 3 квиза
В сети бескрайнее множество информации, полезной и бесполезной. Когда знаешь какой-нибудь интересный факт, так и хочется рассказать его кому-то… или усложнить задачу — предложить угадать правильный ответ из нескольких, среди которых невольно хочется добавить каплю юмора. Ну любим мы такое!

Некоторые вопросы в них уже могли потерять актуальность, но всё равно можете попытать свою удачу и любознательность:

20. 3 конкурса лучших статей на Хабре и Космотекст
Три раза мы проводили конкурс лучших статей на Хабре (первый, второй, третий), а совсем недавно завершили Космотекст, в рамках которого отправим в космос несколько десятков отборных статей с Хабра.


21. Три раза поддержали Технотекст
Сами мы в нём тоже участвуем и даже иногда занимаем призовые места — по оценкам других членов жюри.
Кстати, совсем скоро вроде как стартует Технотекст-8 — восьмой конкурс технических статей Хабра, который мы, забегая вперёд, в очередной раз планируем поддержать классными призами и помощью в жюри. Попытаем удачу и в этот раз!

22. Ачивки
Не стыдно достать парадную одежду со следующими медальками:
  • Мировой рекорд — за прыжок из стратосферы, подробнее тут
  • Разместили первый в истории сайт в космосе
  • Первый в мире CTF в космосе
  • «Лучший блог о системном администрировании» от Хабра в 2021 году
  • Несколько побед в «Технотекстах» разных лет
  • 1 патент на ПО — у нас там собственные сетевые драйверы для повышения эффективности распределения каналов связи между пользователями, драйверы сертифицированы Microsoft для Hyper-V. Есть регистрация в Федеральном реестре интеллектуальной собственности.
  • Первые в России застраховали свою ответственность перед третьими лицами в AIG за несанкционированное публичное раскрытие персональных данных и корпоративной информации — это случилось ещё в 2017 году.
Также есть 4 награды от ЦОДЫ.рф:
  • «Креатив года» в 2021
  • «Хостер года» в 2023
  • «Человек года» в 2024
  • «Креатив года» в 2025
Бережно храним и планируем бороться за новые. Спасибо всем, кто нас поддерживает!

23. Среди лиц бренда RUVDS есть 2 настоящих космонавта
Вы их наверняка знаете и уже что-то читали про них:
  • Михаил Корниенко — Герой России, лётчик-космонавт; пребывание в космосе — 516 дней 10 часов и 1 минута
  • Александр Лазуткин — герой России, лётчик-космонавт, бортинженер орбитальной станции «МИР»; Пребывание в космосе — 184 дня 22 часа и 7 минут


24. 2 совместных игры
Совместно с ветераном игровой индустрии, дизайнером уровней культового Duke Nukem — Ричарда Грея, мы сделали две игры
Да, это далеко не Red Dead Redemption, но всем иногда хочется позалипать в каком-нибудь тайм-киллере (а на момент запуска можно было ещё и выиграть ценные призы).

25. 1 битва роботов-хоккеистов
Поучаствовали и в такой забаве :) О том, как готовили хоккеистов, рассказывали в отдельной публикации.


26. 1 регата
Иногда нужно выдернуть шнур выдавить стекло закрыть ноутбук, выключить телефон и выбраться куда-то на природу. В таком формате нам больше всего запомнилась регата, гонка парусных судов. 400 участников, 45 яхт и 5 дней гонки под парусом — травили и набивали как могли.



27. Стали членом Ассоциации участников отрасли ЦОД
Этим летом мы стали 50-ми участниками ассоциации, а что это и зачем вкратце рассказываем тут.

Возможно, кто-то прочитал всё это и подумал, что мы участвуем вообще во всём :) И отчасти будет прав: мы любим совмещать полезное (работу) с приятным (развлечения), потому что только так можно любить то, что делаешь. У нас полно амбициозных планов и целей, а также мы как никогда открыты к новым интересным партнёрствам и проектам — пишите нам.

Надеемся, вам было интересно. Начинаем второй десяток — спасибо, что вы с нами!

«Лаборатория Касперского» разработала защитное решение для спутника-платформы RUVDS





«Лаборатория Касперского» разработала для хостинг-провайдера VPS серверов RUVDS специализированное решение Kaspersky Endpoint Security for Linux (KESL) — Space Edition, которое поможет обеспечивать защиту спутника-платформы RUVDSSat1 на протяжении всей его миссии. Программное обеспечение создано на базе технологий KESL с учётом особых требований к производительности в условиях ограниченных вычислительных ресурсов на орбите.

Спутник выступит в качестве испытательного полигона. За решение ИТ-задач в космическом аппарате отвечает отдельный микрокомпьютер Raspberry Pi Zero с частотой процессора 1GHz и 512MB оперативной памяти. «Лаборатория Касперского» адаптировала технологии KESL под данную платформу, чтобы обеспечивать защиту полезной нагрузки, которую размещает на спутнике хостинг-провайдер RUVDS.

Проект имеет научно-исследовательский характер и ориентирован на широкую массу экспертов и энтузиастов освоения космоса. При этом хостинг-провайдер не исключает возможность предоставления вычислительных мощностей спутника на коммерческой основе — минимальный срок функционирования RUVDSSat1 на орбите составит один год. Запуск аппарата и его вывод на орбиту запланированы на конец 2025 года.

Как показал наш опыт, в том числе и с предыдущим спутником, обеспечившим первый в истории хостинг сайта прямо с орбиты, космические аппараты подвергаются точно таким же рискам, как и объекты инфраструктуры или частные вычислительные устройства на Земле. В нашем новом проекте мы ещё более открыты аудитории, потому вопросы кибербезопасности занимают в нашей повестке особое место. Мы рады сотрудничеству с „Лабораторией Касперского”, уверен, совместная работа над проектом самым положительным образом скажется на обеих компаниях и поможет в разработке новых решений
подчеркнул генеральный директор RUVDS Никита Цаплин.

Защита таких аппаратов, как спутник-платформа RUVDSSat1, требует особого подхода, поскольку они обладают ограниченными вычислительными ресурсами. Возможности Kaspersky Endpoint Security для Linux позволили нам справиться с этой задачей. Наше решение учитывает специфику ПО для автономных летательных аппаратов, в том числе это касается энергопотребления. Мы будем внимательно наблюдать за результатами проекта, чтобы использовать полученный опыт для развития наших технологий. Это позволит нам эффективнее защищать устройства с небольшими вычислительными мощностями, в частности IoT-приборы
комментирует Анна Кулашова, вице-президент «Лаборатории Касперского» по развитию бизнеса в России и странах СНГ.

RUVDS прогнозирует всплеск кибератак осенью 2026 года





Количество успешных кибератак на российские организации в следующем году может увеличиться на 30-40%, а пик активности злоумышленников, вероятно, будет достигнут в Единый день голосования в конце сентября. Соответствующий прогноз сделал генеральный директор хостинг-провайдера RUVDS Никита Цаплин в ходе выступления на Открытой конференции ИСП РАН в Москве.

По нашим оценкам, общее число количество успешных кибератак на организации нашей страны вырастет на 30–40%. Скорее всего, пик будет достигнут в конце сентября, когда в стране в Единый день голосования пройдут выборы – в том числе и в Государственную Думу. Потому можно предположить, что атаки на госсектор станут самыми массовыми, и на них придётся больший процент от общего числа вредоносных активностей
подчеркнул гендиректор хостинг-провайдера VPS-серверов RUVDS Никита Цаплин.

Также в ходе своего выступления с докладом «Адаптивные методы и средства поверхностного анализа пакетов для обнаружения аномалий в зашифрованном трафике» гендиректор хостинг-провайдера отметил, что перспективы снижения геополитической напряженности не скажутся на активности злоумышленников радикальным образом – общий рост угроз продолжится.

В докладе были рассмотрены как проблемы сетевой безопасности в целом, так и вопросы ограничений существующих методов, уделено внимание вопросам мониторинга трафика, критериям обнаружения аномалий и прочим аспектам защиты данных.

Новые цены на 2026 год: как сохранить свой тариф и даже сэкономить



С 31 декабря 2025 года некоторые услуги RUVDS станут чуть дороже. Среднее повышение составит около 7 %. Мы старались удержать цены на максимально комфортном уровне, но изменения на рынке и в налоговой сфере делают корректировку неизбежной.

Чем вызвано изменение цен
  • С 1 января 2026 года НДС в России повышается с 20 % до 22 %, а порог применения льготного режима УСН снижается.
  • Растут цены на коллокацию в коммерческих дата-центрах — от 15 до 35 %.
  • Становятся выше затраты на комплектующие: оперативная память и другое оборудование уже подорожали в 1,5–2 раза.

Что нас ждёт в новом году
Тарифы RUVDS вырастут в среднем на 7,6 %, максимум — 11,4 %, в зависимости от конфигурации. При этом повышение не затронет тарифы «Старт», «Турбо» и «Драйв», а также аренду IPv4-адресов. Мы продолжаем держать часть расходов на себе, чтобы минимизировать рост цен для наших клиентов.

Как заморозить текущие цены
Вы можете сохранить текущие цены в 2026 году — для этого продлите свои серверы в личном кабинете на любой удобный срок (например, на год или 6 месяцев).

Как сэкономить
Кроме того, при продлении серверов на год вперёд действует скидка 30%. Чтобы воспользоваться ей, пополните баланс и создайте новый сервер или продлите текущий до 30 декабря 2025 года включительно, обязательно списав деньги с баланса личного кабинета.

Сравнение текущего и будущего тарифов «Своя конфигурация» для российских и зарубежных дата-центров (в рублях, в месяц):


Мы благодарим вас за понимание и продолжим предоставлять надёжные и качественные услуги, несмотря на изменения на рынке.

С уважением, команда RUVDS.

Региональные дата-центры в России сейчас: на что это вообще похоже, и правда ли, что за МКАДом жизни нет



Вот так выглядит ЦОД в Новосибирске
В целом для коммерческих ЦОДов — правда, но есть и нюансы.

Начнём с суровой реальности. У нас вся экономика, все деньги и штаб-квартиры сосредоточены в Москве и Петербурге. Дальше, особенно если смотреть за Урал, с точки зрения коммерческих ЦОДов — пустыня. Да, там есть богатый Екатеринбург, да, там есть Новосибирск, да, там есть Владивосток с его международной торговлей, но потребности в коммерческих ЦОДах нет.

Это классическая проблема курицы и яйца. Коммерческий ЦОД строить там невыгодно, потому что нет клиентов, а клиентов нет, потому что нет нормальных ЦОДов.

В регионах живут в основном каптивные ЦОДы. Это когда условная налоговая или какой-нибудь гигант вроде «Норникеля» строит объект чисто под себя. Им вообще всё равно, где строить: они делают по потребности, а не по условиям. Если госзаказчику по плану нужно построить ЦОД во Владимире или Ярославле — они построят там. Им не нужно бегать по рынку и искать заказчика, у них стопроцентная загрузка своими же расчётами или данными. Производственники могут построить хоть в тундре, и вопрос окупаемости за счёт внешних арендаторов там не стоит.

А вот если ты хочешь построить коммерческий объект для сдачи стоек в аренду, то тут вступают в силу другие законы. В регионах просто нет такого объёма экономики, чтобы окупить полномасштабный ЦОД. Считается, что в регионе есть смысл начинать стройку, только если у тебя есть предзаказ («якорь») минимум на 60% мощностей. Если этого нет, то ты построишь коробку, которая будет генерировать убытки.

Но начинается всё с дешёвого электричества, конечно. Оно важнее, чем аплинки.

Кому это вообще нужно на месте?
Вот представьте: вы в условном Тундрятске или Уволжске. У вас торговый центр, все клиенты — из вашего города. И вам нужен сервер. Вы лезете в Яндекс, но на первых страницах нет местного провайдера.

Там есть московские гиганты, которые предлагают виртуалки и колокацию. И дальше вы покупаете виртуалку именно в Москве.

Реальный спрос на местное размещение есть только у узкой прослойки:
  • «Сектанты» физического доступа. Условный завод железобетонных изделий в Тундрятске. Им нужно хранить фото форм отливки или локальную базу. Владелец рассуждает так: «Не хочу Москву, не хочу облака. Хочу, чтобы сервер стоял здесь и чтобы мой админ Вася, которому я доверяю, мог сесть в машину, доехать и лично нажать кнопку». Они там так мыслят. Если сервер можно пощупать — он свой. Если нельзя — он чей-то. Ну и вторая особенность: если что-то пойдёт не так, то хотелось бы приехать и забрать его руками, а не пытаться понять, что там в Москве. Вообще колокация в Москве часто вызывает нездоровые ассоциации с дальними командировками и затратами. Плюс в вопросах бизнеса москвичи стереотипно считаются скользковатыми, и лучше уж договариваться с местными.
  • Тяжёлый контент и спецзадачи. Медицинские клиники, обрабатывающие снимки МРТ (гонять терабайты в Москву и обратно дорого и долго), или игровые сервера, где лаг критичен.

То есть спрос как бы есть, но по факту он очень мал. Часто выгоднее и проще работать именно с Москвой.

Почему местные провайдеры не могут? Чаще всего потому, что местный маркетинг слаб, их сайты лежат на 100-й странице поиска, с заказчиками не разговаривают, не образовывают. Да и для условной бухгалтерии дополнительный пинг в 100 мс некритичен — бухгалтер разницы не заметит.

Но есть и совершенно особенные местные детали.

Уфимская петля
Готовьтесь к абсурду с маршрутизацией. Вот живой пример из Уфы. Мы разместились в дата-центре крупного местного провайдера. Казалось бы, мы в Уфе, клиент — сосед через дорогу, он подключён к домашнему Интернету того же провайдера. Пинг должен быть нулевым, трафик не должен покидать пределов города.

В реальности местные операторы пытаются защитить свою сеть. Денег на собственных безопасников и дорогое железо для фильтрации у них нет. Они идут по пути наименьшего сопротивления — покупают готовые решения: StormWall, DDoS-Guard, Qrator. А узлы очистки у этих ребят стоят где? Правильно, в Москве, на М9. Или ещё дальше.

Получается дикая схема. Клиент из Уфы стучится на сервер в Уфе. Его пакет летит в Москву, там проходит очистку и только потом возвращается обратно в Уфу.

Мы делаем петлю через полстраны.

Пишем им: «Ребята, мы свои, мы стоим у вас в стойке, мы белые и пушистые. Примите нас за своих, отключите фильтрацию StormWall для нашего трафика, пустите напрямую! На все инциденты мы отреагируем сами».

И вот это согласование — просто чтобы нас признали своими внутри сети — может висеть неделями.

Уфа — просто свежий пример, такое случается и в других городах.

Как искать ЦОД — это отдельная боль
Пару раз мы не находили нужных дата-центров.

Вы можете листать выдачу поисковика до посинения. Сайты у местных — это привет из 1998 года: дизайн не менялся десятилетиями, панели управления забыты, телефоны не отвечают. Часто сайта вообще нет или он есть у ЦОДа, который существует только на бумаге.

У нас была показательная история в Омске. Мы искали площадку, перерыли всё — глухо. В итоге пошли по рекомендации нашего вышестоящего оператора связи. Они сказали: «Вот этот оператор надёжный, мы с ним 20 лет работаем, и он ни разу не подвёл». Мы приехали — там всё скромно, без лоска, скорее это узловая операторская, а не коммерческий ЦОД. Никаких красивых сертификатов Tier III на стене. Но нам важнее рекомендация партнёра, чем бумажка. Сертификат можно купить, а вот готовность местной техподдержки вовремя воткнуть KVM в сервер посреди ночи — это бесценно. Мы встали туда.

Написали про это статью на Хабр. И тут в комментарии приходят представители другого омского ЦОДа и обиженно пишут: «А чего вы нас не рассмотрели? У нас же настоящий ЦОД!» Мы позвонили, поинтересовались что и как. Очевидно, что переставлять уже не было смысла, и рекомендация оператора при этом не менялась. Они: «Ну надо было связаться, мы организовали бы вам канал, подключили провайдера...»

А мы-то понимаем, что это значит на их языке. Фраза «Мы подключим к вам провайдера» в регионе означает «Мы выставим вам счёт за прокладку оптики». Потому что ради одной нашей стойки бесплатно копать землю и тянуть кабель никто не будет. В том месте, где мы встали, уже был стык кучи операторов. А в «красивом» ЦОДе мы были бы одни в поле, и вся инфраструктура легла бы на наш чек.



Потом, правда, пришёл ещё человек и сказал, что первый — не от дата-центра, и вообще история мутная. Мы до сих пор не понимаем, что происходит.

Опять же случай неединичный.

Для поиска дата-центров есть даже специальные риэлторы.

Брокеры: риэлторы для ЦОДов
Из-за того, что самому найти площадку сложно (или нет мест), появились брокеры. Это как риэлторы, только ищут не квартиру, а стойку.

Зачем они нужны, если можно позвонить напрямую?

Сейчас в Центральной России — дефицит мест. Вы можете прийти в ЦОД с улицы, и вам скажут: «Мест нет». И хоть ты тресни! А у брокера там могут быть выкупленные огороженные зоны или зарезервированные стойки, которые он держит под своих клиентов. Он знает внутреннюю кухню: кто съезжает, где что освобождается. Вам найдут.

У них партнёрские цены, которые сильно ниже прайса с улицы.

Мы искали точку в Мурманске. Оказалось, что на всём Кольском полуострове коммерческих ЦОДов, по сути, нет. Я писал напрямую в Ростелеком — они мне отвечали месяца два или три. Брокер к ним тоже постучался. В итоге, когда Ростелеком проснулся, у них лежало две заявки — от меня и от брокера. Бардак, конечно, дозвониться невозможно, но брокер хотя бы матерился на них вместе со мной — уже психологическая поддержка.

Как обычно выглядит региональный дата-центр
Это часто не отдельное здание, а полусерверная на территории какого-нибудь завода или офисного центра. И тут есть два нюанса.

Типичный региональный ЦОД


А вот, например, очень приличный ЦОД в Казани


В Москве попасть в хороший ЦОД — целая спецоперация. Это режимные объекты, бункеры, бюрократия, пропускная система, как на космодроме. В регионах всё проще, «по-людски». Проще завезти оборудование, проще попасть инженеру. Меньше формализма.

Вторая особенность — в Москве найти толкового админа сложно, а в регионе — почти невозможно. Это как с Макдоналдсом: в Москве логистика и стандарты отлажены, а открой точку в Уволжске — тебе поставщик картошку плохую привёз, кассир запил и не вышел и т. д.

Поэтому нам приходится выстраивать жёсткую унификацию и автоматизацию. Мы не можем надеяться на «золотые руки» на местах, мы должны присылать готовые решения и запчасти, потому что купить нужный диск «здесь и сейчас» может быть негде.

Но при этом по факту аптайм в регионах часто бывает лучше, чем в столицах!

Из-за низкой плотности!

В крупном московском ЦОДе типа IXcellerate сидит куча клиентов. Там и банки, и энтерпрайз, и хостеры. А хостер — это агрегатор кучи мелких клиентов и, будем честны, кучи всяких чудаков. Когда в одном месте собирается такая толпа, постоянно случается какая-то ерунда: кто-то канал положил DDoS-атакой, кто-то питание дёрнул, кто-то настройки перепутал. Чаще всего один проблемный клиент с дидосом создаёт головную боль всем. В региональных ЦОДах плотность низкая. Стойки стоят полупустыми, каналы не забиты под завязку. Соседей мало, никто локтями не толкается. И атак меньше, и аварий по вине соседа почти не бывает.

Итог
Мы продолжаем открывать региональные ЦОДы под VDS, у нас площадки — по всей стране. Есть Казань, Екатеринбург, Новосибирск, Краснодар, Омск, Мурманск, Уфа. Москва и Петербург тоже есть.

Это местами очень странно, местами — тяжело, но в целом работает. Рынок дикий: чуть улучшить условия и прозрачность не помешало бы всем.

ruvds.com/ru-rub

Определены победители конкурса «Космотекст»: лучшие статьи отправляются в космос



Хостинг-провайдер VPS-серверов RUVDS и редакция сайта «Хабр» подвели итоги конкурса «Космотекст», в рамках которого были выбраны лучшие технические и научно-популярные материалы российских авторов для отправки на орбиту. Материалы будут храниться на спутнике RUVDSSat1, доступ к ним сможет получить любой желающий.

Лучшей статьёй был признан текст «Экологичное расставание с Алисой: строим полностью локальный и приватный голосовой ассистент». Публикация стала абсолютным победителем, а её автор получил супер-приз — экскурсию на космодром Байконур.
habr.com/ru/articles/930340/

Ещё шесть публикаций принесли их авторам, помимо отправки материалов на орбиту, победу в борьбе за «космический мерч» RUVDS. Также место на спутнике в рамках конкурса завоевали ещё 13 материалов, которые отправятся в космос вместе с публикациями из «золотого фонда» статей.

Все подробности и победители – в материале «Хабра».
habr.com/ru/specials/968096/