RUVDS разместит статьи российских техноэнтузиастов на спутнике-платформе



Хостинг-провайдер VPS-серверов RUVDS отправит на орбиту архив материалов лучших технических и научно-популярных текстов российских авторов c сайта «Хабр». Экспертные статьи, отобранные в особом порядке, будут храниться на спутнике компании RUVDSSat1, благодаря чему доступ к ним смогут получить желающие из любой точки мира.

Проекты RUVDS всегда имели научно-образовательный характер, потому мы предусмотрели, что на определенном этапе наш аппарат выступит в роли космического хранилища целой базы знаний в виде лучших статей по IT-тематике. Это позволит ярко подчеркнуть важность привнесения лучших IT-практик в космос, а также привлечь внимание к достижениям техноэтузиастов из России и стран СНГ
подчеркнул генеральный директор RUVDS Никита Цаплин.

База знаний, размещенная на аппарате, будет доступна читателям со всего мира: специальный интерфейс позволит пользователям из любой точки Земли загрузить труды техноэнтузиастов в моменты установления сеансов связи с аппаратом.

Этот проект — дань научно-техническому потенциалу, энтузиазму и стремлению человека объяснять мир вокруг себя. Мы рады, что статьи с Хабра станут важной частью космической инициативы, путь в космос в том или ином смысле открыт каждому
Дмитрий Колобов, технический директор «Хабра».

Космический аппарат RUVDSSat1 планируется к выводу на орбиту в 2025 году. Основная задача спутника заключается в предоставлении разработчикам программного обеспечения и радиолюбителям возможность тестировать свой софт на действующем аппарате.

Ходим в Интернет с отключённым IPv4



habr.com/ru/companies/ruvds/articles/924674/

Несколько дней назад в маршрутизаторе моего провайдера после отключения электричества поломался IPv4. К счастью, подключение по IPv6 продолжало работать, но доступна была только малая часть веб-сайтов.

В этом посте я расскажу, как на помощь мне пришли Linux, WireGuard и Hetzner, благодаря которым я смог получить доступ ко всему Интернету через одно лишь соединение IPv6.

Что такое CDN и как она работает: объяснение на примере доставки котиков



habr.com/ru/companies/ruvds/articles/918586/

Что такое CDN, и при чём тут котики
Вот тут и вступает в игру CDN — Content Delivery Network. Это распределённая сеть узлов, которые кэшируют статику (а иногда и динамику) и отдают её пользователю с ближайшей точки.

Коты, как и типы контента, бывают разные
Статические коты — это как спокойные домашние хвостики. Один раз сфотографировали, сохранили в .jpg или .mp4 — и можно раздавать всем желающим. Они не меняются, не требуют внимания, идеально подходят для кэширования. Вы один раз кладёте такого кота в локальный узел CDN — и больше центральный сервер про него не вспоминает.
В итоге, хороший CDN — это не просто прокладка между сервером и браузером. Это система, которая умеет работать с разными типами данных и выбирать стратегию доставки под каждого котика.

Архитектура CDN: из чего построена кото-империя
  • Origin-сервер — сердце кото-империи
  • PoP — кото-распределители
  • Edge-серверы — приёмные кото-дома
  • Межузловая логистика: кото-хабы и дедупликация
  • DNS и маршрутизация: как выбрать ближайшего кота

Как долго котик живёт в кэше
HTTP/2 и HTTP/3: как котики летают по новым дорогам
Безопасность: коты прячутся в TLS

Цены на дата-центры растут, а ИИ может сдристнуть в Казахстан



Я тут ванговал, что ЦОДы подорожают и будет дефицит стоек. И знаете, ЦОДы подорожали и появился дефицит стоек.

Удивительно, но если перестать строить дата-центры, то уже построенных не хватит. Могло показаться, что когда уйдут всякие западные компании, места освободится много. Да, было такое. Места хватило на месяц. Потом из дальних стран начали возвращаться российские компании.

Но давайте посмотрим, что происходит прямо сейчас. Первое и самое очевидное — дефицит ЦОДов сохраняется.

Цены на услуги выросли.

И тут же, как по команде, все кинулись искать ЦОДы в регионах.

Самое смешное в этой истории, что главный драйвер роста — ИИ-технологии (если что, по большей части так называют LLM-инференс). Предполагается, что каждому заводу нужно будет рядом по огромному ЦОДу, чтобы смотреть на конвейер или с помощью какой-нибудь китайской нейросетки, или от того же Яндекса, или ещё от кого-то. Я утрирую, но логика роста рынка именно такая.

Если ИИ сдристнет в Казахстан (из-за санкций) — эта модель порушится. Но пока возникают невероятно интересные штуки в регионах. Например, это ЦОДы-призраки, которые существуют, там можно арендовать стойку, но у них даже нет сайта. Потому что зачем?

Появилась даже профессия ЦОД-скаута. Это почти как риэлтор, только профессия полезная и требующая специальных знаний.

Всплыл такой модный тренд — Edge-вычисления, они же — граничные вычисления

Это вычисления, максимально близкие к заказчику, к источнику данных.

Поначалу это было важно тем, у кого Edge-соединение или спутник, чтобы не гонять трафик через центральный ЦОД, а считать на месте — около завода. Но назвали их так не в честь 2G.

Потом оказалось, что это что-то вроде CDN, только вместо C — вычисления. Те же городские серваки с Контр-Страйком — это Edge-вычисления до того, как это стало модным.

Но больше всего в перспективе это нужно для всяких AI-моделей, для работы с Big Data (чтобы не гонять то же самое «сырое» видео 4K по магистралям) и там, где важна минимальная задержка. Представьте, что вам нужно обработать гигабайтный снимок МРТ и получить результат немедленно, или данные с производства льются потоком.

Вот Edge и решает эту проблему. Это что-то вроде CDN, но если CDN — это про медиа и видео, то Edge — это про серьёзные вычисления. И да, это международный тренд, а не какое-то наше ноу-хау. Конечно, ЦОДы не строят только ради того, чтобы выиграть одну-две миллисекунды, но спрос на региональные ЦОДы для таких вот специализированных задач есть.

Для нас это важно. Годами в своей стратегии мы шли по пути максимального покрытия территорий, и сейчас у нас, пожалуй, самая большая сеть ЦОДов для облачных сервисов и виртуалок по России и зарубежью. И это важно, потому что, скажем, если вам нужен быстрый инференс (а европейские площадки для многих российских компаний заблокированы), то приходится искать решения здесь, в России. А чтобы они хорошо работали с зарубежными партнёрами, нужно и связность хорошую иметь, и географически быть не на краю света.

Так вот, региональные ЦОДы с их свободными (и более дешёвыми) мощностями — это один из факторов, который может немного охладить перегретый московский рынок.

В общем, мы годами шли в региональное покрытие, но не знали точно, зачем. Просто так чувствовали. Теперь начинаем догадываться.

Началась стройка новых ЦОДов (на самом деле — нет)

Все вокруг кричат, что строят, строят и строят новые ЦОДы. Планы грандиозные: на всех экономических и отраслевых форумах трубят, что в ближайшие три–пять лет введут чуть ли не 30 тысяч новых стоек. Звучит красиво, но в моменте, я думаю, дефицит всё равно сохранится. А вот через пять-шесть лет тренд уже удастся переломить.

Но если копнуть чуть глубже, узнав, что же именно они там строят, то найдётся много смешного.

Во-первых, некоторые строят документацию. Просто сидят и ждут снижения ставки ЦБ. Когда это произойдёт, можно будет взять кредит на землю и строительство или получить инвестиции. Это главный ограничивающий фактор: пока банк даёт больше по вкладу, чем возможные инвестиции, бизнес стоит.

Во-вторых, некоторые строят свои собственные корпоративные ЦОДы. И этот тренд — не только для гигантов. Я знаю примеры, когда даже крупные хостинг-провайдеры строят для себя. Почему? Да потому что это хороший вариант сэкономить! Внезапно оказалось, что аренда в Tier III ЦОДе очень дорогая. А у себя можно построить Tier II, и будет сильно дешевле. Можно даже Tier 1,5 из говна и палок. Если вынуть палки, то будет Tier I, II или Tier I. Зато туда можно поставить сервер. И вообще, многим ли нужен тот хвалёный аптайм, который к тому же сейчас стал понятием растяжимым?

Параллельно все сертификаты Tier III, по сути, обесценились. Все кому не лень пишут: «Соответствует Tier III», но это не проверяется, потому что Uptime Institute почему-то оказался не российской компанией.

Минцифра сейчас разрабатывает нормы для ЦОДов, как и для хостеров. Минстрой вот тоже вмешался: подгоняют ГОСТы к современным реалиям, чтобы строили хотя бы что-то похожее на ЦОД, а не клали сервера на кирпичах в ангаре.

То есть, по сути, все строят серверные, а не классические ЦОДы. Хостеры, особенно не самые крупные, смотрят на это дело и обзаводятся своими серверными, чтобы сэкономить на размещении и сохранить цены для клиентов.

А экономить можно только на палках для строительства дата-центра. Айпишники становятся только дороже, реклама — тоже, кадров у нас на рынке снова дефицит. Вот и строят свои мини-ЦОДы. Пусть там не будет супераптайма, зато дешевле. Даже крупные операторы переиспользуют бывшие телефонные станции. Хорошие же здания: стены есть, пол есть, потолок есть — всё в порядке.

Какой смысл, условно, платить какому-нибудь IXcellerate три миллиона в месяц, если, скажем, за 50 миллионов можно построить себе ангар, поставить туда сервера, и всё будет нормально работать. Отобьют за три–пять лет и ещё в плюсе останутся.

Раньше цены были не такие, разница была не столь ощутима.

Мы, кстати, сразу пошли по этому пути вот с этим ЦОДом. Конечно, своя инфраструктура — это куча геморроя, но экономически это целесообразно. Для себя мы решили, что один свой ЦОД — это хорошо, цифры радуют, но уходить на два-три своих — уже нет.

Наш любимый искусственный интеллект

Сейчас это главный драйвер спроса и одновременно источник рисков. С одной стороны — да: LLM и другие модели дико жрут мощности. Им нужно много железа. В Китае, например, сейчас просто бум строительства ЦОДов под ИИ.

Но тут есть пара жирных «но».

Во-первых, что если этот ИИ-хайп не оправдается? История помнит несколько «зим ИИ», когда развитие заходило в тупик и все ставки обнулялись. Похожая история была с биоинженерией: ждали клонов уже вчера, а тут — этические соображения и прочее. Сейчас на ИИ возлагают надежды, что он решит чуть ли не все проблемы человечества. А ну как он напугает людей и запустит ракеты по своим? Его же могут просто запретить, и вся активность заморозится. И куда тогда девать все эти построенные под ИИ мощности? Они хлынут на коммерческий рынок, и мы получим уже не дефицит, а избыток.

Думаю, через три–шесть лет это будет вполне реально. В смысле вероятность — выше 10 %.

Во-вторых, геополитика. Железо для ИИ, особенно топовые чипы от той же Nvidia, — это уже почти оружие. И производители открыто говорят, что будут ограничивать их работу по геопризнаку. Пример с Китаем мы уже видели. И что делать? Возить чемоданами жёсткие диски в Малайзию, там обучать модели, а результаты — обратно чемоданами? Это же цирк! А если и у нас так будет? Инвесторы, хедж-фонды собрали денег, построили ЦОД под ИИ где-нибудь на Байкале, а им и говорят: «Ребят, ваши карты здесь не работают». Остаётся перепрофилироваться под какой-нибудь майнинг или под коммерческие нужды. Вот вам ещё источник потенциального избытка.

Не зря же Яндекс уже заявляет, что будет строить дата-центр под ИИ в Казахстане. Значит, понимают риски и готовят пути отхода, если здесь станет туго или будут какие-то промежуточные CDN-подобные решения. Так что ИИ, который сейчас — главный драйвер, может легко стать головной болью. Да и, честно говоря, ожидания от ИИ, мне кажется, завышены. Думаю, что пик популярности пройдёт.

Невидимые ЦОДы и проблемы с маркетингом

Это чисто российская фишка.

Вот мы постоянно занимаемся поиском новых ЦОДов.

Оказалось, что многие из них, особенно региональные, просто не умеют продавать свои услуги. У них нет ни сайта, ни соцсетей, ни канала в Телеграме. Ни-че-го! Вы его не найдёте, даже если очень захотите и будете знать название.

Пример — Омск. Искали там ЦОД, нашли с помощью оператора связи: приличный, про Tier III не говорил, зато сразу чат, оперативная работа и многолетний положительный опыт сотрудничества с ним оператора. Встали, запустились, опубликовали новость об этом. В комментариях к нашему посту приходит другой ЦОД, о котором мы и не слышали. Его тупо не было в поиске. Оказывается, физически он существует, работает, и сайт у него есть. А те, кто о нём знал, нам его целенаправленно не предлагали: так как у них нет опыта работы с ним, они не стали его рекомендовать. Плюс они знали, что там нет нужного нам оператора. Тут мы не сравниваем площадки, но подчеркиваю, что и сравнить не получилось бы: просто мы сами не смогли его найти.

И таких невидимок по стране полно. Они стоят полупустыми, а могли бы закрыть часть спроса. Тут даже профессия такая появляется — дата-центр-брокеры: это люди, которые знают, где и за каким гаражом спрятался приличный ЦОД. Смешно, но это наша реальность.

На Западе такого нет: там крупные сети, у всех есть сайты, агрегаторы — всё прозрачно. У нас же этот рынок ещё дикий. Как только эти ЦОДы «оцифруются», начнут делать сайты, пытаться продавать, это тоже поможет сократить дефицит, потому что люди о них узнают и пойдут туда.

Прикольный рост SaaS
Интересно, что многие говорят про рост облачных технологий — SaaS и PaaS.

Но они ведь тоже не в вакууме существуют, а строятся на базе IaaS, то есть на инфраструктуре, на железе в ЦОДах. Так что спрос на базовые мощности со стороны облаков будет стабильным.

Смешной пример был с Infobox, которого недавно купил Ростелеком («Солар»). Все думали, что это гигантский провайдер, а оказалось, у них там всего один-два сисадмина и не так чтобы очень много железа. Это просто показатель того, насколько плотными стали вычисления. Если грубо прикинуть, то весь сегодняшний IaaS-рынок в России — это где-то 130 миллиардов рублей, что эквивалентно примерно 10 000 стоек. А планируют построить, напомню, ещё 30 тысяч!

Даже если IaaS вырастет в три раза — это будет 12 тысяч. А кто займёт остальные? Думают, что ИИ. Но если вычесть кэптивные ЦОДы, учесть, что ИИ могут «отменить» или он сам сдуется, то картина для строителей новых ЦОДов уже не такая радужная.

Общий прогноз
Думаю, что в ближайшую пару лет дефицит точно останется, пока все кэптивные ЦОДы не достроятся, пока Edge-вычисления, о которых заговорили-то всего год назад, не наберут оборотов.

Потом, через два–пять лет, рынок начнёт потихоньку охлаждаться.

А вот в долгосрочной перспективе, лет через пять-шесть, есть очень серьёзный риск, что из-за фактора ИИ мы получим избыток мощностей.

Все воспринимают дефицит как немедленное руководство к действию: «Бежим строить ЦОДы!» Но надо же считать. Так что, если кто-то хочет построить ЦОД, то ему надо очень хорошо подумать, зачем он это делает. Если у него свой хостинг, свой бизнес и он платит бешеные деньги коммерческим площадкам, то это одно. А если просто так, на хайпе, то можно и прогореть.

ruvds.com/ru-rub

RUVDS увеличил выручку на 23% по итогам первого квартала 2025 года



Хостинг-провайдер VPS-серверов RUVDS увеличил выручку в первом квартале 2025 года. Аналитики компании зафиксировали рост соответствующего показателя на 23% в сравнении с данными за аналогичный период прошлого года. 94% выручки составляют доходы от оказания услуг IAAS (предоставление VPS/VDS) и 6% – продажа сопутствующих услуг.

Рынок хостинга продолжает меняться, и мы рады зафиксировать, что один из немногих факторов, остающихся стабильным – это рост эффективности работы нашей компании. Мы не сбавляем обороты, а наоборот, активизируемся, продолжая предлагать нашим клиентам новые опции – в том числе и по части площадок для размещения. Данные показатели, а это выручка в размере почти 48 млн рублей за первый квартал, подтверждают верность текущего курса, ставящего во главу удобство пользователей и качество сервиса RUVDS
подчеркнул генеральный директор RUVDS Никита Цаплин.

RUVDS работает на рынке хостинга уже почти десять лет. По состоянию на конец мая 2025 года компания предлагает вычислительные мощности на 17 площадках, семь из которых расположены за рубежом, а остальные – рассредоточены по всем уголкам России, включая Сибирь и Дальний Восток. RUVDS стабильно входит в список крупнейших поставщиков IaaS услуг, на постоянной основе модернизирует располагаемые вычислительные мощности и обновляет парк оборудования, а также реализует научные проекты, проводя эксперименты по развертыванию ЦОД в экстремальных условиях в любой точке Земли и на её орбите.

ruvds.com

Две статьи из блога RUVDS одержали победу на конкурсе «Технотекст»



Сразу две статьи из блога хостинг-провайдера VPS-серверов RUVDS одержали победу в конкурсе “Технотекст”, ежегодном конкурсе технических статей, принять участие в котором может любой автор портала “Хабр“.
ruvds.com/ru/mp/

Лауреатами стали материалы «Я — робот Вертер» или Нулевой закон робототехники», завоевавший победу в номинации «Маркетинг» и «Обнаружение SSH-туннелей по размеру пакетов», признанный лучшим в номинации «Системное администрирование».

RUVDS традиционно выступал хранителем номинации «Системное администрирование». В этом году компания подарила авторам двух лучших материалов ценные призы: Mac Mini и промо-код на пополнение баланса сервисов RUVDS на 50 000 р. за 1-е место и набор Lego 10306 (модель консоли Atari 2600) и нож Cybertool VICTORINOX, а также промо-код на пополнение баланса сервисов RUVDS на 25 000 р – за второе.

О компании RUVDS
RUVDS — один из ведущих российских хостинг-провайдеров VPS/VDS серверов, основным направлением деятельности которого является оказание услуг IAAS корпоративного класса. Партнёры компании — АО «ФИНАМ», финансовая группа «БКС», Национальный расчётный депозитарий (Московская биржа), АО «ВЦИОМ», АО «Телекомпания НТВ», VK, Gett, DCDaily и другие. Компания располагает своим дата-центром уровня TIER 3 в городе Королёв, а также девятью гермозонами в России (2 гермозоны в Москве и по одной в Санкт-Петербурге, Казани, Екатеринбурге, Новосибирске, Владивостоке, Краснодаре и Омске).

RUVDS начал предоставлять услугу аренды серверов в Омске



Хостинг-провайдер VPS-серверов RUVDS в рамках реализации стратегии развития регионального присутствия запустил площадку с вычислительными мощностями в Омске. Возможность заказать виртуальный сервер в этом регионе уже доступна на сайте компании.

Омск играет важную роль в телекоммуникационной инфраструктуре, выступая в качестве регионального узла, соединяющего западную и восточную части России. Город активно развивается: входит в число лидеров по объёму интернет-трафика и занимает место в топ-5 населенных пунктов с самым быстрым мобильным интернетом. Частью этого процесса развития и станет наша новая площадка, предоставляя нашим клиентам новые возможности и уже традиционное качество услуг
подчеркнул Никита Цаплин, генеральный директор RUVDS.

Дата-центр, в котором запущено оборудование хостинг-провайдера, отвечает всем необходимым требованиям безопасности: питание организовано по двум независимым вводам с использованием автоматического ввода резерва, предусмотрены источники бесперебойного питания, установлена система прецизионного кондиционирования, работает круглосуточная система контроля и управления доступом.

RUVDS постоянно расширяет географию своего присутствия, удовлетворяя потребности клиентов как внутри страны, так и за её пределами. Так, только в этом году хостинг-провайдер открыл площадку в Краснодаре, а также модернизировал и нарастил объёмы мощностей в собственном дата-центре Rucloud в Королёве.

О компании RUVDS
RUVDS — один из ведущих российских хостинг-провайдеров VPS/VDS серверов, основным направлением деятельности которого является оказание услуг IAAS корпоративного класса. Партнёры компании — АО «ФИНАМ», финансовая группа «БКС», Национальный расчётный депозитарий (Московская биржа), АО «ВЦИОМ», АО «Телекомпания НТВ», VK, Gett, DCDaily и другие. Компания располагает своим дата-центром уровня TIER 3 в городе Королёв, а также восемью гермозонами в России (2 гермозоны в Москве и по одной в Санкт-Петербурге, Казани, Екатеринбурге, Новосибирске, Владивостоке, Краснодаре и Омске).

ruvds.com/ru-rub

RUVDS модернизировал дата-центр Rucloud в Королёве



Хостинг-провайдер VPS-серверов RUVDS завершил модернизацию собственного дата-центра Rucloud в Королёве. В рамках выполненных работ было подведено дополнительное электропитание, увеличена емкость ИБП и произведена замена части батарейных блоков. Также была обновлена электрическая схема и проводка, увеличена мощность системы охлаждения в модуле. Общая энергоёмкость ЦОД увеличилась на 25% – до 1,5 МВт.

Масштабному обновлению подверглась и система пожарной безопасности: было произведено техническое обслуживание модуля газового типа с целью поддержания нормативных значений, модернизирована система датчиков пожаротушения, приемно-контрольных и управляющих блоков управления – в соответствии с вступившим в силу 1 декабря 2024 года Приказом Росстандарта от 24.10.2024 № 1497-ст по внесению изменений в ГОСТ Р 59636-2021.

В ходе модернизации дата-центр работал в штатном режиме, в нем эксплуатировалось оборудование, обеспечивающее работу клиентов компании. Миграция оборудования, монтажные работы и проектные испытания были осуществлены абсолютно бесшовно.

Площадка в Королёве – крупнейшая локация хостинг-провайдера VDS-серверов RUVDS. Дата-центр Rucloud был введен в эксплуатацию в 2015 году, став первой локацией, доступной для заказа виртуальных серверов RUVDS. Площадка сертифицирована ФСТЭК по классу технической защиты конфиденциальной информации и соответствует стандартам ГOCT P ИCO/MЭK 27001-2006 (ISO/IEC 27001-2006) и ГОСТ Р ИСО 9001-2015 (ISO 9001:2015).

ruvds.com

Арктический дата-центр RUVDS признан Креативом года на “ЦОДах.РФ”



RUVDS завоевал первое место в номинации “Креатив года” премии “ЦОДы.РФ” за реализацию уникального проекта по запуску дата-центра на дрейфующей льдине в Арктике. Церемония вручения прошла 17 апреля в Санкт-Петербурге, награду получил лично гендиректор хостинг-провайдера VPS-серверов Никита Цаплин.

«Спасибо всем, кто поддержал нашу заявку, я очень благодарен каждому из вас, кто проголосовал за наш проект. Наша команда получает данный приз за креатив не впервые, но сегодня особенный случай, и для меня – большая честь здесь представлять наш арктический проект от лица всей команды. Мы все были вдохновлены подвигами наших предков русских-полярников первооткрывателей Арктики — Беринга, братьев Лаптевых, Челюскина, Малыгина и многих других, чьи имена история не сохранила. Пусть этот небольшой шаг в летописи освоения Арктики навсегда останется за нашей страной!», — отметил Никита Цаплин.

Помимо запуска дата-центра RUVDS стал соучастником в установлении мирового рекорда — 1-го в истории прыжка с высоты более 10 000 метров на Северный полюс, а также провел уникальный конкурс на определение координат арктического ЦОД.

ruvds.com

В России сейчас дефицит стойко-мест в ЦОДах, и он будет расти



В 2022-м из российских дата-центров стали уходить зарубежные клиенты. Казалось, освободилось очень много места и ЦОДы скорее думали, как выжить при таких потерях. Крупные игроки могут подтвердить, что от них ушли такие якорные клиенты, как Apple, MS и подобные, которые платили хорошие деньги. В первое время никто не знал, что делать — продавать бизнес или как-то выкручиваться.

В этот момент новые ЦОДы никто не начинал строить, потому что не было смысла. Зачем строить, если клиенты ушли? Некоторые длительные проекты, типа ЦОДа МТС с 7-летним циклом строительства, продолжались, но и они сорвали все сроки.

Но очень быстро тренд развернулся. Оказалось, что стоек стало не хватать и даже не надо было сильно вкладываться в маркетинг. Началась волна регуляторики. В 2023 году всех окологосударственных начали возвращать в российские дата-центры. Закон о приземлении (который вышел ещё в 2021 году и вступил в силу в январе 2022) сначала был мягким, обязывал компании просто открыть офис. Но к 2024 году это переросло в реестр хостеров со всеми вытекающими.

Госкомпаниям дали понять, что хранить данные за рубежом не надо. Пошёл отток оттуда. Потом проблемы с платежами — ушли всякие Dropbox и другие сервисы, которые начали здесь дублировать. Поначалу были обходные пути, но они постепенно закрывались. Можно было платить через казахские карты, но недавно многим релокантам их заблокировали.

Ну а потом как вишенка размером с КамАЗ на торте пришёл инференс нейросетей.

В итоге ситуация очень странная: новые ЦОДы никто сейчас не строит и не будет в ближайшие годы, а дефицит места растёт.

Почему возвращались наши компании

Как я уже сказал, потому что некоторых уговорили вернуться, некоторым там были не рады, некоторым с зарубежными размещениями тут были не рады (особенно при госучастии), некоторые просто разворачивали сервисы-аналоги внутри страны.

Параллельно с этим некоторые зарубежные компании просто начали говорить: «Мы с русскими не работаем». Оплатить стало сложно, потом ещё сложнее.

И всё это превратилось в стойкий тренд — зачем нам хранить данные на Западе, если там всё неудобно и дорого, да ещё и с рисками штрафов? Проще заплатить в России, пусть дороже, но зато без головной боли.

В итоге рынок облачных услуг и сервисов начал бешено расти.

Потом пришли нейросети в массовых применениях. Это требует серьёзных вычислительных ресурсов. Даже на примере нашей компании видно — нам для расчётов моделей нужны очень мощные виртуалки, 16-ядерные минимум, а то и вовсе 24. Сбер, Яндекс, даже более мелкие компании вроде Авито — все используют LLM и другие виды нейросетей, и всем нужны серверные мощности. Даже традиционно отстающие по ИТ производства используют аналитическое видеонаблюдение, что требует очень много ресурсов и хранилок.

Постоянный рост объёма данных тоже играет роль. Сравните ёмкости хранилищ 5 лет назад и сейчас — разница колоссальная.

То есть:
  • Иностранные игроки ушли, оставили полупустые машзалы.
  • Новые ЦОДы перестали строить, потому что есть полупустые машзалы в имеющихся.
  • Российские компании заполнили пустоту.
  • Ставка рефинансирования выросла, что сделало нерентабельным строительство новых ЦОДов.
  • Стоимость инфраструктурного оборудования тоже выросла.
  • Потребности российских компаний растут очень быстро, быстрее, чем количество мест.
  • Стойки дорожают.
  • Дефицит растёт.

Сейчас число стоек на 5-летнем минимуме. Пруф.

Спрос превысил предложение.

Вот тут ещё полезные прогнозы.

Почему так сложно построить новый дата-центр
Самая главная проблема — бизнес-модель подорожала в полтора раза. Если до 2022 года можно было считать, что стоимость стойки около 100 тысяч рублей, то в 2024–2025 годах это уже 150 тысяч за стойку. Оборудование подорожало в 3–4 раза. Абсолютно всё зарубежное — коммутаторы, ИБП, даже стойки железные. Российских аналогов просто нет, или они не подходят для коммерческого использования.

И это только капитальные затраты, без учёта электричества и прочего. Операционные тоже росли всё это время.

Плюс серьёзная проблема с финансированием — денег просто неоткуда взять. А цикл строительства дата-центра огромный — от 3 до 7 лет. Причём, если вы построите большой ЦОД за 3 года, вам очень повезло.

Недавно появились новые российские требования по проектированию и строительству. Наши регуляторы решили не просто взять стандарты TIER по Uptime Institute, которые работают во всём мире, а создать свои. Вместо того чтобы просто скопировать работающую модель, они взяли старые советские СНиПы для машзалов — сотни страниц непонятных требований. Там даже регламентируется площадь клиентских помещений, хотя, казалось бы, какая разница для дата-центра?

Ну и ещё одна неявная проблема — дефицит строительных кадров. На рынке просто нет людей, кто мог бы всё это построить. Если вам нужно сварить металлоконструкцию — найти сварщиков сейчас почти невозможно — они расписаны на месяцы вперёд. И так со всеми специалистами — электриками, монтажниками и т. д. Особенно в регионах.

К чему приводит дефицит стоек

Самое очевидное — рост цен на размещение в ЦОДах. Спрос есть, предложения нет, цены растут.

Второе — миграция в региональные центры. Если в Москве мест нет, компании начинают искать варианты в других городах. Тот же Иннополис в Казани, где есть хорошие дата-центры. Или Новосибирск, Владивосток, Санкт-Петербург.

Третье — использование некондиционных помещений. Даже крупные игроки начинают предлагать клиентам старые машзалы. Представьте — из таких залов просто вытащили гигантские станции времён СССР и поставили стойки. Без нормального кондиционирования, без резервирования, посреди жилых массивов. Во многих два ввода (всё-таки это была критичная инфраструктура СССР), но без дизелей. Но выбора нет — ставить серверы куда-то надо.

Очевидно, что бизнесу придётся с этим жить. Первое решение — развитие региональных дата-центров. Если у вас бизнес в Краснодаре, зачем вам хостить сервер в Москве? Пинг будет на 15 миллисекунд больше, зато решается проблема с нехваткой мест.

У нас площадки в разных городах — есть и М9 в Москве, и дата-центр в Королёве, и площадки в Новосибирске, Владивостоке, Казани, Санкт-Петербурге, недавно открыли в Краснодаре. Ещё один маленький на геостационарной орбите, но мы там коллокацию не продаём.

Второе — строительство корпоративных ЦОДов крупными госкомпаниями. Газпром, Сбер, Яндекс уже строят свои дата-центры. Если они переедут туда из коммерческих дата-центров, то освободят места для других клиентов. По сути, вот это единственная причина, почему в коммерческих ЦОДах стойка может подешеветь (или замедлиться в росте цены) — если компании с госучастием или близкие к системным на рынке построят свои мощности и переедут в них. Но, кажется, они и построят свои, и не освободят коммерческие.

Третье — более эффективное использование существующих мощностей. Хотя оборудование и подорожало в 3–4 раза, со временем оно становится более компактным. При том же количестве серверов в стойке их вычислительная мощность увеличилась — за счёт роста энергоэффективности новых поколений процессоров. А значит, можно разместить в стойке больше вычислительных ресурсов без увеличения энергопотребления и нагрузки на систему охлаждения.

В нашем случае, однако, это почти не играет роли.

Но, как я уже говорил, всё подорожало в 3–4 раза. Например, сервер, который в 2017 году стоил 350–400 тысяч рублей, сейчас стоит 1,6 миллиона за аналогичную производительность (в смысле, если брать тот же уровень конфигурации по оперативке). Многие эксперты сейчас спорят о том, стоит ли менять старое оборудование на новое, более энергоэффективное. В московских ЦОДах стандарт — 6 киловатт на стойку по отводу тепла. Старые серверы потребляют 0,3–0,4 киловатта. Новые чуть эффективнее, но разница не стоит тех денег, которые придётся отдать за новое оборудование. И это всё при том, что оборудование используется гораздо дольше, чем раньше. Амортизационный цикл растёт. Если раньше серверы списывали через 4 года, то сейчас они работают по 7–8 лет и больше.

Как растёт рынок
Рынок коллокации растёт примерно на 20% в год. Облачные сервисы — ещё быстрее, на 30–40% ежегодно. В первую очередь это происходит из-за роста цен (то есть в этих процентах инфляция), но и физический объём рынка тоже увеличивается.

Особенно быстро растёт спрос на вычислительные мощности для нейросетей / слабых ИИ. По некоторым прогнозам, к 2030 году только для ИИ в России понадобится порядка 77 тысяч стоек. И это при том, что столько электричества для них может просто не найтись.

Если сравнить эти числа с темпами ввода новых стоек в России, становится понятно, что дефицит будет только нарастать. Ситуация близка к критической, и без системного подхода наш рынок рискует столкнуться с дефицитом.

Даже если завтра снимут все санкции (во что никто не верит), проблема не решится моментально, как и ставка не снизится моментально. И дело даже не в деньгах — цикл строительства дата-центра минимум 5 лет, а с учётом новых требований к проектированию может растянуться и до 7 лет. Представьте: сейчас начинаем строить, год на проектирование, потом согласования, потом само строительство… В общем, дефицит точно сохранится ещё несколько лет.

Частному бизнесу в нынешних условиях зайти на этот рынок очень сложно. Правила такие, что без серьёзной поддержки не дойдёшь. А если и дойдёшь — получишь такие затраты, что окупить их можно будет только через много лет.

Что делают компании, которым нужны серверы
Некоторые крупные компании, как я уже говорил, строят свои дата-центры. Другие ищут места в регионах. Третьи просто платят больше за то, что есть.

И это правильный подход. Если у вас региональный бизнес, то нет смысла платить больше за московское размещение.

Кстати, наша компания даже запускает серверы в космос! Этим летом запускаем спутник, и все желающие смогут подключиться к нему через консоль во время сеанса связи. Звучит как фантастика, но это реальность.

Куда всё это приведёт
  • Хороших мест с достаточными требованиями к надёжности будет меньше.
  • Увидим больше ЦОДов в регионах, что сделает инфраструктуру более распределённой.
  • Если нельзя построить огромный дата-центр уровня Tier III, можно сделать много маленьких, менее защищённых, но функциональных.
  • Кто-то будет ставить стойки к себе в гараж или серверную в офисе.
  • Пользуется спросом резерв стоек — когда вы покупаете размещение, но не ставите серверы. То есть платите за пустую стойку. Мы так тоже делаем, это такой фьючерс на полноценную стойку. Но эти резервы имеют естественные пределы. Возможно, вам стоит сделать так же для своей компании.

Так что удачного вам следующего года!

ruvds.com/ru-rub