RUVDS нарастил инвестиции в инфраструктуру на 114%



Хостинг-провайдер VPS-серверов RUVDS увеличил инвестиции в инфраструктуру на 114% по итогам 2025 года. Благодаря этим вложениям компанией были дооснащены как имеющиеся площадки, так и запущены новые вычислительные мощности в Ереване, Краснодаре, Мурманске, Омске и Уфе. Общее число локаций RUVDS в России и за её пределами достигло 21 по итогам 2025. В текущем году провайдер начал предоставлять услуги в Минске, который стал 22-м ЦОД в портфеле RUVDS.

«Мы продолжаем движение в выбранном направлении, расширяя как парк оборудования, так и число локаций, доступных нашим клиентам. В прошлом году продолжили масштабирование бизнеса, активно нарастив количество площадок как в России, так и зарубежом. Фокус компании по-прежнему остаётся на удобстве сервиса и повышении качества наших услуг, и мы намерены только ускорять темпы проводимой работы в этом направлении», – отметил генеральный директор RUVDS Никита Цаплин.

Суммарная выручка хостинг-провайдера в прошлом году достигла ₽233 млн рублей: 97% от этой суммы обеспечены оказанием услуг IaaS, в основном за счёт предоставления виртуальных мощностей (VPS/VDS-серверы). Выручка хостинг-провайдера VDS-серверов RUVDS по итогам первого квартала 2026 года увеличилась на 15% по сравнению с аналогичным показателем прошлого года. Значения полностью соответствуют Стратегии развития компании на текущий год, по итогам которого RUVDS ожидает общий рост соответствующего показателя на 30%.

Суверенный интернет, ИИ-пузырь и облако на космической орбите. Интервью с Никитой Цаплиным, основателем RUVDS

Предлагаем вам посмотреть/послушать или прочитать текстовую версию интервью Никитой Цаплиным (основатель RUVDS), которое он дал Константину Исаакяну на канале «НеПодчинённые» (авторский проект о карьере и смыслах). На своём канале Константин записывает подкасты с интересными людьми, которые, как и он когда-то, прошли путь из корпораций в собственные проекты — или, наоборот, сделали внутри крупных компаний что-то по-настоящему живое.



Константин не совсем классический «айтишник» или «стартапер». 20 лет он проработал на ТОП-позициях в международных корпорациях (Dell, Samsung), всегда искал в бизнесе свободу, выбор и внутреннюю точку опоры. Поэтому в каждом выпуске он задаёт не только профессиональные, но и человеческие вопросы.

Ему интересно не только «как они это сделали», но и почему. Какие смыслы в этом стояли, какие страхи приходилось преодолевать, и что помогало не потеряться на поворотах.


www.youtube.com/watch?v=Imev4ApSUio

ruvds.com/ru-rub

Почему мы полностью отказались от HDD





В индустрии есть устоявшееся мнение, что HDD — это устаревающая технология.

Это с одной стороны. С другой стороны, много у кого написано «Медленные SSD», а по факту при тестах они начинают показывать характерные скорости HDD, характерные бутылочные горлышки HDD и вообще ведут себя как жёсткие диски.

У нас тоже есть тариф с HDD-хранилищем, но он довольно давно тариф с HDD-содержащим хранилищем, потому что уже пять-шесть лет (в зависимости от страны) мы закупаем SSD вместо HDD. Совсем скоро последние хрустящие диски уйдут из эксплуатации, и это будет тариф типа SSD с ограничением по скорости для совместимости с легаси-ценами.

При этом мы используем HDD для долговременного хранения.

Основная проблема HDD — это механика
Внутри идут вращение шпинделя, позиционирование головки, трение. Из-за этого количество операций ввода-вывода IOPS физически ограничено.
  • HDD выдаёт около 150–200 IOPS. Задержка — миллисекунды.
  • SSD (SATA/SAS) — десятки тысяч IOPS.
  • SSD NVMe — сотни тысяч IOPS.

Разница — не в разы, а на порядки. В условиях хостинга, когда дисковый массив — это коммунальная квартира, которую делят сотни клиентов, это критично. Если кто-то один впилится в жёсткий диск записью огромного количества фрагментов меньше кластера и в случайные места на карте диска, то остальные будут стоять в очереди и ждать.

Поэтому, даже если вы просто хотите, чтобы ваши клиенты не испытывали тормозов на скоростях обычного HDD и на тарифе с обычным HDD, надо брать SSD.

Изменился сам веб. Если раньше мы на низком уровне по факту работали с крупными файлами и нагрузка ложилась на оперативку, то сейчас из-за Докера и k8s нагрузка стала дробной. Плюс очень многое стало возможным перераспределять на диски, зная, что они потенциально быстрые. Контейнеры, слои образов, логи микросервисов генерируют огромное количество мелких операций random I/O. Запускать кубера на механическом диске — технически плохая идея: диск просто не справится с очередью запросов, и iowait съест производительность процессора, даже если канал свободен.

Что можно сделать
HDD можно соединять в быстрые RAID (с дублированием). ОК, мы давно так делаем, ограничения — те же, просто чуть расширяются.

Есть устройства класса SSD+HDD или оперативка + HDD, где контроллер выступает кэшем. Условно, у вас есть 10 ТБ-накопитель, у которого 10 ГБ — это кэш контроллера (либо 1 ТБ — быстрый SSD, а остальное — хард, бывают разные вариации). Если вы пишете, скажем, 5 ГБ — их хватает контроллер, записывает в быструю память и потом постепенно распихивает по медленной. Если нагрузки неравномерные, как на десктопе, то всё прекрасно, со стороны это быстрый на запись диск и как-повезёт-на-чтение диск (попали в кэш или нет). То есть он как бы сам внутри себя делит данные на «горячие» и «холодные».

Вариантов там много, но мы такого не используем. Во-первых, они не предназначены для нормальных энтерпрайз-применений, когда запись-чтение может идти постоянно 24 часа в сутки и в разные места: в этой ситуации кэш быстро прокручивается, и вы работаете с HDD почти напрямую. Во-вторых, они создают дополнительные точки отказа, например, очень сложно объединяются в RAID. Рассинхрон кэша и основного диска может привести к полной потере данных. Отказ SSD-кэша делает недоступным весь массив. В-третьих, это зоопарк. А зоопарк мы очень не любим.

В итоге мы оставляем только SSD и NVMe
У нас наш тариф HDD — на самом деле постепенная миграция с HDD на SATA SSD. Мы искусственно режем скорость и IOPS до уровня хорошего жёсткого диска.

Почему так:
  • Нам проще и надёжнее обслуживать парк SSD (нет движущихся частей, ниже риск внезапного отказа), чем поддерживать зоопарк из разных типов накопителей. Исторически мы очень сильно стремимся к гомогенности железа, потому что это очень сильно облегчает и разработку, и ремонт-обслуживание, и логистику, и закупки, и вообще всё в хостинге.
  • Если мы переведём всех на быстрый SSD, то нам придётся поднять цены, и тогда клиенты уйдут. На рынке есть умолчание, что есть дешёвый дисковый тариф, но его как раз ограничивают, чтобы он не конкурировал с дорогими. Это искусственное ограничение из-за того, что все так делают — вероятно, в ближайшие годы оно уйдёт.
  • Есть привычки клиентов. Пользователь видит HDD и интуитивно считывает это как набор параметров + это дёшево и много места. Когда написано SSD — в голове вообще ничего не всплывает. Если тот же тариф назвать «Медленный SSD» или «Throttled SSD», то это вообще никак не поможет UX. HDD тут с годами стал просто красивой метафорой. Хотя на некоторых серверах они ещё остались.

А лента, лента для холодного хранения?
Удел HDD сейчас — долгое холодное хранение. Мы оставим пул HDD в хостинге как раз для этого. По большей части — для бэкапов. Это бэкапы, архивы логов, старый медиаконтент. Там, где нужно дёшево хранить терабайты и редко к ним обращаться, механика по-прежнему выигрывает по цене за гигабайт.

У нас сейчас есть услуга, где можно получить очень много места дёшево для архивов — это как раз массив классических механических HDD, на котором выделяется виртуальный ресурс.

Но в бэкапах есть другая технология холодного хранения — старая добрая магнитная лента. Много кто действительно хранит на ней — за этим, например, замечены Google или ЦЕРН.

В целом мы считали и решили, что та же причина зоопарка того не стоит. Выигрыш на наших масштабах не очень большой. Всё же это решение — для специфических задач вроде научных данных (которые надо всё время копить на тот случай, если они пригодятся через 20 лет), банковских архивов с хранением 50 лет, видеоконтента и так далее.

В хостинге, если клиенту понадобился бэкап, он нужен ему прямо сейчас. Никто не готов ждать час, пока робот найдёт кассету и перемотает её на нужное место. Экономия на носителе не перекрывает потерь от времени простоя и сложности введения дополнительной железяки в обслуживание.

Поэтому там, где надо дешевле, у нас только HDD.

Но ведь HDD дают безлимитное хранилище!
Это просто дикая боль.

Приходят клиенты и говорят, что на рынке есть тарифы с безлимитным хранилищем.

Это, если что, физически невозможно. Ну, без потерь данных.

В физическом мире безлимитов не существует. Канал (скорость записи) имеет ёмкость, а диск имеет объём. На уровне гипервизора всегда стоят жёсткие лимиты, чтобы один активный клиент не положил сервер и не лишил ресурсов остальных соседей. Безлимит — это всегда маркетинг. Вам дадут пользоваться ресурсом, пока вы не начнёте мешать другим и в разумных рамках.

HDD никаким образом не означает безлимит. Но да, часто само слово означает для клиента «бюджетное хранилище».

Итого
  • Самые дорогие тарифы — NVMe-диски. Никто нормально не решил проблему объединения их в массивы с избыточностью, поэтому, если вылетает один такой диск, теряются данные. Рядом с ними обычно стоят HDD для бэкапов по расписанию, например, раз в сутки или итеративных раз в четыре часа.
  • Обычные тарифы — SSD-массивы, мы перешли на RAID 10. Вот пост, почему мы так сделали. С них можно подключиться к хранилищу на HDD и получить там виртуальный диск, где физика будет на механических дисках.
  • Дешёвые тарифы — те же SSD-массивы и иногда уже выводящиеся из эксплуатации HDD. В будущем — только SSD-массивы.
  • Технические диски — образы операционок, промежуточные бэкапы и так далее — иногда бывают классическими HDD.

ruvds.com/ru-rub

Клиентам RUVDS стал доступен обновленный интерфейс ispmanager



Панель управления и администрирования Linux-серверов ispmanager стала доступна в обновленном интерфейсе.

Разработчики пересобрали пользовательский опыт, упростив навигацию, адаптировав панель для работы на любом устройстве, а также добавили обширные возможности для кастомизации. Подвергся переработке интерфейс, он стал проще и понятнее, улучшена читаемость текста.



Команда разработчиков вносила изменения с целью сделать дизайн одинаково удобным для пользователей с разными особенностями восприятия.
Обновлённый ispmanager корректно работает на устройствах с любым разрешением экрана. Смартфон, ноутбук или большой монитор — панель автоматически подстраивается под используемый формат.

Широкие возможности кастомизации позволяют не ограничиваться выбором между светлой и темной темой – пользователь может настроить цвета и оформление панели под себя или свой бренд, создавая собственное уникальное рабочее пространство.

Релиз нового интерфейса состоялся на 3 марта (версия 6.139, beta). После ближайшего обновления в панели управления появилась иконка с предложением перейти на новый интерфейс.

ruvds.com/ru-rub

RUVDS запускает услуги хостинга в Беларуси



Хостинг-провайдер VPS серверов RUVDS вышел на рынок хостинга Республики Беларусь – вычислительные мощности компании были развёрнуты в Минске. Оборудование уже подключено, настроено и полностью доступно клиентам компании.

«Наш шаг вполне можно назвать дальнейшей интеграцией в рамках Союзного государства – площадка RUVDS в Минке в полной мере отвечает как нашему видению развития компании, так и потребностям клиентов как внутри РФ, так и за её пределами. Беларусь – важный хаб в контексте IT-инфраструктуры, это дом для множества инновационных бизнес-структур и место активной цифровизации госсектора. Не сомневаюсь, что спрос на наши вычислительные мощности уже в среднесрочной перспективе потребует ввода в строй дополнительного оборудования. И мы полностью готовы к этому: 2026-й год только начался, и одной локацией мы точно не ограничимся», – подчеркнул генеральный директор RUVDS Никита Цаплин.

Вычислительные мощности RUVDS запущены на базе дата-центра интернет-оператора «Деловая сеть». ДЦ соответствует всем современным требованиям надёжности, безопасности и отказоустойчивости – имеет два независимых ввода электропитания, промышленный дизельгенератор мощностью 300 кВт в качестве резервного источника, источники бесперебойного питания с резервированием общей мощностью 160 кВт.

Площадка в Минске стала 21-й в портфолио компании и 9-й зарубежной локацией RUVDS. Компания на постоянной основе обновляет парк оборудования и масштабируется, открывая новые направления. Так, в 2025 году хостинг-провайдер ввел в работу вычислительные мощности в Ереване, Краснодаре, Мурманске, Омске и Уфе.

ruvds.com/ru/

RUVDS запустил дата-центр в Антарктиде



Хостинг-провайдер VPS серверов RUVDS совместно с Университетом морской практики и Арктического туризма и компанией «Стратонавтика» приступил к испытаниям возможностей экспериментального дата-центра, собранного в концепции минимального энергопотребления, для решения научных задач в условиях необходимости минимизации влияния на окружающую среду Антарктиды.

Вычислительные мощности компании запущены на станции Беллинсгаузен. Оборудование было доставлено на станцию в два этапа: сначала – самолётом из России в Аргентинский город Ушайя, а затем – морским путём, через Пролив Дрейка, одним из самых опасных маршрутов в мировом океане.

«Мы подходили к проекту подготовленными, уже имея за плечами опыт запуска ЦОД на Северном полюсе. Но с Антарктидой, конечно, всё было сложнее: сказывались и логистические трудности, и в целом большая масштабность проекта. Наш дата-центр предназначен как для решения научных задач, так и для доступа обычных пользователей. Рассчитываем, что локация в Антарктиде прослужит несколько месяцев, после чего оборудование будет безвозмездно передано в пользование сотрудникам станции», – сообщил генеральный директор RUVDS Никита Цаплин.

Перечень устройств, доставленных на антарктическую станцию, включал в себя защищенное серверное оборудование, подобранное в том числе и с учётом сложностей морского перехода, а также приемник сигнала с космического аппарата. Транспортировка была обеспечена при поддержке аэрокосмической лаборатории «Стратонавтика».

«Это был непростой маршрут. Благо, всё прошло благополучно, и сервер готов к работе с пользователями. Конечно, это экспериментальный некоммерческий проект, но, являясь настоящим дата-центром, служит доказательством перспектив работы серверного оборудования в самых тяжелых условиях. Уверен, этот опыт пригодится в том числе и для освоения Русского Севера», – подчеркнул Денис Ефремов, основатель «Стратонавтики».

ruvds.com/ru/

RUVDS почти на 40% увеличил выручку по итогам 2025 года



Выручка хостинг-провайдера VPS серверов RUVDS по итогам 2025 года превысила отметку в 228,5 млн рублей. Это значение, на 38,5% превышающее данные за 2024 год, когда соответствующий показатель ограничивался в пределах 165 млн рублей.

Позитивная динамика в работе хостинг-провайдера обусловлена как плановым обновлением оборудования и повышением качества сервиса, так и вводом в строй новых площадок с вычислительными мощностями в городах России и ближнего зарубежья. В частности, в период с 1 января по 31 декабря 2025 года компания ввела в работу оборудование в Ереване, Краснодаре, Мурманске, Омске и Уфе.

«Выручка – ключевой показатель любой компании, и нам отрадно, что показатели отражают верность принимаемых управленческих решений. Позитивная динамика прослеживается на всем периоде работы: мы стабильны и демонстрируем рост в каждом из кварталов. К слову, в 4-м квартале речь идёт о сумме в 63,7 млн рублей – увеличение с аналогичным периодом 2024 года составило 28,3%. Мы продолжим работать в выбранном направлении, не забывая при этом о масштабировании и внедрении новых опций для наших клиентов», – подчеркнул гендиректор RUVDS Никита Цаплин.

Выручка компании за первое полугодие составила 121 млн рублей против 80,2 млн годом ранее, а за второе полугодие – 114,3 млн против 91,2 млн. По состоянию на февраль 2026 года в активе RUVDS числятся 20 площадок, в том числе восемь, работающих в странах ближнего и дальнего зарубежья.

ruvds.com

Барыжный флёр оперативки: что за дичь происходит сейчас на рынке



У нас ещё есть некоторое количество остатков с прошлого кризиса железа


Из-за того, что все хотели ролик с матерящимся бобром, танцующим Мадуро или хотя бы переделать индуса в красивую девушку, у нас тут бум AI-моделей. Эти модели работают на физическом железе и физическом электричестве. Железо, к сожалению, закончилось раньше, чем электричество.

Первыми пострадали не процессоры, как мы ждали, и не видеокарты, как мы уже видели, а банально оперативная память. И отчасти — SSD.

Рынок снова сошёл с ума и стал диким.

Я узнаю знакомые барыжные шаблоны ещё с эпопеи с майнингом и повышением цен на видеокарты. Вот смотрите, на момент публикации серверная планка 96 Гб DDR 5 стоила:
  • В Регарде «чисто», с документами и гарантией — 410 тысяч рублей. Для контекста: летом 2025 года, всего полгода назад, эта же позиция здесь же стоила около 90–100 тысяч рублей.
  • Но её можно купить на сером рынке у барыг. Иногда они мимикрируют под приличные компании, у них безнал с НДС, но цена плавает весь день, как биржевая котировка. Утром тебе говорят: «330 тысяч». К обеду партия может исчезнуть или стоить уже 350.
  • Есть совсем уж барыги с Горбушки и Савёлки — без документов и оплата только наличными, а получение планки — в подворотне. Цена вопроса — 250–280 тысяч рублей.

Но купить сложно. Продавец ведёт переговоры одновременно с десятком покупателей. Ты пишешь: «Возьму 20 штук». Он отвечает: «Есть 10». Пока ты едешь с деньгами, кто-то другой пять уже забрал. Никаких гарантий до момента передачи товара из рук в руки. Это не бизнес-процесс, это квест.

Это не временный всплеск и не сезонное колебание.

Давайте немного разберёмся, что же случилось.
  • TrendForce DRAM Market Report 2025–2026
  • PCPartPicker Price Trends (May–Dec 2025)
  • IDC Worldwide Quarterly Server Tracker
  • Gartner Semiconductor Forecast
  • ComputerBase & Tom's Hardware analytical summaries (GPU Crisis 2017–2022)

Рынок сорвался с цепи
Всё началось незаметно ещё в начале осени. Где-то в октябре наш поставщик железа по России написал, что хорошо бы зафиксировать объёмы поставок на следующий год. Мы не придали этому значения: обычно это часть переговоров. Он начал торопить, и это уже немного раздражало, но всё ещё не выбивалось за ситуацию «с нами агрессивно торгуются». Потом он начал давить ещё сильнее, и мы спросили, а почему он так волнуется.

Он объяснил, что за те четыре дня, пока мы переписывались от первого «Пацаны, определяйтесь уже там быстрее» до момента, когда мы спросили, а чего он такой нервный, цены выросли на 10%.

Нас это снова не особо побеспокоило, потому что тогда оперативка ввозилась через страны СНГ, и в Казахстане как раз были проблемы с логистикой: заторы на границах и так далее.

Мы списали это на волатильность курса и пробки. Казалось, это обычная осенняя история.

Оказалось, что зря мы так подумали.

К декабрю ситуация превратилась в абсурд. Мы искали серверную память высокой плотности — DDR5, 128 ГБ, частота — 5600 или 6400.

Выяснилось, что это не чисто российская проблема с логистикой и санкциями.

Вот данные TrendForce: цены на оперативную память выросли на 171% год к году. Обещают рост ещё на 90–95% в первом квартале 2026-го. Это крупнейший квартальный скачок за всю историю наблюдений. Такого не было ни в 90-е, ни в кризис доткомов.

Данные PCPartPicker (розница, май → декабрь-2025):
  • DDR4-3200 16GB: рост с $50 до $120 (+140%).
  • DDR5-6000 32GB: рост с $120 до $410 (+242%).
  • DDR5-6000 64GB: рост с $210 до $750 (+257%).

В Японии, в Акихабаре, магазины Tsukumo и Sofmap ввели лимиты на продажу памяти в одни руки. В США сеть Micro Center просто убрала ценники с полок с DDR5, предлагая уточнять цену у консультанта — классический признак гиперинфляции. Ноутбуки Framework перестал продавать модули памяти отдельно, потому что к ним не покупали самих ноутбуков. На eBay перекупы накручивают 150–250%, и люди покупают, потому что больше негде. CyberPowerPC, крупный сборщик компьютеров, официально объявила о повышении цен на свои системы, сославшись на удорожание RAM на 500%.

У нас прямо классический барыжный флёр. Можно поехать на Горбушку с сумкой нала и по дороге узнать, что партия ушла. Пишут: «Пришло транзитом, сразу ушло, сейчас есть остатки, но дороже».

Можно выгрызать куски партий: тут 10 планок, тут — ещё четыре, а тут — восемь. Все по разным ценам. Все прыгают. Больше партия — дороже планка.

Ещё есть возможность вывезти из Дубая. Там память стоит на 30–40% дешевле (около 180000 рублей в пересчёте за ту планку, что у нас стоит 250000). Но там проблема с лимитами наличных — 10 тысяч. Это всего 10–15 планок. Разве что сразу ехать автобусом админов.

Ну и я знаю людей, кто ездил в Минск, где процентов на 10 дешевле. Один тоже по дороге узнал, что партии уже нет. Для барыг сейчас важно продать в первые руки — никаких долговременных договоров нет.

DDR4 стала дороже DDR5
А потом случилось самое смешное — инверсия поколений. В смысле, что предыдущее поколение железа стало дороже текущего. Этого в нормальной экономике вообще быть не должно.

Всё это потому, что ChangXin Memory Technologies переключился на дефицитную DDR5. Дешёвая память исчезла моментально. А у огромного количества компаний серверный парк построен с DDR4. Раньше можно было просто докупить память и продлить жизнь сервера на пару лет. Теперь дешевле (условно) выкинуть старый сервер и купить новый на DDR5, но и такой стоит космос.

Тут же ожил вторичный рынок: из старых серверов выдирают память DDR4 и продают её отдельно, потому что внезапно она стала золотым активом.

И, прикиньте, подорожала даже б/у DDR3. Даже до неё дошло дело!

Но почему?
  • AI выгребает всё. OpenAI подписала соглашение с Samsung и SK Hynix (проект Stargate) на выкуп 900000 пластин DRAM в месяц. Это, на секундочку, около 40% всего мирового производства DRAM на текущий момент. Два клиента забирают почти половину мирового запаса.
  • Для видеокарт NVIDIA (H100, H200, Blackwell) нужна специальная память — High Bandwidth Memory. Она сложнее в производстве. Каждый бит HBM требует в три-четыре раза больше места на кремниевой пластине, чем обычная DDR5. При этом выход годных чипов у HBM низкий — около 50–60%. Чтобы произвести одну планку HBM, заводу нужно пожертвовать производством десятка планок обычной памяти. Маржа на HBM выше, поэтому Samsung, SK Hynix и Micron массово перепрофилируют линии. Обычная память им просто неинтересна. Доля HBM уже съела ~30% всех производственных мощностей.
  • Глядя на эту историю, производители, похоже, решили доформировать дефицит. А что? Это же легко, можно ещё разогнать цены. В Samsung перешли на ежемесячное ценообразование. Это сигнал рынку: «Мы не знаем, что будет завтра, но точно будет дороже». В Micron 3 декабря 2025 года объявили о выходе из потребительского бизнеса, А ведь они контролировали ~20% рынка.
  • Ещё есть история в США. Анонсированные тарифы в 25 и 100% на импортные чипы (привет, администрация Трампа!) стали добивающей новостью. Сборщики серверов (Dell, HP, Supermicro) начали скупать всё, что есть на складах, чтобы успеть до введения пошлин.
  • Если вам мало — ещё есть Тайвань. А Тайвань трясёт: три землетрясения за полтора года (апрель-2024, январь-2025, декабрь-2025). Каждое событие — это остановка линий. Потери TSMC от одного толчка оценивались в $92 млн. Micron теряла 4–6% квартальных поставок. Кварцевые трубы в печах лопаются, калибровка сбивается, производство падает.

А ещё Samsung и SK Hynix скоординированно сократили производство NAND более чем на 10%, чтобы удержать цены. В итоге NVMe-диски кратно подорожали вслед за оперативкой.

Я это уже наблюдал на видеокартах
Те, кто пытался собрать игровой компьютер или ферму в 2017-м или 2021-м, сейчас испытывают мощнейшее дежавю. Я вот, например, испытываю. Думаю, что ситуация с оперативкой — это прямо то же самое.

Первая волна была в 2017–2018 годах. Биткоин впервые пробил 19 тысяч долларов. Видеокарты AMD RX 580 продавались в три раза дороже стартовой цены. Точнее, не продавались, потому что просто пропали из магазинов. Nvidia тогда пыталась ограничивать продажи ограничением «две в руки», как сейчас японцы лимитируют оперативку.

Вторая волна пришла в 2020–2021 годах. Сошлось всё: ковид, сидение дома, дефицит чипов и взлёт Ethereum. В апреле-мае 2021-го цены дошли до 329% роста на RTX 3080, 230% — на RTX 3060 Ti.

Использовали ботов, чтобы выкупать партии за секунды. Сейчас барыги с Савёловского делают то же самое с серверной памятью: выкупают любые стоки, чтобы продать страждущим за нал с наценкой в 50%.

Рынок видеокарт вылечился только после перехода Ethereum на Proof of Stake 15 сентября 2022 года. Майнинг на видеокартах умер в один день. Плюс там же были падения криптобирж FTX и экосистемы Terra/Luna.

Цены упали до изначальных (с учётом инфляции). Не сразу — это шло восемь-девять месяцев. На вторичный рынок пошли ужаренные карты из майнинг-ферм. В Китае их продавали на вес.

У нас было несколько GPU-серверов для архитекторов и других графических нагрузок, и мы знали, что наши карты, купленные за 60 тысяч, стоили на Авито 20–30 тысяч.

Что будет с оперативкой?
Стоит ли ждать, что пузырь лопнет и цены вернутся к комфортным значениям лета 2025 года?

Нет.

У кризиса оперативной памяти нет события, которое его остановит. AI вроде бы не собирается прекращать обучаться или останавливать инференс.

Чтобы цены рухнули, должен лопнуть пузырь искусственного интеллекта. Многие говорят, что AI — это хайп и скоро инвесторы разочаруются. Признаки этого есть. Инвесторы начинают задавать неудобные вопросы, а вместо прибыли им показывают красивые видео и то, как ChatGPT пишет стишки. Экономический эффект от внедрения ИИ пока несопоставим с затратами на железо.

Дальше либо это изменится, либо наступит «зима AI». Но даже если она наступит, инерция всё равно будет огромной. OpenAI, Google, Microsoft и другие запрещённые в России организации уже оплатили квоты на производство чипов на годы вперёд. Там контракты, которые нельзя взять и просто прекратить. К тому же видеокарты были нужны только майнерам и геймерам, а память нужна всем. Если отвалится AI, то останется дефицит в других сегментах.

Новые фабрики Samsung P4 и SK Hynix M15X начнут промышленный выпуск не раньше 2028 года. До этого времени физического увеличения объёмов ждать особо не стоит.

Gartner прогнозирует рост цен на DRAM в 2026 году ещё на 47%. Counterpoint прогнозирует: цена на серверные модули 64GB DDR5 RDIMM может удвоиться к концу 2026-го. SK Hynix прямо заявляет: все мощности на 2026 год «фактически распроданы».

Представитель Kingston Кэмерон Крэндалл высказался предельно честно:

«Если планируете апгрейд, то делайте это сейчас. Через 30 дней будет дороже, и ещё через 30 дней — тоже».

Что мы делаем тут в России
Теперь — о том, как мы принимаем решения про закупку железа.

Если что, то мы не торопимся, и закупаем по обычному графику.

Допустим, что вы оптимист. Вы верите, что рынок перегрет и вот-вот скорректируется на 30–40%. Здесь есть валютный риск. Условно сейчас рубль держится в коридоре 70–90 за доллар.

Если через полгода мировые цены на память упадут на 40%, а рубль ослабнет к доллару на те же 40% (что вполне реально при возобновлении активного импорта или изменении сальдо торгового баланса) — смысла дёргаться нет.

Можно получить и суперкомбо: дорогой доллар + дорогая память.

Мы находимся в ситуации, когда плохих решений много.

Если мы сейчас остановимся в закупках железа, то проиграем долю рынка. В смысле клиентов не потеряем, но рынок растёт, и не расти вместе с ним — значит, терять долю. А наша конечная задача — захватить мир, а не сэкономить.

Если закупаться на всё — можно знатно рискнуть: тоже не вариант.

Превращаться в «дойную корову» — выжимать из старого железа всё до последней капли, пока оно не умрёт, — тоже путь к банкротству. Железо быстро станет медленным для клиентов, дороже в обслуживании, накопит проблемы, клиенты уйдут, а восстановиться будет нечем. В хостинге и облаках долю рынка вернуть почти невозможно: клиент, ушедший на чужие мощности, редко возвращается обратно.

Удорожание сервера на 30% увеличивает его окупаемость на те же 30–40%. Единственный способ сохранить рентабельность — переложить эти расходы на клиента. Рынок растёт, спрос на вычислительные мощности (даже без учёта AI) — огромный. В России у нас давно (с 2022 года) дефицит стоек в ЦОДах: сервер физически некуда поставить.

То есть можно или поднять цены клиентам, или потерпеть и работать с меньшей маржинальностью. Мы, наверное, выберем и то и другое.

ruvds.com/ru-rub

С Новым годом!



Вот и прошли очередные двенадцать месяцев, и мы снова поздравляем наших коллег, клиентов и партнеров – друзей, с которыми мы имели честь пронестись через ритмичный 2025-й.

В нём было многое. В том числе и то, что хочется забрать с собой в будущее. Весь этот год мы открывали новые площадки, проектировали спутники, запускали ЦОД в Заполярье и даже добрались до Антарктиды, воплощая то, что ещё совсем недавно казалось лишь планами на перспективу. Всё это стало возможным благодаря вам – людям, с которыми мы привыкли делиться всем. В том числе – новогодним настроением, тем самым чувством праздника, которое, посетив нас однажды, согревает ещё долгие месяцы.

Пусть новый 2026-й станет не просто ярким, а прорывным – годом, когда накопленный опыт, знания и силы позволят совершить невозможное, застолбив места там, куда ещё вчера многие боялись даже смотреть. Пусть планы становятся явью, удача сопутствует всем начинаниям, а успех занимает место постоянного спутника ваших будней. В конце концов, мы к этому шли, мы этого достойны, и мы этого заслужили!

С праздником!

ruvds.com

Я наконец-то понял, как открытость может помешать — и отчёт об аварии





В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали.

Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии.
Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы.

Так вот.

Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр.
Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным.

Наверное.

Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

Сбои случаются у всех, но не все про них рассказывают
До понедельника было другое событие.

Место действия — наш ЦОД в Королёве. Он находится на территории особо охраняемого завода. Завод, как и ЦОД, запитан от двух независимых подстанций + у нас есть ИБП, дизели и запас топлива + договор на поставки топлива и аренду дополнительного резервного дизеля.
Тестовые прогоны дизелей случаются регулярно как минимум на смене топлива с летнего на зимнее.

Подстанции в последние годы нестабильны. Там в 2023-м уже был ремонт, в результате которого электрики увидели летающие дверцы шкафа. Вот отчёт по этой истории. На этот раз случилось что-то новое, и обе подстанции вышли из строя. На этот раз нам не сообщали никаких деталей, то есть спектр причин мог быть очень широк: от банального человеческого фактора до диверсий.

Для нас важно то, что обе подстанции перестали подавать электричество в позапрошлый четверг.

ЦОД в Королёве переключился на дизель и почти 4 часа так работал с перерывами на попытки включения линий подстанций несколько раз. Подачу питания восстанавливали несколько раз, мы выжидали, переходили на городской ввод, и несколько раз происходило повторное отключение и снова переход на дизель.

Примерно через 4 часа подача питания от подстанций была восстановлена и оставалась стабильной. Авария закончилась.

Для абсолютного большинства клиентов ЦОДа все эти действия прошли незаметно. Сеть сохранялась, всё оборудование сохраняло работоспособность, так как каждый сервер имеет два блока питания, и они подключены к разным ИБП. Были некоторые проблемы с сетевым оборудованием в это время, которое потребовало перезагрузку коммутаторов по итогу, но в целом эту ситуацию отработали штатно.

В чём прикол с ИБП при «миганиях» света
Важно то, что дизели не стартуют мгновенно. Пока они заводятся, серверы и коммутаторы живут на
  • ИБП — старых добрых батареях. Что произошло:
  • При первом отключении батареи частично разрядились, ЦОД перешёл на дизель.
  • Батареи начали заряжаться от дизеля.
  • Они не успели полностью зарядиться, ЦОД перешёл на городской ввод.
  • Ещё 10 минут они заряжались от города.
  • Затем снова переход на дизели, то есть они разряжаются до примерно 20–30% остаточной ёмкости, потому что не успели зарядиться полностью прошлый раз.

Если свет моргнёт ещё раз, надо либо сутки стоять на дизеле и заряжать батареи, либо рисковать переключением с возможностью не переключиться обратно. Стандартная процедура — стоять на дизеле до безопасного заряда батарей.

Ещё несколько раз свет «мигал», когда питание прерывалось на несколько секунд, без переключения на дизели.

В прошлый понедельник ситуация повторилась
Питание с двух — напомню, независимых с независимыми маршрутами — подстанций пропало на 20 минут.

И вот в этот момент вылетело два ИБП.

Это вызвало отключение четырёх серверов, которые были одновременно подключены к вылетевшим батареям. Остальным серверам повезло больше, у каждого был как минимум один ИБП.

Почему всего четыре, а не полстойки? Потому что эта стойка неполная.

ИБП при такой нагрузке вылетать не должны.

Но!

Во-первых, мы планировали плановую замену батарей в ИБП как раз в начале декабря (напоминаю, авария — уже почти середина декабря). 2 декабря мы оплатили счета за них, и они должны были приехать 3–5 декабря.

Они действительно приехали к поставщику, но коробки оказались битые.

Поставщик отказался поставлять батареи, и был на 100% прав. Если логисты побили коробку — это всегда возврат и тщательная диагностика, возможно, списание.

То есть ровно неделю мы стояли с несколькими батареями за сроком плановой замены.
Срок плановой замены подбирается с запасом. Это не так, что ровно день в день батарея умирает.

Диагностика у нас постоянная, в помещении сверяется температура (она около 18–19 градусов Цельсия), плюс мы смотрим напряжение. У самих ИБП тоже есть собственные средства диагностики, и они зажигают лампочки, если нужна замена батарей.

Лампочки не горели. Температура была нормальная. Батареи давали нормальное напряжение.

Но часть из них почему-то решила взять и умереть при разряде в понедельник в этих двух ИБП.

Понедельник
В понедельник я оказался в странной ситуации:
  • Мы не понимали, что случилось. Но поддержка уже ответила клиентам наиболее вероятной версией, что в результате некоторого испорченного телефона стоило нам сильного недопонимания клиентов. Очень упрощая, клиент спросил, есть ли резервирование ИБП. Админ ответил, что нет, ни один ЦОД так не делает. Админ имел в виду ЦОДы TIER-III (T4 так делает) и резервирование 2N по мощности. ИБП должны выдерживать 2 переключения на своих батареях, и общий пул батарей не дублируется практически никогда. Смысл в том, что это именно общий пул, суммарная ёмкость. Она уже содержит резерв. Но из-за непонимания, что каждый имел в виду, клиент решил, что резервирования питания в ЦОДе нет.
  • Я в это время пытался разобраться с поставщиком и достать батареи быстрее.
  • Через несколько часов мы решили, что вместо расследования причин проблем с батареями, сначала надо провести все плановые замены. Поставщик не успевал с повторной поставкой, поэтому мы поехали и купили батареи в магазине как физики.
  • Дальше мы ковырялись с заменами и всё поменяли.
  • Ещё позже приехали батареи от поставщика.
  • До вечера мы разбирались с тем, что происходит.
  • Затем начислили положенные по SLA компенсации за простой тем, кто пострадал.
  • В итоге мы почти не трогали обсуждения, и в публичном поле творилось не самое хорошее.

Главный мой вопрос был — а что именно случилось с батареями? Они не должны были так деградировать. Плановая замена на то и плановая профилактическая, чтобы такого не было. Если бы горели лампы «замените батарею», можно было бы рассуждать про то, что мы не так обслужили ИБП, но смысл профилактической замены — сделать всё так, чтобы эти лампы никогда не загорались.

Первая наша гипотеза, которую поддержали инженеры, — батареи стали хуже. Тут я обосновать пока не могу.

Второй вариант — частые «мигания» питания могли повредить батареи. Но вообще-то они для этого и спроектированы.

Решения мы везде принимали правильные. Да, при аварии в четверг фактически был проведён стресс-тест системы, но мониторинг показывал, что все ИБП работают, ошибок нет. По этой причине не было никакого мотива каким-то образом там искать прямо в четверг эти батарейные блоки на замену, когда мы знали, что они едут. Принимать битые коробки мы точно не должны были.

Непохоже, что проигрывая эту ситуацию ещё раз, мы поступили бы иначе, имея тот же набор исходных данных для решения.

Почему пострадало относительно небольшое количество серверов. Мы применяем шахматную схему подключения, в которой серверы подключаются в таком порядке, чтобы минимизировать количество потенциально страдающих серверов при отключении более чем одного ИБП по любой причине. Ниже пример логики этой схемы. Если бы не она, отключились бы восемь серверов.



Возвращаюсь к вопросу открытости
Если бы мы ничего никому не сказали, ситуация для нас была бы гораздо легче. Время такое, что всё, что угодно, можно свалить на блокировки, санкции и т.п. И даже подсказывать не надо, это вроде как самоочевидная причина, люди сами очень быстро так подумают.

Если бы мы сказали позже на сутки, не было бы слухов и неправильного толкования того, что сказал саппорт. Они отвечали, ещё не до конца поняв, в чём проблема. Можно было не отвечать? Спокойно. Все так делают.

С другой стороны, пострадало 4 сервера в одном из 20 ЦОДов. Но ощущение из-за нашей публичности было такое, как будто авария крупная. И вот здесь главный минус открытости — складывается впечатление, что у нас такое происходит чаще, чем обычно. Так вот, нет. Ломается всё у всех, но если про это не говорить, это незаметно.

Я всё ещё считаю, что нужно держать в курсе всегда и по имеющимся на текущий момент данным. У нас открыты чаты и комментарии везде, есть сообщество клиентов в ТГ. Да, нас больно бьют за каждую проблему, и некоторые вещи эмоционально очень хочется не рассказывать. Это цена открытости.

ruvds.com/ru-rub