Рейтинг
0.00

RUvds Хостинг

2 читателя, 78 топиков

«Лаборатория Касперского» разработала защитное решение для спутника-платформы RUVDS





«Лаборатория Касперского» разработала для хостинг-провайдера VPS серверов RUVDS специализированное решение Kaspersky Endpoint Security for Linux (KESL) — Space Edition, которое поможет обеспечивать защиту спутника-платформы RUVDSSat1 на протяжении всей его миссии. Программное обеспечение создано на базе технологий KESL с учётом особых требований к производительности в условиях ограниченных вычислительных ресурсов на орбите.

Спутник выступит в качестве испытательного полигона. За решение ИТ-задач в космическом аппарате отвечает отдельный микрокомпьютер Raspberry Pi Zero с частотой процессора 1GHz и 512MB оперативной памяти. «Лаборатория Касперского» адаптировала технологии KESL под данную платформу, чтобы обеспечивать защиту полезной нагрузки, которую размещает на спутнике хостинг-провайдер RUVDS.

Проект имеет научно-исследовательский характер и ориентирован на широкую массу экспертов и энтузиастов освоения космоса. При этом хостинг-провайдер не исключает возможность предоставления вычислительных мощностей спутника на коммерческой основе — минимальный срок функционирования RUVDSSat1 на орбите составит один год. Запуск аппарата и его вывод на орбиту запланированы на конец 2025 года.

Как показал наш опыт, в том числе и с предыдущим спутником, обеспечившим первый в истории хостинг сайта прямо с орбиты, космические аппараты подвергаются точно таким же рискам, как и объекты инфраструктуры или частные вычислительные устройства на Земле. В нашем новом проекте мы ещё более открыты аудитории, потому вопросы кибербезопасности занимают в нашей повестке особое место. Мы рады сотрудничеству с „Лабораторией Касперского”, уверен, совместная работа над проектом самым положительным образом скажется на обеих компаниях и поможет в разработке новых решений
подчеркнул генеральный директор RUVDS Никита Цаплин.

Защита таких аппаратов, как спутник-платформа RUVDSSat1, требует особого подхода, поскольку они обладают ограниченными вычислительными ресурсами. Возможности Kaspersky Endpoint Security для Linux позволили нам справиться с этой задачей. Наше решение учитывает специфику ПО для автономных летательных аппаратов, в том числе это касается энергопотребления. Мы будем внимательно наблюдать за результатами проекта, чтобы использовать полученный опыт для развития наших технологий. Это позволит нам эффективнее защищать устройства с небольшими вычислительными мощностями, в частности IoT-приборы
комментирует Анна Кулашова, вице-президент «Лаборатории Касперского» по развитию бизнеса в России и странах СНГ.

RUVDS прогнозирует всплеск кибератак осенью 2026 года





Количество успешных кибератак на российские организации в следующем году может увеличиться на 30-40%, а пик активности злоумышленников, вероятно, будет достигнут в Единый день голосования в конце сентября. Соответствующий прогноз сделал генеральный директор хостинг-провайдера RUVDS Никита Цаплин в ходе выступления на Открытой конференции ИСП РАН в Москве.

По нашим оценкам, общее число количество успешных кибератак на организации нашей страны вырастет на 30–40%. Скорее всего, пик будет достигнут в конце сентября, когда в стране в Единый день голосования пройдут выборы – в том числе и в Государственную Думу. Потому можно предположить, что атаки на госсектор станут самыми массовыми, и на них придётся больший процент от общего числа вредоносных активностей
подчеркнул гендиректор хостинг-провайдера VPS-серверов RUVDS Никита Цаплин.

Также в ходе своего выступления с докладом «Адаптивные методы и средства поверхностного анализа пакетов для обнаружения аномалий в зашифрованном трафике» гендиректор хостинг-провайдера отметил, что перспективы снижения геополитической напряженности не скажутся на активности злоумышленников радикальным образом – общий рост угроз продолжится.

В докладе были рассмотрены как проблемы сетевой безопасности в целом, так и вопросы ограничений существующих методов, уделено внимание вопросам мониторинга трафика, критериям обнаружения аномалий и прочим аспектам защиты данных.

Новые цены на 2026 год: как сохранить свой тариф и даже сэкономить



С 31 декабря 2025 года некоторые услуги RUVDS станут чуть дороже. Среднее повышение составит около 7 %. Мы старались удержать цены на максимально комфортном уровне, но изменения на рынке и в налоговой сфере делают корректировку неизбежной.

Чем вызвано изменение цен
  • С 1 января 2026 года НДС в России повышается с 20 % до 22 %, а порог применения льготного режима УСН снижается.
  • Растут цены на коллокацию в коммерческих дата-центрах — от 15 до 35 %.
  • Становятся выше затраты на комплектующие: оперативная память и другое оборудование уже подорожали в 1,5–2 раза.

Что нас ждёт в новом году
Тарифы RUVDS вырастут в среднем на 7,6 %, максимум — 11,4 %, в зависимости от конфигурации. При этом повышение не затронет тарифы «Старт», «Турбо» и «Драйв», а также аренду IPv4-адресов. Мы продолжаем держать часть расходов на себе, чтобы минимизировать рост цен для наших клиентов.

Как заморозить текущие цены
Вы можете сохранить текущие цены в 2026 году — для этого продлите свои серверы в личном кабинете на любой удобный срок (например, на год или 6 месяцев).

Как сэкономить
Кроме того, при продлении серверов на год вперёд действует скидка 30%. Чтобы воспользоваться ей, пополните баланс и создайте новый сервер или продлите текущий до 30 декабря 2025 года включительно, обязательно списав деньги с баланса личного кабинета.

Сравнение текущего и будущего тарифов «Своя конфигурация» для российских и зарубежных дата-центров (в рублях, в месяц):


Мы благодарим вас за понимание и продолжим предоставлять надёжные и качественные услуги, несмотря на изменения на рынке.

С уважением, команда RUVDS.

Региональные дата-центры в России сейчас: на что это вообще похоже, и правда ли, что за МКАДом жизни нет



Вот так выглядит ЦОД в Новосибирске
В целом для коммерческих ЦОДов — правда, но есть и нюансы.

Начнём с суровой реальности. У нас вся экономика, все деньги и штаб-квартиры сосредоточены в Москве и Петербурге. Дальше, особенно если смотреть за Урал, с точки зрения коммерческих ЦОДов — пустыня. Да, там есть богатый Екатеринбург, да, там есть Новосибирск, да, там есть Владивосток с его международной торговлей, но потребности в коммерческих ЦОДах нет.

Это классическая проблема курицы и яйца. Коммерческий ЦОД строить там невыгодно, потому что нет клиентов, а клиентов нет, потому что нет нормальных ЦОДов.

В регионах живут в основном каптивные ЦОДы. Это когда условная налоговая или какой-нибудь гигант вроде «Норникеля» строит объект чисто под себя. Им вообще всё равно, где строить: они делают по потребности, а не по условиям. Если госзаказчику по плану нужно построить ЦОД во Владимире или Ярославле — они построят там. Им не нужно бегать по рынку и искать заказчика, у них стопроцентная загрузка своими же расчётами или данными. Производственники могут построить хоть в тундре, и вопрос окупаемости за счёт внешних арендаторов там не стоит.

А вот если ты хочешь построить коммерческий объект для сдачи стоек в аренду, то тут вступают в силу другие законы. В регионах просто нет такого объёма экономики, чтобы окупить полномасштабный ЦОД. Считается, что в регионе есть смысл начинать стройку, только если у тебя есть предзаказ («якорь») минимум на 60% мощностей. Если этого нет, то ты построишь коробку, которая будет генерировать убытки.

Но начинается всё с дешёвого электричества, конечно. Оно важнее, чем аплинки.

Кому это вообще нужно на месте?
Вот представьте: вы в условном Тундрятске или Уволжске. У вас торговый центр, все клиенты — из вашего города. И вам нужен сервер. Вы лезете в Яндекс, но на первых страницах нет местного провайдера.

Там есть московские гиганты, которые предлагают виртуалки и колокацию. И дальше вы покупаете виртуалку именно в Москве.

Реальный спрос на местное размещение есть только у узкой прослойки:
  • «Сектанты» физического доступа. Условный завод железобетонных изделий в Тундрятске. Им нужно хранить фото форм отливки или локальную базу. Владелец рассуждает так: «Не хочу Москву, не хочу облака. Хочу, чтобы сервер стоял здесь и чтобы мой админ Вася, которому я доверяю, мог сесть в машину, доехать и лично нажать кнопку». Они там так мыслят. Если сервер можно пощупать — он свой. Если нельзя — он чей-то. Ну и вторая особенность: если что-то пойдёт не так, то хотелось бы приехать и забрать его руками, а не пытаться понять, что там в Москве. Вообще колокация в Москве часто вызывает нездоровые ассоциации с дальними командировками и затратами. Плюс в вопросах бизнеса москвичи стереотипно считаются скользковатыми, и лучше уж договариваться с местными.
  • Тяжёлый контент и спецзадачи. Медицинские клиники, обрабатывающие снимки МРТ (гонять терабайты в Москву и обратно дорого и долго), или игровые сервера, где лаг критичен.

То есть спрос как бы есть, но по факту он очень мал. Часто выгоднее и проще работать именно с Москвой.

Почему местные провайдеры не могут? Чаще всего потому, что местный маркетинг слаб, их сайты лежат на 100-й странице поиска, с заказчиками не разговаривают, не образовывают. Да и для условной бухгалтерии дополнительный пинг в 100 мс некритичен — бухгалтер разницы не заметит.

Но есть и совершенно особенные местные детали.

Уфимская петля
Готовьтесь к абсурду с маршрутизацией. Вот живой пример из Уфы. Мы разместились в дата-центре крупного местного провайдера. Казалось бы, мы в Уфе, клиент — сосед через дорогу, он подключён к домашнему Интернету того же провайдера. Пинг должен быть нулевым, трафик не должен покидать пределов города.

В реальности местные операторы пытаются защитить свою сеть. Денег на собственных безопасников и дорогое железо для фильтрации у них нет. Они идут по пути наименьшего сопротивления — покупают готовые решения: StormWall, DDoS-Guard, Qrator. А узлы очистки у этих ребят стоят где? Правильно, в Москве, на М9. Или ещё дальше.

Получается дикая схема. Клиент из Уфы стучится на сервер в Уфе. Его пакет летит в Москву, там проходит очистку и только потом возвращается обратно в Уфу.

Мы делаем петлю через полстраны.

Пишем им: «Ребята, мы свои, мы стоим у вас в стойке, мы белые и пушистые. Примите нас за своих, отключите фильтрацию StormWall для нашего трафика, пустите напрямую! На все инциденты мы отреагируем сами».

И вот это согласование — просто чтобы нас признали своими внутри сети — может висеть неделями.

Уфа — просто свежий пример, такое случается и в других городах.

Как искать ЦОД — это отдельная боль
Пару раз мы не находили нужных дата-центров.

Вы можете листать выдачу поисковика до посинения. Сайты у местных — это привет из 1998 года: дизайн не менялся десятилетиями, панели управления забыты, телефоны не отвечают. Часто сайта вообще нет или он есть у ЦОДа, который существует только на бумаге.

У нас была показательная история в Омске. Мы искали площадку, перерыли всё — глухо. В итоге пошли по рекомендации нашего вышестоящего оператора связи. Они сказали: «Вот этот оператор надёжный, мы с ним 20 лет работаем, и он ни разу не подвёл». Мы приехали — там всё скромно, без лоска, скорее это узловая операторская, а не коммерческий ЦОД. Никаких красивых сертификатов Tier III на стене. Но нам важнее рекомендация партнёра, чем бумажка. Сертификат можно купить, а вот готовность местной техподдержки вовремя воткнуть KVM в сервер посреди ночи — это бесценно. Мы встали туда.

Написали про это статью на Хабр. И тут в комментарии приходят представители другого омского ЦОДа и обиженно пишут: «А чего вы нас не рассмотрели? У нас же настоящий ЦОД!» Мы позвонили, поинтересовались что и как. Очевидно, что переставлять уже не было смысла, и рекомендация оператора при этом не менялась. Они: «Ну надо было связаться, мы организовали бы вам канал, подключили провайдера...»

А мы-то понимаем, что это значит на их языке. Фраза «Мы подключим к вам провайдера» в регионе означает «Мы выставим вам счёт за прокладку оптики». Потому что ради одной нашей стойки бесплатно копать землю и тянуть кабель никто не будет. В том месте, где мы встали, уже был стык кучи операторов. А в «красивом» ЦОДе мы были бы одни в поле, и вся инфраструктура легла бы на наш чек.



Потом, правда, пришёл ещё человек и сказал, что первый — не от дата-центра, и вообще история мутная. Мы до сих пор не понимаем, что происходит.

Опять же случай неединичный.

Для поиска дата-центров есть даже специальные риэлторы.

Брокеры: риэлторы для ЦОДов
Из-за того, что самому найти площадку сложно (или нет мест), появились брокеры. Это как риэлторы, только ищут не квартиру, а стойку.

Зачем они нужны, если можно позвонить напрямую?

Сейчас в Центральной России — дефицит мест. Вы можете прийти в ЦОД с улицы, и вам скажут: «Мест нет». И хоть ты тресни! А у брокера там могут быть выкупленные огороженные зоны или зарезервированные стойки, которые он держит под своих клиентов. Он знает внутреннюю кухню: кто съезжает, где что освобождается. Вам найдут.

У них партнёрские цены, которые сильно ниже прайса с улицы.

Мы искали точку в Мурманске. Оказалось, что на всём Кольском полуострове коммерческих ЦОДов, по сути, нет. Я писал напрямую в Ростелеком — они мне отвечали месяца два или три. Брокер к ним тоже постучался. В итоге, когда Ростелеком проснулся, у них лежало две заявки — от меня и от брокера. Бардак, конечно, дозвониться невозможно, но брокер хотя бы матерился на них вместе со мной — уже психологическая поддержка.

Как обычно выглядит региональный дата-центр
Это часто не отдельное здание, а полусерверная на территории какого-нибудь завода или офисного центра. И тут есть два нюанса.

Типичный региональный ЦОД


А вот, например, очень приличный ЦОД в Казани


В Москве попасть в хороший ЦОД — целая спецоперация. Это режимные объекты, бункеры, бюрократия, пропускная система, как на космодроме. В регионах всё проще, «по-людски». Проще завезти оборудование, проще попасть инженеру. Меньше формализма.

Вторая особенность — в Москве найти толкового админа сложно, а в регионе — почти невозможно. Это как с Макдоналдсом: в Москве логистика и стандарты отлажены, а открой точку в Уволжске — тебе поставщик картошку плохую привёз, кассир запил и не вышел и т. д.

Поэтому нам приходится выстраивать жёсткую унификацию и автоматизацию. Мы не можем надеяться на «золотые руки» на местах, мы должны присылать готовые решения и запчасти, потому что купить нужный диск «здесь и сейчас» может быть негде.

Но при этом по факту аптайм в регионах часто бывает лучше, чем в столицах!

Из-за низкой плотности!

В крупном московском ЦОДе типа IXcellerate сидит куча клиентов. Там и банки, и энтерпрайз, и хостеры. А хостер — это агрегатор кучи мелких клиентов и, будем честны, кучи всяких чудаков. Когда в одном месте собирается такая толпа, постоянно случается какая-то ерунда: кто-то канал положил DDoS-атакой, кто-то питание дёрнул, кто-то настройки перепутал. Чаще всего один проблемный клиент с дидосом создаёт головную боль всем. В региональных ЦОДах плотность низкая. Стойки стоят полупустыми, каналы не забиты под завязку. Соседей мало, никто локтями не толкается. И атак меньше, и аварий по вине соседа почти не бывает.

Итог
Мы продолжаем открывать региональные ЦОДы под VDS, у нас площадки — по всей стране. Есть Казань, Екатеринбург, Новосибирск, Краснодар, Омск, Мурманск, Уфа. Москва и Петербург тоже есть.

Это местами очень странно, местами — тяжело, но в целом работает. Рынок дикий: чуть улучшить условия и прозрачность не помешало бы всем.

ruvds.com/ru-rub

Определены победители конкурса «Космотекст»: лучшие статьи отправляются в космос



Хостинг-провайдер VPS-серверов RUVDS и редакция сайта «Хабр» подвели итоги конкурса «Космотекст», в рамках которого были выбраны лучшие технические и научно-популярные материалы российских авторов для отправки на орбиту. Материалы будут храниться на спутнике RUVDSSat1, доступ к ним сможет получить любой желающий.

Лучшей статьёй был признан текст «Экологичное расставание с Алисой: строим полностью локальный и приватный голосовой ассистент». Публикация стала абсолютным победителем, а её автор получил супер-приз — экскурсию на космодром Байконур.
habr.com/ru/articles/930340/

Ещё шесть публикаций принесли их авторам, помимо отправки материалов на орбиту, победу в борьбе за «космический мерч» RUVDS. Также место на спутнике в рамках конкурса завоевали ещё 13 материалов, которые отправятся в космос вместе с публикациями из «золотого фонда» статей.

Все подробности и победители – в материале «Хабра».
habr.com/ru/specials/968096/

RUVDS почти на четверть увеличил выручку в третьем квартале



Выручка хостинг-провайдера VPS-серверов RUVDS от оказания облачных услуг IAAS по итогам 3-го квартала 2025 года составила 53,17 млн рублей. Текущее значение на 24% превышает показатель аналогичного периода прошлого года.

Несмотря на сложности, с которыми сталкивается индустрия хостинга, мы продолжаем увеличивать число площадок в России и ближнем зарубежье, и растущие показатели – результат в то числе и этой работы. Цифры свидетельствуют о верности выбранного курса, и мы продолжим развиваться в этом направлении, уделяя особое внимание качеству и удобству нашего сервиса. Уверен, что динамика по итогам года покажет не менее значимые результаты
подчеркнул генеральный директор RUVDS Никита Цаплин.

За отчетный период общее количество активных виртуальных серверов, которыми пользуются клиенты компании, увеличилось на более чем 2 тыс. Это показатель, почти в два раза превышающий динамику 3-го квартала предыдущего года.

По состоянию на ноябрь 2025 года в портфолио компании значится 20 площадок с вычислительными серверами в России и за её пределами.

ruvds.com

Почему тормозят AMD Epyc





Нам надо было закупить High-CPU, но так, чтобы это было одинаковое корпоративное железо для всех наших дата-центров по миру.

Почему надо было закупить? Потому что есть маркетинг. Те хостинги, которые используют десктопное железо, вешают потрясающие числа на сайты. У многих красуются предложения с частотами по четыре, а то и по пять гигагерц. Понятно, что совесть у всех разная, и часто за этими цифрами скрываются обычные десктопные процессоры, а не серверные. Но клиент, который не вникает в детали, видит большое число и делает выбор.

Так вот, нам надо было тоже завести такое большое число, потому что так порешал рынок.

Мы давно придерживаемся принципа использовать только настоящее серверное железо, то есть корпоративный класс. У нас в основной линейке стоят проверенные серверные Intel, которые в пике выдавали 3,7 ГГц. И мы-то знали, что наши 3,7 ГГц по реальной производительности легко обгоняют многие разогнанные решения конкурентов.

Но как это донести до человека, который просто сравнивает цифры на лендинге?

Поэтому мы стали искать серверный процессор с высокой тактовой частотой, чтобы соответствовать нашей внутренней политике и при этом не проигрывать в слепом сравнении.

Решили затестить AMD Epyc. Нашли модель с отличными ТТХ: много ядер, высокая частота. Купили партию железа.

Думали, что сейчас включим, и он просто разорвёт наш текущий Intel.

Это наш первый опыт с AMD. Нас немного смущал тренд на Реддите «Почему тормозят AMD Epyc», но казалось, что всё должно пойти хорошо.

Конечно же, хорошо не пошло, иначе я этого не писал бы.

Тесты
Развернули тестовый стенд и начали гонять бенчмарки. Методология стандартная, отработанная годами. Берём популярный пакет AIDA64, который умеет измерять производительность всех ключевых компонентов: процессора, памяти, диска. Сначала делаем базовый замер на пустом сервере, чтобы получить эталонные цифры (в таблицах это VM-0, то есть без виртуализации). Это наша точка отсчёта — 100% производительности.

Потом начинаем последовательно увеличивать нагрузку: запускаем 20 виртуальных машин, затем — 30 и 40. На 40 сервер становится полностью неюзабельным, поэтому откатываем до 35. На каждом этапе мы забирались в одну из виртуалок и прогоняли полный набор тестов по шесть раз. Шесть прогонов нужны, чтобы отсеять случайные всплески и провалы. Из этих шести значений мы взяли медиану.


Первые же сводные таблицы озадачили: никакого «всестороннего преимущества», на которое мы рассчитывали, не было. Да, в каких-то задачах Epyc был чуть лучше, в каких-то — чуть хуже. Например, тест на шифрование AES (19293 МБ/с) или хеширование SHA3 (1223,5 МБ/с) показывали отличные цифры, но в целом картина была очень неоднозначной. По сути, он оказался на одном уровне с нашим проверенным решением на Intel. Странно, но не критично.

А вот интересное началось, когда мы стали проверять систему под реальной нагрузкой, имитируя плотное заселение сервера клиентами. Пока на сервере работают 10, 20, даже 25 виртуалок — всё отлично. Интерфейс внутри машин отзывчивый, сеть работает бодро. Но как только мы переваливали за определённый порог, начинался лагодром.

Причём независимо от нагрузки виртуальных машин. Единственный показатель — их количество.

Попробовали поставить на паузу 28 из 35 ВМ — лагодром сохранился!

Дальше — неоднозначная кривая:
  • 30 виртуальных машин — полёт нормальный.
  • 34 — ещё терпимо.
  • 35 — всё, приехали. Система начинала не просто подтормаживать, а жёстко деградировать. Числа не передают, насколько это было критично: интерфейс ВМ лагал, проводник открывался через секунду, отклик на действия становился непредсказуемым. Производительность падала не плавно, а практически отвесно. Связано это с деградацией производительности ввода-вывода или с чем-то иным, нам ещё предстоит выяснить.









Начали ковыряться с SMT в BIOS, меняли настройки префетчеров, пытались реплицировать настройки из AMD Performance tuning гайда. Мы даже пошли на Ютуб смотреть видео от Level1Techs — ничего не помогало. Именно тут мы поставили ВМ на паузу и сильно удивились: лаги шли, даже если лишние виртуальные машины были просто созданы и стояли в холде.

То есть сам факт их существования уже приводил к деградации производительности всего хоста!

Так что позвольте представить вам первый процессор с аппаратной защитой от переподписки: на один поток приходится ровно одна виртуальная машина плюс пара потоков нужна для менеджмента.

Возможно, конечно, это прикол нашего гипервизора (Hyper-V) — с KVM не тестили. Но, как нам кажется, вероятно, проблема — в контроллере памяти и в том, как процессор управляет виртуализацией. Если упрощать, то у процессора есть специальная таблица, которая сопоставляет физические адреса в оперативной памяти с виртуальными адресами, видимыми операционной системой и виртуальными машинами. У Intel исторически с этим всё было отлично: их контроллеры памяти — лучшие. Они в принципе придумали VT-D как таковую. Наши админы предположили, что у Epyc размер этой таблицы маппинга как-то жёстко ограничен — возможно, количеством ядер или потоков. Как только количество запущенных виртуальных машин превышает этот лимит, таблица переполняется. Процессору приходится постоянно заниматься подкачкой данных: выгружать их и загружать новые, делать медленные «лукапы» во внешней памяти. Из-за этого и начинаются дикие задержки. Это также объясняет, почему производительность становилась нестабильной: какая-то виртуалка могла случайно «задержаться» в быстрой таблице и работать идеально, как будто она одна на сервере, а в следующем прогоне теста её «выселяли», и она умирала.

Теперь посмотрите на тесты диска в сводной таблице. На пустом сервере скорость чтения с SSD изнутри ВМ была 28,56 МБ/с. При 30 ВМ она упала до 10,93. А при 40 ВМ — до 5,8 МБ/с! Падение — почти в пять раз! Memory Latency тоже поползла вверх: со 114 нс до 129 нс. А вот чисто процессорные тесты вроде CPU Queen просели не так драматично: с 33301 до 31233. Это значит, что сам по себе процессор молотит нормально, но вся система в целом, вся обвязка, отвечающая за взаимодействие с памятью и устройствами, просто захлёбывается.

В итоге мы столкнулись с дилеммой: напихать много маленьких клиентов в мощные сервера не выйдет — остаётся делать услугу с гарантией ядра. Сейчас мы предоставляем на этих Epyc-серверах выделенные гарантированные ядра. Это означает очень низкую плотность клиентов на одном физическом сервере. А раз клиентов мало, то и остальные ресурсы — дисковая подсистема, пропускная способность сети — делятся между меньшим количеством соседей. В итоге каждый клиент получает очень производительное и стабильное окружение.

А потом случилось страшное. Когда мы ввели услугу в продажу, её очень быстро раскупили. Вероятно, сработал тот самый «маркетинговый буллшит»: люди увидели высокую частоту и проголосовали кошельком.

Поэтому и родилась идея этого поста: с одной стороны, мы хотим показать технически грамотным читателям, что наше базовое решение на Intel ничуть не уступает модному AMD. А те, кто не читает тестов, просто зайдут на сайт, увидят красивые цифры и купят.

Ну и остался вопрос: может, мы чего-то не понимаем? Может, у этих процессоров есть какая-то своя фишка, которую мы упустили? Может, кто-то уже понял, в чём проблема с их лагами?

habr.com/ru/companies/ruvds/articles/961276/

ruvds.com/ru-rub

RUVDS ввёл в работу серверные мощности в Башкирии



Хостинг-провайдер VPS серверов RUVDS начал предоставлять услуги виртуального хостинга в Республике Башкортостан. Оборудование введено в строй в дата-центре «Уфанет» в Уфе и уже доступно пользователям.

Это наша 13-я локация в России и 20-я, юбилейная, если учитывать и зарубежные площадки. Регион динамично развивается: в Республике сосредоточено огромное количество вычислительных мощностей – она входит в число лидеров в масштабах страны. Наше присутствие обусловлено концепцией планомерного масштабирования RUVDS и призвано как удовлетворить текущий спрос, так и сформировать задел для дальнейшего роста в рамках региона. А это и увеличение вычислительной мощности, и новые возможности для местного бизнеса, и удобство для наших клиентов, заинтересованных в работе в этом регионе
отметил генеральный директор RUVDS Никита Цаплин.

В дата-центре, в котором введено в строй оборудование хостинг-провайдера, реализована двухлучевая схема бесперебойного энергоснабжения, резервируемая ДГУ СКВ ЦОД, состоящей из мультизональной системы, сплит-кондиционеров и прямого фрикулинга. Резервирование обеспечивается дизель-генераторами мощностью 250 кВт, организовано автоматическое переключение между двумя независимыми электрическими вводами в ЦОД. Объект оснащён современными системами безопасности, в том числе системой круглосуточного видеонаблюдения, а также автоматической системой газового пожаротушения.

Ввод в строй новых мощностей и расширение географии работы лежат в основе стратегического видения RUVDS. Только в 2025 году компания запустила локации в Краснодаре, Омске, Мурманске и Ереване, а также модернизировала собственный дата-центр в подмосковном Королёве.

ruvds.com/ru/

Готовьтесь, всё подорожает ещё раз





Есть объективные факторы роста цен в ИТ — инфляция, кредитные ставки (их никто не снизил вслед за ставкой рефинансирования!), повышение страховых взносов для сотрудников и НДС. Как минимум это всё вместе уже обеспечит подорожание ИТ-услуг и инфраструктуры.

И ещё есть субъективное ощущение, что в ИТ много денег и это что-то вроде новой нефтяной отрасли. А денег сейчас не хватает. Есть гипотеза, что сначала всех перепишут под льготы, а потом вместо льгот сначала переведут на общий режим, а затем и повысят налоговую нагрузку.

Почему я так думаю — потому что у меня богатый опыт российского гражданина. И я уже вступил в реестр хостингов, который ни к чему не обязывал поначалу, но вот теперь это уже дорого и геморройно (но нужно). Вероятно, дальше будет ещё веселее.

И у меня есть ощущение, что начало процесса мы уже наблюдаем по отмене части льгот для ИТ-компаний.

Год назад я писал пост «Готовьтесь к росту цен», и так получилось, что в меня в профессиональной среде сначала кидались помидорами, потом начали цитировать, а потом текст скопировали для личных блогов от своего имени чуть ли не все топы сферы. Приятно, что мы запустили такую волну в рынок, но тема, конечно, печальная.

Прошёл год, и пора снова посмотреть, что нас ждёт.

Спойлер: вы, кажется, уже привыкли к плохим новостям, но жесть от этого никуда не делась.

Общая ситуация
Центробанк снизил ключевую ставку на 2% недавно. Кажется, должно стать легче? Ничего подобного. Реальная ставка по лизингу серверов для нас выросла на полпроцента в последнюю закупку. Мы работаем с крупными структурами, теми же операторами большой тройки, берём у них железо в рассрочку на 18 месяцев. Когда ставка ЦБ росла, их ставки тоже росли. Сейчас ставка ЦБ падает, а их — нет. Как была, так и осталась, от 35%. Даже немного выросла. На вопрос «почему?» ответ простой и обезоруживающий:

— Потому что так, и всё. У нас внутренняя ставка такая.

В смысле, что им банки не снижают ставку тоже.

С банками история ещё веселее. У нас есть кредитная линия в крупном госбанке. Когда ставка ЦБ росла, они тут же присылали допсоглашение о повышении нашей ставки. Когда она начала падать, мы им позвонили с вопросом:

— Ребят, а где пересчёт? Подешевело же!
— Ну, вот видите, вот там в этом пункте написано, что у нас есть право, но не обязанность пересчитывать! Знаете, мы пока этим правом не воспользуемся.

Этот паралич дорогих денег полностью заморозил рынок слияний и поглощений, которого мы ждали. Сделки идут, но под ковром. И они мучительно долгие: только чтобы получить Letter of Intent (предварительное соглашение), уходит 3–4 месяца. Вся сделка — это год. Крупный покупатель, которому тоже надо брать дорогой кредит, приходит к компании поменьше и говорит: «Мы вас покупаем за три копейки». А те отвечают: «Зачем? У нас хорошие показатели. Давайте подождём, ставки же начали снижаться». В итоге все чего-то ждут, а рынок стоит.

Инвестиции пошли, мы даже видели пару публичных сделок и несколько, скажем так, закулисных. Но в целом там всё далеко не так активно, как я ждал.

Золотая DDR4
Серверы за этот год подорожали на 5–15%. На 5% на DDR5, на 15% на DDR4!

Основной вклад в рост цены дала именно память. DDR4 подорожала примерно на 50% с июня.

Там получилось смешно. Производители, включая Samsung, решили свернуть её производство, переходя на DDR5. Но рынок оказался не готов — для DDR5 нужны новые материнские платы, а апгрейдить весь парк никто не спешит. В итоге возник дикий дефицит и цена на планки DDR4 с июня стала волшебной.

Платиновая логистика
Это просто ад. Свежая история: два сервера ехали из Китая в Армению. На границе их развернули, скорее всего, из-за ошибки в документах. Чтобы вернуть эти два сервера в Россию, переоформить и отправить заново, поставщик потратил почти 700 тысяч рублей.

За два юнита!

Почему так дорого? Потому что серверы возят морскими контейнерами, самолётами, ж/д, но большими партиями. Когда много единиц, растаможка бьётся на всех и получается недорого. А когда надо привезти два сервера, всё равно платишь за место, как будто везёшь огромную партию. Естественно, для поставщика эта сделка ушла в глубокий минус, а мы в очередной раз убедились, что эти риски закладываются в цену для всех.

Таких ситуаций становится больше, поэтому сейчас либо надо возить большие партии, либо понимать, что в реле-странах могут быть проблемы. В итоге логистика уходит либо к крупным игрокам, либо становится ещё дороже.

Налоги
В прошлом году налоговая реформа уже подняла цены на 10–15%. В этом году нас ждёт продолжение банкета:
  1. Повышение НДС с 20 до 22%.
  2. Новые правила для «упрощёнки» (УСН), которые заставят наших поставщиков с оборотом от 60 млн платить НДС. Нюанс в том, что этот НДС нельзя принять к вычету — он мёртвым грузом ложится в цену.
  3. Страховые взносы для ИТ-компаний из реестра ПО повышают вдвое: с 7,6 до 15%.
В сумме один только налоговый эффект даст на выходе ещё около 5% к цене.

Но конкретно для нас главный фактор — новый реестр дата-центров. Мы думали, это для льгот на электричество. Вот здесь подробный рассказ про это явление. У меня ощущение, что как бы не так. Опыт подсказывает, что это очередное «узаконивание поборов». На недавнем саммите ЦОД все верещали: по их прогнозам, услуги дата-центров могут подорожать на 20–25%. Логика, видимо, такая: тарифы на электричество взвинтят для всех до небес, а ЦОДам из реестра дадут ставку, которая позволит им хотя бы не закрыться.

В смысле, вероятно, вы теперь будете выключать свет в туалете, а ЦОДы получат льготы в виде неповышения цен на некоторое время. Если повезёт.

Это стратегический разворот. Доходы от ресурсов упали, и государство ищет, чем их заменить. ИТ — единственная стабильно растущая отрасль. Я думаю, все льготы со временем уйдут, и нас будут доить, как раньше нефтянку.

Искусственный интеллект расколол рынок
Есть гиперскейлеры — Яндекс, Сбер, VK. Они могут позволить себе миллиардные инвестиции в AI-платформы. И есть все остальные. Проблема в том, что реального, массового запроса от бизнеса на эти сложные и дорогие AI-инструменты в России пока не видно. Россия в этом вопросе ровно посередине: колеблется, идти или не идти. Инструменты уже сделали, а кому их продавать — неясно.

Если хайп не взлетит, для Яндекса это будут просто списанные убытки. Утрируя, ну повысят на 30 копеек стоимость вызова такси и за пару лет всё отобьют. А вот для компании поменьше, которая вложила кучу денег в железо, сделав неверную ставку на AI, это может стать фатальной ошибкой. Поэтому мы в эти большие игры пока не лезем. Слишком там хайпово.

Итог
Кредиты под 35%, дефицит ЦОДов (он всё ещё сохраняется, потому что при таких условиях их не строят, условно, выгоднее нести деньги в банк), подорожавшее на 15% железо, новые налоги, рост цен на электричество на 25% и кадровый голод, когда из 200 кандидатов подходит двое. Про кадры сильно легче не стало, кстати, разве что зарплаты ИТ-специалистов уже пару лет не растут, то есть, учитывая темпы инфляции, даже немного уменьшаются.

В итоге мы снова выходим на прогноз роста цен на 10–15%. Выбор простой: экономить на качестве, закупая б/у железо, или повышать цены. Мы на качестве экономить не будем, шринкфляцией заниматься тоже. Так что, увы, готовимся.

Относительно нас — в январе планируем повышение цен (около 5%). Как обычно, у нас можно оплатить заранее и надолго. При оплате на год скидка 20% + скидка Хабра, на полгода 10% + скидка Хабра. Если надо надолго по стабильной цене, то можно сразу несколько лет. Оплачивается не пополнение баланса на сумму, а именно период, то есть при изменении тарифа срок остаётся прежний.

ruvds.com/ru-rub

RUVDS выходит на рынок Армении



Портфолио хостинг-провайдера VPS-серверов RUVDS пополнилось площадкой с вычислительными мощностями в Армении. Она стала 8-й локацией компании за пределами страны.

Серверное оборудование размещено и введено в строй в дата-центре OVIO, крупнейшем и самом передовом инфраструктурном объекте такого рода в Армении. Он расположен в городе Абовян Котайской области, в 20км от Еревана.

«Армения – одна из стран, имеющих особые отношения с Россией, и наш выход на местный рынок отражает интересы обеих сторон. Здесь сосредоточен запрос как компаний с российскими корнями, так и местных пользователей, заинтересованных в получении доступа к качественным IT-решениям. Это важный шаг для RUVDS: мы на планомерной основе расширяем географию присутствия, и уверен, что присутствие нашего сервиса в Армении наилучшим образом скажется на её бизнес-климате», – подчеркнул гендиректор RUVDS Никита Цаплин.

Безопасность и надежность были ключевым фактором выбора дата-центра для размещения. ДЦ OVIO полностью соответствует требованиям RUVDS: он обладает общей мощностью 2 МВт, обеспеченной двумя дизельными генераторами; подключён к двум независимым городским электросетям и оснащён системой Schneider Galaxy VL UPS с резервной схемой N+1, что обеспечивает стабильность его работы даже в случае аварии. В центре установлены современные системы охлаждения, поддерживающие оптимальную температуру в машинных залах.

ruvds.com/ru-rub