RUVDS почти на четверть увеличил выручку в третьем квартале



Выручка хостинг-провайдера VPS-серверов RUVDS от оказания облачных услуг IAAS по итогам 3-го квартала 2025 года составила 53,17 млн рублей. Текущее значение на 24% превышает показатель аналогичного периода прошлого года.

Несмотря на сложности, с которыми сталкивается индустрия хостинга, мы продолжаем увеличивать число площадок в России и ближнем зарубежье, и растущие показатели – результат в то числе и этой работы. Цифры свидетельствуют о верности выбранного курса, и мы продолжим развиваться в этом направлении, уделяя особое внимание качеству и удобству нашего сервиса. Уверен, что динамика по итогам года покажет не менее значимые результаты
подчеркнул генеральный директор RUVDS Никита Цаплин.

За отчетный период общее количество активных виртуальных серверов, которыми пользуются клиенты компании, увеличилось на более чем 2 тыс. Это показатель, почти в два раза превышающий динамику 3-го квартала предыдущего года.

По состоянию на ноябрь 2025 года в портфолио компании значится 20 площадок с вычислительными серверами в России и за её пределами.

ruvds.com

Создание собственных обработчиков оборудования в DCImanager




Инфраструктура дата‑центра зачастую состоит из оборудования разных поколений и производителей. Контроллеры BMC реализуют IPMI или Redfish по‑разному, коммутаторы возвращают статистику в собственных форматах, сенсоры отдают значения в разнородных единицах. В результате стандартные операции включения питания, перезагрузки, чтения телеметрии, управления портами ведут себя неодинаково. Для систем управления это часто превращается в постоянную борьбу с несовместимостями.

Концепция обработчиков
DCImanager решает эту проблему через обработчик — изолированный модуль, который инкапсулирует специфику конкретного устройства и переводит ее в унифицированный интерфейс. Он выступает адаптационным слоем между «нативным» протоколом оборудования и внутренней моделью управления в платформе. Вся логика, связанная с особенностями реализации, локализуется внутри обработчика, поэтому ядро системы остается чистым и работает только с согласованными данными и предсказуемыми операциями.

Для контроллеров BMC обработчик формализует полный цикл управления питанием и перезагрузкой, нормализует показания сенсоров, унифицирует единицы измерения и форматы, а также стабилизирует поведение команд, которые в разных прошивках могут иметь разные таймауты или статусы возврата.

Для коммутаторов обработчик обеспечивает консистентную модель портов, трансляцию статистики трафика и ошибок в единый формат, а также оборачивает нативные CLI- или API-вызовы в стабильно повторяющиеся операции с четкой диагностикой.

Возможность создания собственного обработчика
DCImanager предоставляет разработчику SDK шаблоны, позволяющие реализовать обработчик под конкретное оборудование.

Архитектурно обработчик — это Python-модуль, который реализует обязательный набор методов. Для контроллера BMC — это операции управления питанием (power_on, power_off, reboot), чтения сенсоров (get_sensors) и другими параметрами. Для коммутаторов — работа с портами (get_ports, enable_port, disable_port), статистикой (get_statistics) и другими параметрами. Внутри этих методов разработчик может использовать любые специфические команды, протоколы или парсеры, которые требуются именно для его модели оборудования.

Таким образом, крупный хостинг-провайдер может встроить задержку подачи питания на специализированные платы, интегратор — адаптировать команды управления под закрытый корпоративный контур, а владелец редкого оборудования — поправить парсинг сенсоров или нормализовать некорректные значения. Всё это делается без изменения ядра DCImanager: достаточно реализовать собственный обработчик и подключить его к системе.

Документация ISPsystem пошагово описывает процесс:
  • Создание обработчика BMC — разработчик получает API и шаблон, где реализует специфические команды для конкретного контроллера.
  • Создание обработчика коммутатора — аналогичный подход для сетевого оборудования, где важно корректно управлять портами и считывать статистику.
  • Создание обработчика PDU — предоставляет единую точку управления для всех подключенных распределителей питания, что значительно упрощает работу системного администратора.
Именно возможность создавать собственные обработчики превращает DCImanager из «коробочного продукта» в гибко адаптивную платформу: система не ограничена встроенными драйверами, а может быть расширена силами клиента или интегратора.

Зачем клиенту создавать собственный обработчик
Возможность самостоятельной разработки обработчиков меняет модель использования DCImanager. Раньше клиент был ограничен встроенными инструментами и зависел от планов разработчиков продукта: если сенсор не определялся или команда работала нестабильно, то приходилось ждать обновления или обходить проблему вручную. Теперь логика взаимодействия с оборудованием вынесена в отдельный модуль, который можно написать и подключить самостоятельно.

Для крупного хостинг-провайдера это означает контроль за поведением типовых операций. Если стандартная команда включения питания не учитывает особенности конкретного контроллера BMC, разработчик может встроить задержку или изменить последовательность шагов прямо в обработчике. В результате инфраструктура ведет себя предсказуемо, а бизнес‑процессы не зависят от возможностей коробочной версии.

Для интегратора обработчики становятся инструментом кастомизации под любое пилотное внедрение, в том числе для закрытых корпоративных контуров. В таких средах часто встречаются уникальные требования: редкие или устаревшие модели серверов, специфические сценарии управления, интеграция с внутренними системами. Возможность писать собственные обработчики позволяет адаптировать DCImanager к этим условиям без изменения ядра.

Для владельцев редкого оборудования обработчики — это способ самостоятельно устранить несовместимости. Если один сенсор возвращает некорректные значения или не определяется вовсе, достаточно внести правку в обработчик. Это снимает зависимость от вендора и позволяет быстро решить проблему, которая иначе могла бы остаться без внимания.

Система предоставляет единый API и инфраструктуру, а клиенты и партнеры могут расширять ее функциональность под свои задачи. Это стратегический механизм, который делает управление оборудованием гибким, понятным и независимым от ограничений конкретных моделей.

Преимущества
Обработчики дают несколько практических эффектов, которые заметны в работе с инфраструктурой.

Унификация интерфейсов
Операции управления питанием, перезагрузкой или портами выполняются одинаково, даже если под капотом разные реализации. Обработчик переводит различающиеся от вендора к вендору команды BMC в ожидаемое поведение и приводит параметры оборудования к согласованному формату.

Для администратора это означает предсказуемость: команда «перезагрузить узел» всегда дает одинаковый результат.

Расширяемость и кастомизация
Нужная логика добавляется в обработчик без изменения ядра. Это позволяет встроить задержку подачи питания, адаптировать команды под корпоративный контур или поправить парсинг сенсоров. Все изменения локализованы и не влияют на остальную систему. Это упрощает внедрение и тестирование.

Снижение операционных рисков
Несовместимости часто приводят к сбоям. Обработчики минимизируют такие ситуации: исключают падение опциональных команд, нормализуют данные сенсоров и стабилизируют массовые операции.

В результате инфраструктура работает стабильнее и предсказуемее.

Практическая ценность
Хостинг- и сервис-провайдеры получают возможность тонкой настройки процессов, интеграторы — инструмент для реализации кастомных решений, владельцы нестандартного оборудования — независимость от вендора и быстрые исправления.

Развитие решения
Чтобы обработчики не оставались локальной доработкой, их развитие строится как часть архитектуры DCImanager и как элемент экосистемы.

Первое направление — техническое. Задача состоит в том, чтобы возможность создавать собственные обработчики распространялась на все классы устройств, которые платформа уже умеет обслуживать. Сегодня речь идет о контроллерах BMC, коммутаторах и PDU, но сама структура SDK спроектирована так, чтобы масштабироваться дальше. Унифицированный API задает стандартный набор методов, которые вызываются одинаково для любого устройства, а расширение SDK добавляет новые шаблоны и базовые классы для других категорий оборудования, включая системы хранения данных.

Второе направление связано с экосистемой и партнерской моделью. OEM-производителям обработчики пишет продуктовая команда ISPsystem, но в дальнейшем им будет доступен расширенный SDK, возможность сертифицировать свои модули и публиковать их в общем каталоге. Это позволит вендорам официально поддерживать свои линейки оборудования в DCImanager.

Для интеграторов обработчики уже стали рабочим инструментом: они адаптируют систему под инфраструктуру заказчика и получают дополнительную экономическую выгоду. Развитие документации и SDK закрепит эту практику, превратив обработчики в стандартный способ интеграции.

Сообщество также играет роль: если появляется запрос на поддержку новых классов устройств, например систем хранения данных, — мы расширяем возможности SDK. Для СХД это особенно актуально, так как у них собственные сенсоры и команды управления, и обработчики позволяют встроить их в единый формат работы DCImanager.

Таким образом, развитие идет по двум линиям: технической и стратегической. С одной стороны, создается универсальный слой совместимости для любых устройств, с другой — формируется экосистема, где вендоры, интеграторы и пользователи могут самостоятельно расширять систему и поддерживать ее актуальность.

Итог
Обработчики в DCImanager решают задачу унификации интерфейсов и делают систему расширяемой. Они открывают путь к официальной поддержке оборудования со стороны производителей и дают интеграторам инструмент для адаптации под конкретные инфраструктуры. В результате формируется экосистема, где любые участники могут встроить особенности своих устройств в общий формат данных, а управление становится единым и предсказуемым.

www.ispsystem.ru/dcimanager

Примерно через 6 месяцев цены на оперативную память и NVMe-накопители вырастут значительно



Примерно через 6 месяцев цены на оперативную память и NVMe-накопители вырастут… значительно.

Это связано со спросом на продукты ИИ: все мировые производственные мощности переориентируются на производство высокорентабельной памяти, используемой в графических процессорах, а производственные мощности для остального рынка сокращаются. Это усиливает ценовое давление на все типы оперативной памяти и NVMe-накопителей, а не только на те, которые используются в ИИ.

В OVHcloud подсчитали, что тот же сервер, произведенный в декабре 2025 г. и декабре 2026 г., будет стоить на 15–35% дороже.

В ожидании июня 2026 года глобальная цепочка поставок предвидит это повышение цен, получая компоненты на шесть месяцев раньше по более низкой цене, что позволяет производить продукцию в течение шести-двенадцати месяцев по цене ниже реальной рыночной. Однако эта защитная мера всё же приводит к росту цен на компоненты, начиная с декабря 2025 года.

Короче говоря, последствия внедрения ИИ в облаке: цены на некоторые облачные продукты вырастут примерно на +5–10% в период с апреля по сентябрь 2026 года. Эти оценки основаны на информации, доступной по состоянию на ноябрь 2025 года. Этот процесс может ускориться.

Черная пятница



Как и говорилось в прошлом году — тогда была акция которая не будет повторяться точно года 3
Поэтому в этом году чисто символическая распродажа остатков

В наличии 3 дедика DCImanager KMR
  • [черная пятница 2025] Ryzen 9 7950x / 128 ddr5 / 2 TB NVME — 7000р мес
  • Либо с заменой диска на новый +15000р установочный платеж

Распродажа остатков по 7000р мес виртуалка VMmanager жирная
  • [черная пятница 2025] MSK-nag, Ryzen 9 7950x (5400GHz) [32 vCore] / 64 DDR5 5600 МГц / 960 ГБ NVME
  • [черная пятница 2025] RU-Москва, Ryzen 9 9950x (5400GHz) [32 vCore] / 64 DDR5 5600 МГц / 400 ГБ NVME
  • [черная пятница 2025] RU-Питер, Ryzen 9 9950x (5400GHz) [32 vCore] / 64 DDR5 5600 МГц / 400 ГБ NVME

В МСК пустует 1 ТБ озу или больше.


В Питере МСК Селектел — тупо пустует IP, нужно больше спроса, даже по себестоимости, поэтому сразу по 64 можно затариться :) Тут ограничений нет.

Заказать
bill.yacolo.net/billmgr

BLACK FRIDAY 2025 — cкидка 55% на все VDS!





BLACK FRIDAY 2025 — cкидка 55% на все VDS!
Готовы к обновлению инфраструктуры или запуску нового проекта? Сделать это сейчас будет значительно дешевле. Мы начинаем распродажу BLACK FRIDAY 2025 заранее, чтобы вы могли стартовать тогда, когда удобно, не подстраиваясь под календарь.
Выберите конфигурацию и приступайте — мы поддержим вашу идею на пути к проекту

friendhosting.net/ru/vps.php

Для новых заказов
Не упустите свой шанс заказать Progressive SSD VDS, High CPU VDS, Storage HDD VDS или виртуальный хостинг со скидкой 55%.
Для получения скидки во время заказа используйте промо-код bf2025
Обратите внимание, что скидка активируется исключительно для первого периода оплаты, поэтому для получения максимальной выгоды рекомендуем совершить заказ на максимальный период действия промо-кода, который составляет 3 месяца.

Для существующих заказов
Если у вас уже есть активный заказ, то вы также можете получить скидки при его продлении. Продлевая vds или виртуальный хостинг на длительный период — 3, 6 или 12 месяцев, вы получаете скидку 3%, 5% или 10%, которая суммируется с вашей скидкой по программе лояльности до 25% (Подробнее о том как формируется скидка по программе лояльности читайте тут). Скидки применяются автоматически на последнем шаге оплаты без обращения в финансовый отдел.
Акция проходит с 23.11.2025 по 15.12.2025 года включительно.

friendhosting.net/ru/promo/bf2025.php

Рег.облако запускает Data Science сервисы для работы с данными



Компания выходит на рынок AI-разработки и представляет новые облачные сервисы для Data-проектов и анализа данных. В облачной платформе уже доступен популярный инструмент JupyterHub, предназначенный для командной работы с кодом, данными и машинным обучением.

Российский облачный провайдер Рег.облако усиливает экспертизу в области искусственного интеллекта и машинного обучения. Компания расширяет экосистему продуктов новой линейкой сервисов для дата-саентистов, ML-инженеров и аналитиков данных. В облачной платформе можно организовать совместную работу с большими массивами данных, в том числе для BI, образовательных и исследовательских проектов.

Рег.облако уже подключил к собственной облачной платформе популярный инструмент JupyterHub. Это решение упростит взаимодействие специалистов по данным, позволяя разворачивать изолированные рабочие среды с доступом через веб-интерфейс. Сервис предоставляет централизованное управление к вычислительным ресурсам, разграничивая права пользователей и упрощая совместную работу.
cloud.reg.ru/panel/auth

Решение масштабируется под команды любого размера и предоставляет изолированные среды для каждого пользователя, повышая безопасность и стабильность работы. Сервис свободно интегрируется с Git, CI/CD, S3-хранилищем и базами данных, не требует самостоятельной настройки серверов и делает работу с данными более быстрой и эффективной.

Data Science сервисы открывают пользователям Рег.облака новые возможности для командной аналитики и разработки ML-моделей. Это удобные и масштабируемые инструменты, которые ускоряют работу с данными и снижают операционные затраты. Мы подготовили готовые решения, такие как JupyterHub, которые не требуют самостоятельной установки и настройки инфраструктуры, чтобы специалисты могли сосредоточиться на коде и AI-моделях, а не на администрировании инфраструктуры
отмечает Евгений Мартынов, директор по информационным технологиям Рег.облака.

Рег.облако начал расширять экспертизу в области больших данных в прошлом году, запустив объектное хранилище S3 на базе Ceph. В сентябре 2025 года компания подключила ИИ-ассистента для работы с корпоративными сервисами. Технологические мощности облачного провайдера подготовлены к высоким нагрузкам и оснащены высокопроизводительными GPU-серверами на базе процессоров AMD EPYC с быстрыми накопителями NVMe SSD.

Прямые и частные соединения со скоростью до 100 Гбит/с

Используя нашу всемирную сеть с пропускной способностью более 100 Тбит/с на четырёх континентах, мы добавляем оборудование OCC во все наши точки присутствия (POP): от частной сети до vRack. Мы также разворачиваем прямые и частные соединения между каждым регионом AWS Azure GCP WW (!) и каждым регионом OVHcloud WW (!!) со скоростью до 100 Гбит/с (!!!). Мы также предлагаем частное соединение OCC между любым физическим адресом во Франции и vRack через OCC Connect.


OVHcloud выбрала SambaNova для своих новых высокомасштабируемых конечных точек ИИ с ультранизкой задержкой




sambanova.ai/solutions/ovh-cloud

С помощью SambaStack OVH обеспечивает:
  • Быстрый вывод
  • Энергоэффективность
  • 99,8% времени безотказной работы SLA
  • Поддержка самых больших моделей с открытым исходным кодом
  • Конечные точки в режиме реального времени и пакетные

Высокоскоростной вывод ИИ: OVHcloud выбирает SambaNova



OVHcloud заключил неисключительное соглашение с SambaNova. Этот стартап из Кремниевой долины разрабатывает перепрограммируемые чипы для быстрого вывода языковых моделей, при этом потребляя меньше энергии, чем видеокарты Nvidia.

По словам Октава Клабы, соучредителя и генерального директора группы, это подразумевает, помимо прочего, развитие возможностей вывода. Под выводом, напомним, понимается реализация моделей машинного обучения и искусственного интеллекта в процессе производства. Когда ChatGPT отвечает на вопрос пользователя, это пример вывода.

Три режима вывода ИИ
Октав Клаба, со своей стороны, выделяет три типа вывода, которые он планирует предложить в OVHcloud. Во-первых, это базовый вывод, который уже доступен широкой публике.

Скоро будут доступны еще два режима.

С 31 декабря пакетный вывод позволит асинхронно обрабатывать большие объёмы данных. И наконец, то, что интересует эту статью: сверхбыстрый вывод, которого ожидают пользователи большинства ИИ-помощников. С таким инструментом, как ChatGPT, вы видите, как буквы формируются прямо на ваших глазах; это просто потрясающе
говорит Октав Клаба.

Для пакетного и базового режимов OVHcloud может использовать существующие экземпляры Nvidia: H100, V100S, A10, L4, L40S и RTX 5000. С 30 ноября компания будет предоставлять H200 через свои инструменты искусственного интеллекта. Также планируется запуск RTX 6000 Pro, B200 и B300, но дата выхода пока не объявлена.

Но для высокоскоростного вывода провайдер намерен предложить доступ к стойкам SambaNova.

SambaNova — обещание быстрого вывода с низким углеродным следом
SambaNova, гораздо менее известная, чем Nvidia, — американский разработчик перепрограммируемого чипа, предназначенного для выполнения задач искусственного интеллекта (обучения или вывода). Эти чипы называются RDU (Reconfigurable Dataflow Units).

ASICS можно перенастраивать в соответствии с рабочими нагрузками и моделями. Это делает его гораздо более устойчивым
заявил Октав Клаба на пресс-конференции перед саммитом OVHCloud.

Компания SambaNova, с которой LeMagIT познакомился во время пресс-тура в 2022 году, была основана бывшими сотрудниками Sun Microsystems/Oracle и учёными, окончившими Стэнфорд. В то время компания-единорог уже заявляла, что её технология способна выполнять модели типа GPT с высокой скоростью.

Стойка SambaNovaСтойка SambaNova, сфотографированная в 2022 году


Мы протестировали Cerebras, Groq и SambaNova. Мы пришли к выводу, что SambaNova обеспечивает наилучшее соотношение производительности, цены и занимаемой площади в центрах обработки данных
говорит Октав Клаба

SambaNova удалось разместить 16 чипов SN40L, четвёртого поколения своих 5-нм чипов (производства TSMC), в одной стойке (по 2 RDU на лезвие, 8 лезвий). Для обеспечения эквивалентной вычислительной мощности Groq потребовалось бы 9 стоек, а Cerebras — четыре. «SambaRack» может обрабатывать передовые модели с более чем 400 миллиардами параметров, включая Llama 4 Maverick и DeepSeek R1 (671 миллиард параметров). По расчётам SambaNova, одна стойка может вместить до 5 триллионов параметров.

Ещё одной отличительной особенностью чипа SN40L является наличие 520 МБ кэш-памяти SRAM и 64 ГБ памяти HBM. К нему можно подключить 768 ГБ оперативной памяти DDR4. В общей сложности стойка SN40L-16 имеет 8 ГБ SRAM, 1 ТБ HBM и 12 ТБ оперативной памяти DDR4. По словам Октава Клаба, эта стойка потребляет в среднем 10 кВт (пиковая мощность — 14,5 кВт) и может вместить «десятки» моделей, которые можно сменить «менее чем за 2 миллисекунды». «В то время как с графическими процессорами Nvidia это занимает от 30 секунд до 3 минут». Для сравнения, очень мощная стойка GB300NVL72 (с общим объёмом 40 ТБ HBM3e) потребляет от 130 до 140 кВт, по данным Supermicro.

Агенты с открытым исходным кодом и ИИ для различных профессий
Но, как отмечает глава французского поставщика, самое интересное — это скорость ответов.

SambaNova заявляет, что с Llama 4 Maverick она может получать более 100 токенов в секунду. С более мелкими моделями, такими как Llama 3.1 8B, эта скорость достигает более 1000 токенов в секунду по сравнению с 1837 токенами в секунду у Cerebras.

Напоминаем, что функция Lightning Speed ​​в приложении Le Chat от Mistral AI реализована на базе чипов Cerebras, установленных в дата-центре в Лас-Вегасе.

Сейчас мы развёртываем первое шасси SambaNova в нашем центре обработки данных Gravelines. Если рынок отреагирует положительно, мы планируем добавить стойки в каждый из наших центров обработки данных
говорит Октав Клаба

Речь идёт не о предоставлении прямого доступа к экземплярам GPU/RPU Nvidia и фреймворкам SambaNova. Вместо этого OVHcloud предоставляет эти вычислительные возможности через свой сервис AI Endpoint. Через API он предоставляет доступ примерно к сорока моделям генеративного ИИ и обработки естественного языка. Эти модели в основном имеют открытый вес.

Наша стратегия в области графических процессоров ориентирована на логический вывод, особенно на модели с открытым исходным кодом
говорит генеральный директор OVHcloud.

Параллельно французский провайдер разрабатывает OmisimO, ИИ-помощника на базе SHAI, программного агента с открытым исходным кодом для ИИ (Apache 2.0). Идея заключается в том, чтобы способствовать появлению реальных сценариев использования, полезных для бизнеса, таких как ИИ-агенты, подключенные к CRM-системам компаний.

Модель ценообразования для API конечных точек ИИ во многом зависит от скорости отклика. Базовый API, как правило, основан на тарификации на основе токенов. Цена зависит от выбранного уровня LLM (локальное управление жизненным циклом). Для объёмов токенов, обрабатываемых через пакетный API, OVHcloud обещает скидку и возможность планировать запросы вне периодов пикового потребления. Для быстрого API потребуется минимальный ежемесячный взнос, но поставщик гарантирует «сверхвысокую пропускную способность, сверхбыструю доставку и повышенную конфиденциальность». Выпуск этого API запланирован на 2026 год.

Объявление о партнерстве было сделано на следующий день после того, как Nvidia опубликовала результаты за третий финансовый квартал 2026 года.
Продажи Blackwell необычайно высоки, и графические процессоры для облака распроданы
заявил в пресс-релизе Дженсен Хуанг, основатель и генеральный директор Nvidia.

Графические процессоры: «проблема бизнес-модели»
Октав Клаба, отвечая на вопрос о гонке вооружений среди облачных провайдеров, осторожен.
Когда я инвестирую, меня интересует прибыльный рост. Я отказываюсь играть в лотерею. Мы делаем это, исходя из потребностей клиентов. Мы хотим знать, кто и за что будет платить

Руководитель утверждает, что придерживается «защитной» инвестиционной стратегии.

Правда о графических процессорах H100, купленных три года назад, заключается в том, что они практически бесполезны. Люди постепенно поймут, что инвестиционные циклы для графических процессоров гораздо короче, чем для центральных процессоров. Через 18 или 24 месяца у вас уже есть серьёзные вопросы, которые нужно задать себе. А через 36 месяцев вы теряете почти 80% стоимости

Это объясняет, почему OVH не вкладывает значительные средства в обучение суперкомпьютеров.
Провайдеры программ LLM переходят на кодирование с точностью FP4 во время обучения. Графические процессоры H100 не поддерживают FP4. Графические процессоры H200 уже широко распространены; снизите ли вы цену на H100 или потеряете клиентов из-за того, что они будут использовать более дешёвые H200? Проблема в бизнес-модели
объясняет Октав Клаба