Компания OVHcloud расширяет ассортимент своих решений для оборонных компаний в Европе и набирает сотрудников для удовлетворения растущего спроса



Рубе – 31 марта 2026 г. – Компания OVHcloud, европейский лидер в области облачных технологий, объявила на форуме InCyber ​​​​2026 об ускорении своей деятельности в европейском оборонном секторе. Этот импульс обусловлен ускоренной цифровизацией вооруженных сил и их сохраняющейся зависимостью от неевропейских технологий. Уже сотрудничая с оборонными подрядчиками, группа ускоряет свой рост в Европе, предлагая облачные решения и решения на основе искусственного интеллекта для критически важных сред, а также привлекает экспертов из вооруженных сил и оборонной промышленности.

Облачные технологии, данные, ИИ: структурирование рынка, европейская альтернатива.
Европейские вооруженные силы сталкиваются с быстрой трансформацией: цифровизация операций, обработка данных в реальном времени, взаимосвязь систем и развитие ИИ. Соответственно, меняются и требования: контроль данных, отказоустойчивость, повышенная кибербезопасность и соответствие национальным и европейским стандартам. Рынок быстро развивается, движимый этими новыми областями применения. Сегодня он по-прежнему в значительной степени доминируется неевропейскими игроками. В этом контексте вопросы суверенитета и стратегической автономии становятся центральными. OVHcloud использует свое полное владение технологической цепочкой для удовлетворения требований самых чувствительных сред.

Компания OVHcloud уже несколько лет оказывает поддержку предприятиям оборонного сектора, и ее решения уже внедрены в критически важных средах. Группа опирается на крупномасштабную облачную инфраструктуру с многолокальными архитектурами и регионами 3-AZ, обеспечивающими непрерывность бизнеса и отказоустойчивость. Ее решения соответствуют высоким стандартам безопасности и соответствия требованиям, включая SecNumCloud. Предлагаемое ею аппаратное и программное обеспечение, в частности OPCP, позволяет развертывать облачные платформы непосредственно в центрах обработки данных клиентов, от базовой инфраструктуры до наиболее важных объектов на периферии, с высоким уровнем контроля и управляемости. Такой комплексный подход отвечает текущим потребностям: доступ к передовым облачным и ИИ-возможностям при сохранении контроля над инфраструктурой, данными и операциями.

OVHcloud расширяет свои решения по всей Европе, используя свои внутренние ресурсы и развертывая специализированные команды в каждой стране, привлекая персонал из вооруженных сил и оборонной промышленности. Группа также поддерживает профессиональное развитие своих команд для соответствия национальным требованиям, особенно в отношении допусков к секретной информации и сертификатов (включая те, которые классифицируются как «оборонная тайна»). Эти команды будут отвечать за: разработку индивидуальных архитектур, поддержку модернизации инфраструктуры, интеграцию возможностей ИИ (тонкая настройка, агентные вычисления) и решение специфических задач каждой среды.

Оборона сегодня зависит от облачных технологий, данных и искусственного интеллекта. В нынешних условиях Европа больше не может позволить себе полагаться на неевропейские технологии: ей необходимы высокоэффективные и суверенные альтернативы. Именно это мы и создаем в OVHcloud. После Франции мы будем предлагать облачные решения и решения на основе ИИ по всей Европе, а также экспертные знания, способные поддержать трансформацию вооруженных сил и укрепить нашу стратегическую автономию
Октав Клаба, генеральный директор OVHcloud

OVHcloud Connect: более высокая скорость, более низкие цены



Мы рады сообщить, что OVHcloud Connect теперь обладает увеличенной пропускной способностью и сниженной ценой! OVHcloud Connect позволяет создать безопасное и высокопроизводительное соединение между корпоративной сетью и OVHcloud vRack.

Мы верим в гибридное, безопасное и высокодоступное облако, поэтому делаем это решение еще более доступным. Теперь, предлагая скорость до 100 Гбит/с для OVHcloud Connect Direct, создание собственной гибридной или мультиоблачной инфраструктуры стало проще, чем когда-либо.

us.ovhcloud.com/network/ovhcloud-connect/




Высокоскоростной вывод ИИ: OVHcloud выбирает SambaNova



OVHcloud заключил неисключительное соглашение с SambaNova. Этот стартап из Кремниевой долины разрабатывает перепрограммируемые чипы для быстрого вывода языковых моделей, при этом потребляя меньше энергии, чем видеокарты Nvidia.

По словам Октава Клабы, соучредителя и генерального директора группы, это подразумевает, помимо прочего, развитие возможностей вывода. Под выводом, напомним, понимается реализация моделей машинного обучения и искусственного интеллекта в процессе производства. Когда ChatGPT отвечает на вопрос пользователя, это пример вывода.

Три режима вывода ИИ
Октав Клаба, со своей стороны, выделяет три типа вывода, которые он планирует предложить в OVHcloud. Во-первых, это базовый вывод, который уже доступен широкой публике.

Скоро будут доступны еще два режима.

С 31 декабря пакетный вывод позволит асинхронно обрабатывать большие объёмы данных. И наконец, то, что интересует эту статью: сверхбыстрый вывод, которого ожидают пользователи большинства ИИ-помощников. С таким инструментом, как ChatGPT, вы видите, как буквы формируются прямо на ваших глазах; это просто потрясающе
говорит Октав Клаба.

Для пакетного и базового режимов OVHcloud может использовать существующие экземпляры Nvidia: H100, V100S, A10, L4, L40S и RTX 5000. С 30 ноября компания будет предоставлять H200 через свои инструменты искусственного интеллекта. Также планируется запуск RTX 6000 Pro, B200 и B300, но дата выхода пока не объявлена.

Но для высокоскоростного вывода провайдер намерен предложить доступ к стойкам SambaNova.

SambaNova — обещание быстрого вывода с низким углеродным следом
SambaNova, гораздо менее известная, чем Nvidia, — американский разработчик перепрограммируемого чипа, предназначенного для выполнения задач искусственного интеллекта (обучения или вывода). Эти чипы называются RDU (Reconfigurable Dataflow Units).

ASICS можно перенастраивать в соответствии с рабочими нагрузками и моделями. Это делает его гораздо более устойчивым
заявил Октав Клаба на пресс-конференции перед саммитом OVHCloud.

Компания SambaNova, с которой LeMagIT познакомился во время пресс-тура в 2022 году, была основана бывшими сотрудниками Sun Microsystems/Oracle и учёными, окончившими Стэнфорд. В то время компания-единорог уже заявляла, что её технология способна выполнять модели типа GPT с высокой скоростью.

Стойка SambaNovaСтойка SambaNova, сфотографированная в 2022 году


Мы протестировали Cerebras, Groq и SambaNova. Мы пришли к выводу, что SambaNova обеспечивает наилучшее соотношение производительности, цены и занимаемой площади в центрах обработки данных
говорит Октав Клаба

SambaNova удалось разместить 16 чипов SN40L, четвёртого поколения своих 5-нм чипов (производства TSMC), в одной стойке (по 2 RDU на лезвие, 8 лезвий). Для обеспечения эквивалентной вычислительной мощности Groq потребовалось бы 9 стоек, а Cerebras — четыре. «SambaRack» может обрабатывать передовые модели с более чем 400 миллиардами параметров, включая Llama 4 Maverick и DeepSeek R1 (671 миллиард параметров). По расчётам SambaNova, одна стойка может вместить до 5 триллионов параметров.

Ещё одной отличительной особенностью чипа SN40L является наличие 520 МБ кэш-памяти SRAM и 64 ГБ памяти HBM. К нему можно подключить 768 ГБ оперативной памяти DDR4. В общей сложности стойка SN40L-16 имеет 8 ГБ SRAM, 1 ТБ HBM и 12 ТБ оперативной памяти DDR4. По словам Октава Клаба, эта стойка потребляет в среднем 10 кВт (пиковая мощность — 14,5 кВт) и может вместить «десятки» моделей, которые можно сменить «менее чем за 2 миллисекунды». «В то время как с графическими процессорами Nvidia это занимает от 30 секунд до 3 минут». Для сравнения, очень мощная стойка GB300NVL72 (с общим объёмом 40 ТБ HBM3e) потребляет от 130 до 140 кВт, по данным Supermicro.

Агенты с открытым исходным кодом и ИИ для различных профессий
Но, как отмечает глава французского поставщика, самое интересное — это скорость ответов.

SambaNova заявляет, что с Llama 4 Maverick она может получать более 100 токенов в секунду. С более мелкими моделями, такими как Llama 3.1 8B, эта скорость достигает более 1000 токенов в секунду по сравнению с 1837 токенами в секунду у Cerebras.

Напоминаем, что функция Lightning Speed ​​в приложении Le Chat от Mistral AI реализована на базе чипов Cerebras, установленных в дата-центре в Лас-Вегасе.

Сейчас мы развёртываем первое шасси SambaNova в нашем центре обработки данных Gravelines. Если рынок отреагирует положительно, мы планируем добавить стойки в каждый из наших центров обработки данных
говорит Октав Клаба

Речь идёт не о предоставлении прямого доступа к экземплярам GPU/RPU Nvidia и фреймворкам SambaNova. Вместо этого OVHcloud предоставляет эти вычислительные возможности через свой сервис AI Endpoint. Через API он предоставляет доступ примерно к сорока моделям генеративного ИИ и обработки естественного языка. Эти модели в основном имеют открытый вес.

Наша стратегия в области графических процессоров ориентирована на логический вывод, особенно на модели с открытым исходным кодом
говорит генеральный директор OVHcloud.

Параллельно французский провайдер разрабатывает OmisimO, ИИ-помощника на базе SHAI, программного агента с открытым исходным кодом для ИИ (Apache 2.0). Идея заключается в том, чтобы способствовать появлению реальных сценариев использования, полезных для бизнеса, таких как ИИ-агенты, подключенные к CRM-системам компаний.

Модель ценообразования для API конечных точек ИИ во многом зависит от скорости отклика. Базовый API, как правило, основан на тарификации на основе токенов. Цена зависит от выбранного уровня LLM (локальное управление жизненным циклом). Для объёмов токенов, обрабатываемых через пакетный API, OVHcloud обещает скидку и возможность планировать запросы вне периодов пикового потребления. Для быстрого API потребуется минимальный ежемесячный взнос, но поставщик гарантирует «сверхвысокую пропускную способность, сверхбыструю доставку и повышенную конфиденциальность». Выпуск этого API запланирован на 2026 год.

Объявление о партнерстве было сделано на следующий день после того, как Nvidia опубликовала результаты за третий финансовый квартал 2026 года.
Продажи Blackwell необычайно высоки, и графические процессоры для облака распроданы
заявил в пресс-релизе Дженсен Хуанг, основатель и генеральный директор Nvidia.

Графические процессоры: «проблема бизнес-модели»
Октав Клаба, отвечая на вопрос о гонке вооружений среди облачных провайдеров, осторожен.
Когда я инвестирую, меня интересует прибыльный рост. Я отказываюсь играть в лотерею. Мы делаем это, исходя из потребностей клиентов. Мы хотим знать, кто и за что будет платить

Руководитель утверждает, что придерживается «защитной» инвестиционной стратегии.

Правда о графических процессорах H100, купленных три года назад, заключается в том, что они практически бесполезны. Люди постепенно поймут, что инвестиционные циклы для графических процессоров гораздо короче, чем для центральных процессоров. Через 18 или 24 месяца у вас уже есть серьёзные вопросы, которые нужно задать себе. А через 36 месяцев вы теряете почти 80% стоимости

Это объясняет, почему OVH не вкладывает значительные средства в обучение суперкомпьютеров.
Провайдеры программ LLM переходят на кодирование с точностью FP4 во время обучения. Графические процессоры H100 не поддерживают FP4. Графические процессоры H200 уже широко распространены; снизите ли вы цену на H100 или потеряете клиентов из-за того, что они будут использовать более дешёвые H200? Проблема в бизнес-модели
объясняет Октав Клаба

Квант как услуга

VHcloud Quantum: ваш привилегированный доступ к квантовым вычислениям
Квантовые вычисления меняют наш подход к решению сложных задач, особенно в областях оптимизации и моделирования. Квантовая платформа OVHcloud обеспечивает надёжную и доступную отправную точку для освоения этой новой эры вычислений.

www.ovhcloud.com/fr/public-cloud/quantum-computing/
www.ovhcloud.com/fr/public-cloud/prices/#quantum-computing

Повышение устойчивости сети на серверах OVHcloud Bare Metal

В рамках постоянного совершенствования нашей инфраструктуры Bare Metal компания OVHcloud представляет новую архитектуру агрегации сетей, призванную повысить устойчивость публичных и частных интерфейсов ваших серверов.

Что меняется?
До сих пор агрегация каналов (LACP) для сетевых интерфейсов осуществлялась с использованием портов, принадлежащих одной сетевой карте (NIC). Хотя это и обеспечивало резервирование на случай отказа коммутатора ToR (Top-of-Rack), это не исключало риск отказа сетевой карты.

Мы обновим эту функциональность с 25 ноября 2025 года.
Вы обеспокоены, если
  • Вы настроили агрегацию LACP ваших публичных или частных каналов (исключая OLA).
  • Вы настроили OLA на своем сервере и хотите вернуться к общедоступной/частной конфигурации по умолчанию.
После этого обновления
  • Существующие агрегации не будут изменены автоматически.
  • Переключение в режим OLA, а затем возврат в режим по умолчанию вызовет перенастройку и, следовательно, применение нового правила агрегации.
  • Изменение конфигурации агрегаций логически перераспределит их по двум отдельным сетевым картам (без изменения физической кабельной разводки).
  • После применения нового правила вернуться к старому режиму будет невозможно.
  • Для серверов, поставленных после этого обновления, будет применяться только новое правило агрегации.



Панель управления OVHcloud отображает схему агрегации, которую можно настроить на вашем сервере. Эта же информация доступна через API OVHcloud
/dedicated/server/{serviceName}/virtualNetworkInterface) /dedicated/server/{serviceName}/virtualNetworkInterface/{uuid}


Если вы не используете агрегацию каналов LACP на своем сервере, никаких действий не требуется, и никакие изменения для ваших служб не будут видны

Важное примечание, если вы настроили LACP на уровне ОС
Если вы планируете перейти на это новое правило агрегации, вам потребуется обновить MAC-адреса, назначенные каждой связи в вашей операционной системе.

Преимущества этого изменения
При правильной настройке ОС новое правило обеспечивает:
  • Более высокая доступность: повышенная отказоустойчивость к сбоям оборудования (сетевых карт, коммутаторов и кабелей).
  • Непрерывное подключение: ваши услуги остаются доступными даже при выходе из строя одной сетевой карты.
  • Плавная эволюция: это улучшение реализуется без влияния на вашу текущую конфигурацию.

Хронология и документация
Развертывание начнется 25 ноября 2025 года.
Более подробную информацию см. в документации, касающейся этого изменения.
OVHcloud по-прежнему стремится предоставлять еще более надежную, высокопроизводительную и безопасную инфраструктуру.
help.ovhcloud.com/csm/en-dedicated-servers-improve-network-resilience

Спасибо за ваше доверие
OVHcloud

Чат-бот: Задайте любой вопрос об OVHcloud

chat.di2amp.ovh

Вопросы:
  • коммерческий (сколько стоит, что мне нужно)
  • методы (как это работает, как настроить)
  • инцидент (он больше не работает, у меня поломка)

Цель — использовать этот инструмент для начала обсуждения со службой поддержки.

Как это работает?

3 фрагмента кода:
1) Я индексирую все страницы OVHcloud раз в неделю, используя RAG и LLM (LLama 3.3 70B), 100 тыс. страниц, 1,2 млн строк в PG, внедряю ME5_Large (1024).
Ответы поступают только с сайта OVHcloud. Если ответ неверный, страницы с правильным контентом не существует. Для индексации её необходимо создать. Всё просто.

2) В chat.di2amp.ovh вы можете задать вопрос напрямую в RAG (поиск) или получить доступ к RAG через LLM (чат). В этом случае я добавляю переформулировку вопроса + выдержку через Llama 4 17B (800-900 мс) и доступ к RAG через DeepSeek 3.1 (2,5-3,5 с).

3) Оценка «вопроса/ответа» с помощью Mistral-medium для оценки качества ответа и определения того, какие страницы/текст следует добавить на веб-сайт, чтобы восполнить недостающую информацию и должным образом ответить на все вопросы наших клиентов.

Это ALPHA-инструмент, созданный за несколько вечеров/недель на виртуальной машине за 30 евро/мес., DBaaS за 120 евро/мес., встроенной виртуальной машине V100 (она будет использоваться в конечной точке за 10 евро/мес.) и вызовах API конечной точки ИИ (Llama DeepSeek Mistral) за 50 евро в сентябре.

Ничего выдающегося, всё ещё немного медленно, но уже лучше, чем на «стандартных» видеокартах.