Рейтинг
0.00

Дата-центры OVH

33 читателя, 1303 топика

С 25 сентября мы наблюдаем новый тип DDoS-атак



С 25 сентября мы наблюдаем новый тип DDoS-атак из США и Южной Америки (Бразилия, Чили, Аргентина, Мексика, Колумбия). Мощность атак составляет около 15-16 Тбит/с, исходящих из Майами, Флориды, Далласа, Техаса и Лос-Анджелеса, Калифорния.

В последние месяцы и недели мы значительно увеличили пропускную способность для защиты от DDoS-атак (VAC). Сегодня мы имеем пропускную способность для защиты от DDoS-атак (VAC) более 70 Тбит/с, и мы продолжаем добавлять по 2–3 Тбит/с каждую неделю. Кроме того, пропускная способность между OVHcloud (AS16276) и интернетом (транзит, пиринг, PNI) теперь составляет более 120 Тбит/с, и мы продолжаем добавлять по 3–4 Тбит/с каждую неделю. Планируется достичь пропускной способности для защиты от DDoS-атак (VAC) более 100 Тбит/с и пропускной способности более 200 Тбит/с.

Мы продолжаем работать круглосуточно, чтобы достичь цели как можно скорее.

Все начинают привыкать к резервированию объёмов, даже до конца 2027 года



Восемь месяцев назад я написал это сообщение.

В результате трансформации цепочки поставок, реализованной в феврале 2025 года, к декабрю 2025 года у нас не возникло проблем с производством серверов. У нас достаточно оперативной памяти и накопителей NVMe, и мы производим весь запланированный объём серверов. Мы выполняем 95% наших обязательств по срокам поставок, включая индивидуальные заказы.

Молодцы, команды! Спасибо клиентам за доверие! Желаем удачи нашим коллегам в Европе, которые, похоже, окажутся в крайне затруднительном положении к концу 2025 года…

Учитывая ожидаемую в 2026 году нагрузку на глобальную цепочку поставок оперативной памяти и NVMe, нам потребуется более расширенное прогнозирование объёмов. Сейчас мы переходим на 12-месячный прогноз, и, полагаем, в некоторых случаях нам даже потребуется увеличить его до 18 месяцев. Действительно, все начинают привыкать к резервированию объёмов, даже до конца 2027 года!

Не уверен, что если пузырь искусственного интеллекта лопнет, это быстро отрегулирует цены на оперативную память и NVMe. Изменение методов производства на заводах занимает целые кварталы.

Мы находимся на стыке «Видение/Стратегия/Исполнение», где нам необходимо знать, как считывать слабые сигналы и правильно переводить их в ежедневное исполнение, сохраняя при этом постоянное направление Стратегии.

www.ovhcloud.com

Примерно через 6 месяцев цены на оперативную память и NVMe-накопители вырастут значительно



Примерно через 6 месяцев цены на оперативную память и NVMe-накопители вырастут… значительно.

Это связано со спросом на продукты ИИ: все мировые производственные мощности переориентируются на производство высокорентабельной памяти, используемой в графических процессорах, а производственные мощности для остального рынка сокращаются. Это усиливает ценовое давление на все типы оперативной памяти и NVMe-накопителей, а не только на те, которые используются в ИИ.

В OVHcloud подсчитали, что тот же сервер, произведенный в декабре 2025 г. и декабре 2026 г., будет стоить на 15–35% дороже.

В ожидании июня 2026 года глобальная цепочка поставок предвидит это повышение цен, получая компоненты на шесть месяцев раньше по более низкой цене, что позволяет производить продукцию в течение шести-двенадцати месяцев по цене ниже реальной рыночной. Однако эта защитная мера всё же приводит к росту цен на компоненты, начиная с декабря 2025 года.

Короче говоря, последствия внедрения ИИ в облаке: цены на некоторые облачные продукты вырастут примерно на +5–10% в период с апреля по сентябрь 2026 года. Эти оценки основаны на информации, доступной по состоянию на ноябрь 2025 года. Этот процесс может ускориться.

Прямые и частные соединения со скоростью до 100 Гбит/с

Используя нашу всемирную сеть с пропускной способностью более 100 Тбит/с на четырёх континентах, мы добавляем оборудование OCC во все наши точки присутствия (POP): от частной сети до vRack. Мы также разворачиваем прямые и частные соединения между каждым регионом AWS Azure GCP WW (!) и каждым регионом OVHcloud WW (!!) со скоростью до 100 Гбит/с (!!!). Мы также предлагаем частное соединение OCC между любым физическим адресом во Франции и vRack через OCC Connect.


OVHcloud выбрала SambaNova для своих новых высокомасштабируемых конечных точек ИИ с ультранизкой задержкой




sambanova.ai/solutions/ovh-cloud

С помощью SambaStack OVH обеспечивает:
  • Быстрый вывод
  • Энергоэффективность
  • 99,8% времени безотказной работы SLA
  • Поддержка самых больших моделей с открытым исходным кодом
  • Конечные точки в режиме реального времени и пакетные

Высокоскоростной вывод ИИ: OVHcloud выбирает SambaNova



OVHcloud заключил неисключительное соглашение с SambaNova. Этот стартап из Кремниевой долины разрабатывает перепрограммируемые чипы для быстрого вывода языковых моделей, при этом потребляя меньше энергии, чем видеокарты Nvidia.

По словам Октава Клабы, соучредителя и генерального директора группы, это подразумевает, помимо прочего, развитие возможностей вывода. Под выводом, напомним, понимается реализация моделей машинного обучения и искусственного интеллекта в процессе производства. Когда ChatGPT отвечает на вопрос пользователя, это пример вывода.

Три режима вывода ИИ
Октав Клаба, со своей стороны, выделяет три типа вывода, которые он планирует предложить в OVHcloud. Во-первых, это базовый вывод, который уже доступен широкой публике.

Скоро будут доступны еще два режима.

С 31 декабря пакетный вывод позволит асинхронно обрабатывать большие объёмы данных. И наконец, то, что интересует эту статью: сверхбыстрый вывод, которого ожидают пользователи большинства ИИ-помощников. С таким инструментом, как ChatGPT, вы видите, как буквы формируются прямо на ваших глазах; это просто потрясающе
говорит Октав Клаба.

Для пакетного и базового режимов OVHcloud может использовать существующие экземпляры Nvidia: H100, V100S, A10, L4, L40S и RTX 5000. С 30 ноября компания будет предоставлять H200 через свои инструменты искусственного интеллекта. Также планируется запуск RTX 6000 Pro, B200 и B300, но дата выхода пока не объявлена.

Но для высокоскоростного вывода провайдер намерен предложить доступ к стойкам SambaNova.

SambaNova — обещание быстрого вывода с низким углеродным следом
SambaNova, гораздо менее известная, чем Nvidia, — американский разработчик перепрограммируемого чипа, предназначенного для выполнения задач искусственного интеллекта (обучения или вывода). Эти чипы называются RDU (Reconfigurable Dataflow Units).

ASICS можно перенастраивать в соответствии с рабочими нагрузками и моделями. Это делает его гораздо более устойчивым
заявил Октав Клаба на пресс-конференции перед саммитом OVHCloud.

Компания SambaNova, с которой LeMagIT познакомился во время пресс-тура в 2022 году, была основана бывшими сотрудниками Sun Microsystems/Oracle и учёными, окончившими Стэнфорд. В то время компания-единорог уже заявляла, что её технология способна выполнять модели типа GPT с высокой скоростью.

Стойка SambaNovaСтойка SambaNova, сфотографированная в 2022 году


Мы протестировали Cerebras, Groq и SambaNova. Мы пришли к выводу, что SambaNova обеспечивает наилучшее соотношение производительности, цены и занимаемой площади в центрах обработки данных
говорит Октав Клаба

SambaNova удалось разместить 16 чипов SN40L, четвёртого поколения своих 5-нм чипов (производства TSMC), в одной стойке (по 2 RDU на лезвие, 8 лезвий). Для обеспечения эквивалентной вычислительной мощности Groq потребовалось бы 9 стоек, а Cerebras — четыре. «SambaRack» может обрабатывать передовые модели с более чем 400 миллиардами параметров, включая Llama 4 Maverick и DeepSeek R1 (671 миллиард параметров). По расчётам SambaNova, одна стойка может вместить до 5 триллионов параметров.

Ещё одной отличительной особенностью чипа SN40L является наличие 520 МБ кэш-памяти SRAM и 64 ГБ памяти HBM. К нему можно подключить 768 ГБ оперативной памяти DDR4. В общей сложности стойка SN40L-16 имеет 8 ГБ SRAM, 1 ТБ HBM и 12 ТБ оперативной памяти DDR4. По словам Октава Клаба, эта стойка потребляет в среднем 10 кВт (пиковая мощность — 14,5 кВт) и может вместить «десятки» моделей, которые можно сменить «менее чем за 2 миллисекунды». «В то время как с графическими процессорами Nvidia это занимает от 30 секунд до 3 минут». Для сравнения, очень мощная стойка GB300NVL72 (с общим объёмом 40 ТБ HBM3e) потребляет от 130 до 140 кВт, по данным Supermicro.

Агенты с открытым исходным кодом и ИИ для различных профессий
Но, как отмечает глава французского поставщика, самое интересное — это скорость ответов.

SambaNova заявляет, что с Llama 4 Maverick она может получать более 100 токенов в секунду. С более мелкими моделями, такими как Llama 3.1 8B, эта скорость достигает более 1000 токенов в секунду по сравнению с 1837 токенами в секунду у Cerebras.

Напоминаем, что функция Lightning Speed ​​в приложении Le Chat от Mistral AI реализована на базе чипов Cerebras, установленных в дата-центре в Лас-Вегасе.

Сейчас мы развёртываем первое шасси SambaNova в нашем центре обработки данных Gravelines. Если рынок отреагирует положительно, мы планируем добавить стойки в каждый из наших центров обработки данных
говорит Октав Клаба

Речь идёт не о предоставлении прямого доступа к экземплярам GPU/RPU Nvidia и фреймворкам SambaNova. Вместо этого OVHcloud предоставляет эти вычислительные возможности через свой сервис AI Endpoint. Через API он предоставляет доступ примерно к сорока моделям генеративного ИИ и обработки естественного языка. Эти модели в основном имеют открытый вес.

Наша стратегия в области графических процессоров ориентирована на логический вывод, особенно на модели с открытым исходным кодом
говорит генеральный директор OVHcloud.

Параллельно французский провайдер разрабатывает OmisimO, ИИ-помощника на базе SHAI, программного агента с открытым исходным кодом для ИИ (Apache 2.0). Идея заключается в том, чтобы способствовать появлению реальных сценариев использования, полезных для бизнеса, таких как ИИ-агенты, подключенные к CRM-системам компаний.

Модель ценообразования для API конечных точек ИИ во многом зависит от скорости отклика. Базовый API, как правило, основан на тарификации на основе токенов. Цена зависит от выбранного уровня LLM (локальное управление жизненным циклом). Для объёмов токенов, обрабатываемых через пакетный API, OVHcloud обещает скидку и возможность планировать запросы вне периодов пикового потребления. Для быстрого API потребуется минимальный ежемесячный взнос, но поставщик гарантирует «сверхвысокую пропускную способность, сверхбыструю доставку и повышенную конфиденциальность». Выпуск этого API запланирован на 2026 год.

Объявление о партнерстве было сделано на следующий день после того, как Nvidia опубликовала результаты за третий финансовый квартал 2026 года.
Продажи Blackwell необычайно высоки, и графические процессоры для облака распроданы
заявил в пресс-релизе Дженсен Хуанг, основатель и генеральный директор Nvidia.

Графические процессоры: «проблема бизнес-модели»
Октав Клаба, отвечая на вопрос о гонке вооружений среди облачных провайдеров, осторожен.
Когда я инвестирую, меня интересует прибыльный рост. Я отказываюсь играть в лотерею. Мы делаем это, исходя из потребностей клиентов. Мы хотим знать, кто и за что будет платить

Руководитель утверждает, что придерживается «защитной» инвестиционной стратегии.

Правда о графических процессорах H100, купленных три года назад, заключается в том, что они практически бесполезны. Люди постепенно поймут, что инвестиционные циклы для графических процессоров гораздо короче, чем для центральных процессоров. Через 18 или 24 месяца у вас уже есть серьёзные вопросы, которые нужно задать себе. А через 36 месяцев вы теряете почти 80% стоимости

Это объясняет, почему OVH не вкладывает значительные средства в обучение суперкомпьютеров.
Провайдеры программ LLM переходят на кодирование с точностью FP4 во время обучения. Графические процессоры H100 не поддерживают FP4. Графические процессоры H200 уже широко распространены; снизите ли вы цену на H100 или потеряете клиентов из-за того, что они будут использовать более дешёвые H200? Проблема в бизнес-модели
объясняет Октав Клаба

Создание новых центров обработки данных: на саммите Choose France OVHcloud объявляет об инвестициях в размере 160 миллионов евро

OVHcloud, европейский лидер в области облачных вычислений, базируется в Страсбурге с 2012 года. (Архивное фото Лорана Реа)


Среди инвестиций, «сделанных или утвержденных в 2025 году», о которых было объявлено в понедельник в ходе первого саммита «Выбирайте Францию ​​— французское издание», в официальном пресс-ките, опубликованном в полдень, упоминаются «160–180 миллионов евро», запланированные OVHcloud «на новый центр обработки данных в Страсбурге, который займет часть зданий, оставленных пустующими ArcelorMittal в автономном порту».

В ответ на запрос отдел коммуникаций «европейского лидера в области облачных вычислений» поначалу выразил удивление. «Наше заявление на Choose France касается разработки и расширения нашего предложения в области квантовых вычислений», — ответила компания, которая только что объявила о запуске своей квантовой платформы, предназначенной для обеспечения «доступа как минимум к восьми самым мощным квантовым компьютерам».

Из Страсбурга, где OVHcloud базируется с 2012 года (в марте 2021 года пожар повредил один из четырёх её локальных дата-центров, вызвав хаос в интернете), в понедельник явно никто не планировал выступать. То есть, до раннего вечера, когда в сообщении на X президент-основатель Октав Клаба «подтвердил инвестиции в размере 160–180 миллионов евро» в дата-центры SBG6, SBG7 и SBG8, «которые в настоящее время находятся в стадии строительства и потребуют этих сумм после завершения строительства и установки серверов».

В пресс-релизе Choose France упоминаются еще две инвестиции в Эльзасе: «более 2 миллиардов евро» в проект Lithium de France к северу от Агно и «50 миллионов евро» на модернизацию заводов Alsapan в Эрштайне (компания объявила о вложении 35 миллионов евро к 2027 году).