Рейтинг
0.00

Дата-центры OVH

34 читателя, 1250 топиков

Огромная работа была проделана в районе Франкфурта по оптической сети



Во-первых, переход на новую архитектуру Gridless следующих 2 узлов:
  • Центр обработки данных Лимбург, Делавэр
  • Equinix FR5 PoP
Он также включает в себя сайты, напрямую подключенные к этим двум узлам.

Включите 800Gbps carrier lambda в нашей оптической сети. Теперь мы можем развернуть новые маршрутизаторы для поддержки 400Gbps соединений в нашем центре обработки данных Limburg,DE.

Вот некоторые цифры для той же пропускной способности между Лимбургом и Франкфуртом:
  • увеличить использование спектра на 52% (с 937,5 ГГц до 450 ГГц)
  • снизить стоимость 100 Гбит/с на 51%
  • сократить наш экологический след на 33%
  • снизить энергопотребление на 50% (с 0,6 Вт/Гбит/с до 0,3 Вт/Гбит/с)

Во-вторых, повышение отказоустойчивости центра обработки данных Лимбург, Германия, а также всего Франкфурта и всех других центров обработки данных OVHcloud.


  • воспользовался преимуществами Gridless Migration для разделения узла ROADM на 2 разных фотонных узла
  • интегрировали новую точку доступа Interxion FRA15 в нашу оптическую сеть, что включает перемещение одного из двух волокон из центра обработки данных в Страсбурге, Франция, в это новое место
  • включите новое оптоволокно между Datacenter Limburg, FR и новой точкой доступа FRA15, добавив разнообразия для центра обработки данных. Datacenter Limburg,DE теперь имеет 3 различных пути к внешнему миру

Слава командам! Отличная работа!

Это признание подчеркивает нашу роль в продвижении инноваций

Компания OVHcloud признана одним из перспективных специалистов в квадранте развивающихся рынков в области специализированной облачной инфраструктуры генеративного AI в инновационном руководстве 2025 года в области технологий генеративного ИИ.

Мы считаем, что это признание подчеркивает нашу роль в продвижении инноваций в области ИИ для большего числа клиентов с помощью наших решений.

Чтобы измерить воздействие ИИ на выбросы CO2




Чтобы измерить воздействие ИИ на выбросы CO2, а следовательно, и на работу графических процессоров в центре обработки данных, необходимо учитывать все типы выбросов.

Существует 3 типа, они называются 3 областями:
  • Область 1: напрямую из центра обработки данных: аварийные генераторы, работающие на топливе
  • Область 2: косвенно связана с типом энергии, используемой центром обработки данных: ядерная, ветровая, угольная, газовая и т. д.
  • Область 3: косвенно связана со строительством центра обработки данных, производством графических процессоров, транспортировкой всех этих деталей в центр обработки данных и т.д.

Это определение содержится в Протоколе по парниковому эффекту.

Тема выбросов CO2 сложна, и очень быстро можно прочитать много ерунды. Например: тепловой автомобиль выбрасывает около 1 кг CO2 на расстояние 5 км. Да, но это только область 2, косвенные выбросы, связанные с энергией, дизельным топливом, бензином. Сколько CO2 выбрасывается в атмосферу в зоне 3 при строительстве этого автомобиля? Затем нам необходимо амортизировать этот объем 3 на протяжении 100 000 км и добавить к нему объем 2, 1 кг на 5 км. А потом… Настоящая головная боль!

В OVHcloud мы в течение 2 лет усердно работали над тем, чтобы всесторонне измерить все наши выбросы, и теперь мы сертифицируем наши результаты внешним органом. Мы измеряем его в кг CO2, выбрасываемых в месяц (кг CO2/мес) по категории 1+2+3.

Таким образом, мы смогли сравнить выбросы по категории 1+2+3 между всеми нашими центрами обработки данных в Европе, Северной Америке и Азии. Во-первых, различия связаны с энергетическим балансом страны. Например, во Франции у нас много атомной энергетики: 38 кг CO2/месяц, в Квебеке много гидроэнергетики: 28 кг CO2/месяц, в Индии и Польше уголь: 318 кг CO2/месяц и 350 кг CO2/месяц (рисунок 1)

В Европе и Канаде за два года компания OVHcloud перешла на зеленую энергию. В результате во Франции мы сократили выбросы категории 1+2+3 до 30 кг CO2/месяц, а в Польше — до 20 кг CO2/месяц. Мы делаем это в США (рисунок 1).

На рисунке 2 мы видим влияние CO2 на область 1+2+3 между самой маленькой виртуальной машиной (ВМ) B3-8 и самой большой T2 с графическим процессором NVidia H100. Конечно, это связано с потреблением электроэнергии, но также и с выбросами CO2 нашими поставщиками при производстве электронных компонентов. Для создания виртуальной машины с графическим процессором, безусловно, требуется больше CO2, чем для создания виртуальной машины без графического процессора.

В заключение необходимо выбрать, в какой стране, в каком центре обработки данных запускать ИИ, графические процессоры, какой тип энергии использовать (смешанную или зеленую энергию страны), какой тип охлаждения использовать (воздушное или водяное). Все это оказывает огромное влияние на выбросы CO2 ИИ в процессе обучения и вывода. Мы можем себе представить, что выберем подходящее место в мире для обучения моделей LLM, например, Францию ​​или Квебек в Канаде, но каждая страна должна приложить собственные усилия для снижения воздействия CO2 в Inference, которое обязательно будет максимально локальным.

В последние несколько дней мы много слышим о проектах строительства «центров обработки данных мощностью 1 ГВт» для ИИ во Франции

Чтобы понять потребность, вы должны помнить эти три цифры:

Потребуется 50Me для инвестирования в 1000 графических процессоров, которые будут работать в центре обработки данных, потребляющем 1 МВт электроэнергии.

Эти три числа работают вместе на нескольких уровнях шкалы:
  • 50Me — 1k GPU — 1MW
  • 500Me — 10k GPU — 10MW
  • 5Mde — 100k GPU — 100MW
  • 50Mde — 1M GPU — 1GW

80% этих сумм используются для покупки графических процессоров, 20% — для создания центра обработки данных.

Для какой нужды? Графические процессоры используются в двух целях:
  • обучение и, следовательно, создание модели LLM с данными (обучение)
  • использование существующей модели LLM клиентами (вывод)

Поколения графических процессоров, представленные в настоящее время на рынке, позволяют проводить обучение примерно на 100 тыс. графических процессоров, работающих одновременно. Ограничивающим фактором является расстояние между двумя физически удаленными графическими процессорами: начиная с определенного количества графических процессоров, соединенных вместе, расстояние замедляет работу набора графических процессоров.

Вот почему для нужд обучения на рынок выходит новое поколение графических процессоров: суперчипы. Вместо десятков независимых графических процессоров, которые вы подключаете друг к другу последовательно, каждый суперчип объединяет десятки графических процессоров на одной карте. Отличная работа! Вы сократили расстояние между графическими процессорами и теперь можете подключить в 10 раз больше графических процессоров вместе, не снижая производительности. С другой стороны, у вас есть новые задачи, которые нужно решить: как распределить энергию и охладить инфраструктуру, которая в 10 раз плотнее, как приобрести источник энергии мощностью 1 ГВт и как обеспечить его избыточность.

Для размещения вычислительной мощности в центре обработки данных мы используем отсеки, также известные как стойки, которые представляют собой своего рода шкафы шириной 0,6 м, глубиной 1 м и высотой 2,5 м. На каждый отсек подается около 20 кВт электроэнергии. Для его охлаждения используется свежий воздух, прогоняемый через залив.

Если мы хотим использовать в отсеке более 20 кВт, воздуха будет недостаточно для его охлаждения. Вам необходимо перейти на водяное охлаждение. Вот тут мы начинаем говорить о новом поколении центров обработки данных, и в некоторых случаях речь идет о мощности 1 ГВт. Действительно, для размещения суперчипов мы сейчас говорим о стойках мощностью 120 кВт или даже предполагаем 240 кВт на стойку и систему водяного охлаждения для улавливания и отвода всего этого тепла. Это совершенно новое решение с точки зрения мощности на отсек, а также с точки зрения масштабируемой системы водяного охлаждения. Вот почему такого типа ЦОД не существует и поэтому его необходимо построить.

Для использования выводов нет необходимости в столь сложных центрах обработки данных. И суперчип тоже не нужен. Для модели LLM требуется система графических процессоров, потребляющая от 100 Вт до 10 кВт, редко 20 кВт, что эквивалентно от 1 до 16 графических процессоров. Поскольку каждая система независима, вы можете подключить столько систем параллельно, сколько захотите, что позволит вам обрабатывать большой веб-трафик или мобильный трафик. Еще лучше иметь несколько центров обработки данных вывода, работающих параллельно, и почему бы не создать по одному на страну? Это обеспечивает высокую доступность и низкие задержки за счет использования ближайшего к посетителю центра обработки данных.

И причем здесь OVHcloud? У нас более 40 центров обработки данных в нескольких странах Европы, Канады, Северной Америки и Азии. Мы являемся экспертами в области водяного охлаждения уже более 20 лет. Это позволяет нам охлаждать более 500 тыс. физических серверов во всех наших центрах обработки данных. Наши внутренние технологии с открытым исходным кодом обходятся в 20–40 раз дешевле рыночных решений. У нас есть центры обработки данных мощностью от 40 МВт до 100 МВт, в которых можно проводить обучение, с отсеками мощностью 40 кВт, но у нас также есть центры обработки данных по всему миру для предоставления выводов. Наши инвестиции соответствуют потребностям наших клиентов, и при необходимости мы можем ускориться.

Франция хочет стать поставщиком ИИ в Европу и за ее пределами

Франция хочет стать поставщиком ИИ в Европу и за ее пределами. Это происходит благодаря активам, которых нет у других: у Франции много чистой энергии благодаря атомной энергетике, у нас есть экосистема компаний в сфере ИИ, которые создают действительно работающие продукты (пока нет дохода, но он будет), а также квалифицированные специалисты для разработки продуктов ИИ. Мы должны использовать все эти активы, чтобы за несколько лет создать экспортный бизнес в сфере ИИ объемом в несколько миллиардов долларов в месяц.

Единственная проблема в том, что у Франции нет достаточного количества денег для инвестиций на должном уровне, но это касается всех стран Европы. Более того, при таком типе инвестиций государственные деньги на самом деле не являются решением, поскольку вместо того, чтобы концентрировать большие средства на нескольких проектах, государства предпочитают равномерно инвестировать между всеми проектами и поэтому в конечном итоге вкладывают мало средств в каждый проект и, следовательно, с незначительной отдачей.

Во что инвестировать?
В Европе уже есть несколько компаний, которые создают программное обеспечение LLM. Перед этими компаниями стоит задача сделать свои инвестиции прибыльными, а это подразумевает создание клиентской базы, которая будет платить 10-20-50-100 евро в месяц, как это делают OpenIA, Microsoft, Google, X, Anthropic.

Всем этим проектам требуются вычислительные мощности для обучения алгоритмов на данных (обучение) и вычислительные мощности для последующего запуска программного обеспечения (вывод). Поэтому нам нужно Облако. Инвестиции в центры обработки данных и графические процессоры настолько важны и рискованны, что мы часто говорим о связях капитала между этими двумя мирами: Microsoft инвестировала в OpenIA, AWS сделала то же самое с Anthropic. Другое решение предложили Meta, Google и X, которые решили сделать оба варианта одновременно. Все это происходит в Северной Америке.

Инвестиционные заявления, которые мы слышим в течение последних нескольких дней, направлены на создание вычислительных мощностей во Франции для Европы. Частные компании построят центры обработки данных и здания, в которых будут работать графические процессоры. Кроме того, в некоторых объявлениях говорится об инвестициях в графические процессоры, но это касается не всех из них. Однако инвестиции в центр обработки данных составляют лишь 20% от необходимых сумм, а еще 80% необходимо запланировать на графические процессоры. В конечном итоге именно графические процессоры будут сдаваться в аренду либо облачным провайдерам, либо конечным потребителям. Что-то вроде оптового торговца графическими процессорами.

Это большие деньги, не все смогут заработать на этих графических процессорах, и уж точно не в ближайшие несколько лет. Но завтра все будут использовать ИИ, и поэтому для его работы нам понадобятся графические процессоры. Поэтому все эти заявления — прекрасное событие для Европы и, безусловно, для Франции.

И причем здесь OVHcloud? Мы — поставщик облачных услуг. Как и у всех наших конкурентов, наша задача не заключается в обучении собственной модели LLM. Мы предлагаем нашим клиентам облачные сервисы, включая программы LLM с открытым исходным кодом, которые они могут легко использовать через API. Мы также работаем над проектом Omisimo совместно с Qwant, который объединяет несколько программ LLM с открытым исходным кодом для создания полноценного API, вобравшего в себя все лучшее из открытого исходного кода. У нас есть несколько очень крупных центров обработки данных в Европе и Канаде, мощностью от 40 МВт до 100 МВт каждый, и мы можем в любой момент добавить еще несколько сотен тысяч графических процессоров. Наши инвестиции в графические процессоры соответствуют спросу наших клиентов. Мы очень рады всему, что произойдет во Франции. Превосходное европейское обещание.

Мы только что завершили рефинансирование нашего долга



Всего у нас 4:
  • 500 млн облигаций по 4,75%
  • 450 млн банковских кредитов ≈ 4,5%
  • 200 млн «многоцелевого» кредита
  • 200 млн кредита ЕИБ
из которых более 300 млн неиспользованы.

Таким образом, мы завершаем проект OPRA, о котором мы объявили в октябре 2024 года, который заключался в выкупе акций OVHcloud на сумму 350 миллионов по 9,00 евро (у всех, кто хотел их продать). Сейчас наш объем акций в свободном обращении составляет 19%, что по текущей цене составляет менее 250 млн.

Молодцы команды! Отличная доставка! Отличная реакция рынка и высокий уровень доверия к нашим цифрам!

Как мы будем возвращать эти кредиты?
При заявленном росте выручки на 9–11% в год наша маржа (EBITDA) также увеличится. В 2023 финансовом году наш показатель EBITDA составил 36,3%, в 2024 финансовом году — 38,4%, а в первом квартале 2025 финансового года мы уже превысили 40%.

Продолжая работать в этом направлении, через несколько лет коэффициент Долг/EBITDA снова снизится, а мы только что прошли с 1,8 до 3,1. В «крестьянском» режиме это означает, что в худший момент цикла, теоретически, мы могли бы погасить весь долг за 3,1 года.

Короче говоря, с финансовой стороны мы знаем эту механику уже 25 лет, и мы снова применяем ту же схему, колеблясь по показателю «Долг/EBITDA» между «Вверх», «Вниз», «Вверх» и «Вниз».

Все это благодаря клиентам, которые доверяют нам, заказывают у нас услуги, продлевают их или берут еще больше! СПАСИБО! И мы разрабатываем новые продукты :)

OVHcloud открывает локальную зону в Вене



Облачный провайдер OVHcloud расширяет свои локальные зоны на Австрию. Новая локальная зона в Вене предлагает локальный доступ к публичным облачным сервисам OVHcloud. Решение интересно для приложений, чувствительных к задержкам и зависящих от места хранения.

OVHcloud открыл свою первую локальную зону в Вене. Локальные зоны открылись в прошлом году в нескольких европейских городах, таких как Прага и Цюрих. Они предоставляют клиентам доступ к локальным периферийным центрам обработки данных. Локальные зоны основаны на программном стеке Gridscale, компании группы OVHcloud. Они работают в общих центрах обработки данных и, как утверждается, характеризуются крайне низкой задержкой. Это приближает данные к месту их создания или необходимости.

Таким образом, новое предложение ориентировано на клиентов, которым необходима обработка данных в пределах их географических границ, будь то из-за местных правил или их собственной политики безопасности. Локальные зоны призваны привлечь интерес клиентов в строго регулируемых отраслях, таких как финансовый сектор или здравоохранение.

Открытие локальной зоны в Вене является важной вехой в стратегии роста OVHcloud. Благодаря новой локальной зоне мы предлагаем нашим австрийским клиентам преимущества публичного облака с локальной облачной инфраструктурой на месте, что позволяет им воспользоваться еще более быстрыми и эффективными облачными сервисами
говорит об открытии Фальк Вайнрайх, генеральный менеджер OVHcloud по Центральной Европе

Спрос на местную инфраструктуру растет
Выбор OVHcloud в качестве места расположения Вены был не случаен, поскольку более половины компаний в регионе DACH в настоящее время видят растущую потребность в размещении своей ИТ-инфраструктуры локально. Об этом свидетельствует исследование Edge Computing «Между небом и землей»., по заказу Gridscale. В частности, в Австрии компании полагаются на локальные решения для получения решающих преимуществ: в качестве причин использования локальной инфраструктуры в исследовании были названы более высокая безопасность (70%), более низкие затраты на передачу данных (55%) и меньшие задержки для лучшего пользовательского опыта (36%).

Сертифицированные стандарты безопасности
Локальная зона в Вене сертифицирована по стандарту ISO/IEC 27001 и дополнительно дополнена стандартом ISO/IEC 27017 по безопасности облачных сервисов и стандартом ISO/IEC 27018 по защите персональных данных. Целью этих сертификаций является гарантия того, что компании смогут эксплуатировать свои приложения в среде с высочайшими стандартами безопасности.

Локальная зона Вены теперь доступна. В настоящее время OVHcloud управляет 17 локальными зонами по всему миру. Ожидается, что 42 из них будут доступны к августу этого года. Всего в течение трех лет планируется развернуть 150 локальных зон.

1 клик

Локальная облачная платформа, как только у нас будет голое железо через api/terraform/opentofu, мы сможем сделать что-то действительно крутое: CloudStore с 40 продуктами :) OPCP + CloudStore = — для развертывания кластера из 3-144 серверов с интегрированной VMware, Nutanix или OpenStack с ИАМ, КМС, Обс? 1 клик — K8S, MinIO, Ceph, LLM? 1 клик — обновить и смонтировать версию VMware Nuta OpenStack? 1 клик — добавить/удалить хост в кластере? 1 клик