Рейтинг
0.00

Nebius Cloud

0 читателей, 8 топиков

Nebius открывает предварительные заказы на кластеры на базе графических процессоров NVIDIA Blackwell



В настоящее время мы принимаем предварительные заказы на кластеры NVIDIA GB200 NVL72 и NVIDIA HGX B200, которые будут развернуты в наших центрах обработки данных в США и Финляндии с начала 2025 года. Эти новые кластеры, созданные на базе NVIDIA Blackwell — архитектуры, которая станет основой новой промышленной революции генеративного искусственного интеллекта, — представляют собой огромный шаг вперед по сравнению с существующими решениями.

Новое оборудование в облаке Nebius AI
В этом случае новое оборудование, которое мы собираемся предоставить — более 22 000 графических процессоров NVIDIA Blackwell будут развернуты в облаке Nebius AI-native — это полностью изменит правила игры. Для NVIDIA GB200 Grace Blackwell Superchip весь мэйнфрейм, включая систему охлаждения и даже архитектуру ЦП, был переосмыслен для размещения новейших и будущих колоссальных моделей. Система NVIDIA HGX B200, имеющая форм-фактор, который может показаться более знакомым, все еще требует адаптации, если вы ранее работали с системами NVIDIA HGX H200 или HGX H100.

Внутренняя экспертиза оборудования вашего поставщика облачных вычислений GPU имеет решающее значение для получения максимальной выгоды от инвестиций в GPU и технических аспектов запланированной миграции. Имея многолетний опыт проектирования и обслуживания высоконагруженных систем, наша команда по исследованиям и разработкам оборудования знает, как правильно настраивать и использовать сложные серверные устройства. Мы обеспечиваем максимальную производительность от каждого часа работы GPU.



Аналогично, архитектура Arm, на которой работает NVIDIA GB200 Grace Blackwell Superchip, не является чем-то, что широко использовалось в нашей области в последние годы. Специальная команда разработчиков ядра Linux от Nebius протянет здесь руку помощи — в настоящее время они создают специальный программный слой для плавной и стабильной работы этого нового оборудования. Легче интегрировать что-то столь сложное в недавно написанные системы. Всего несколько недель назад мы закончили переписывать все наше облако с нуля, поэтому нет никакого наследия, которое сдерживало бы нас при разработке поверх Arm.

Говоря о переписывании облака, одним из преимуществ для пользователей, которые мы получили в ходе этого процесса, стало создание гораздо более быстрого хранилища — как было подчеркнуто в нашем октябрьском объявлении. Мы ожидаем, что наша общая файловая система, адаптированная под ИИ, будет обеспечивать до 180 Гбит/с на стойку NVIDIA GB200 NVL72 для операций чтения, что очень важно для запуска многоузлового обучения и восстановления контрольных точек как можно быстрее. В сочетании с мощными вычислениями на GPU эти ресурсоемкие процессы станут более предсказуемыми и менее стрессовыми для вашей команды.



Многоузловые операции также требуют оркестровки при масштабировании вверх и вниз. Мы поставляем кластеры на базе NVIDIA GB200 и HGX B200 как полностью интегрированные облачные решения с управляемой оркестровкой рабочей нагрузки на основе Kubernetes и Slurm. Если возникнут какие-либо сложности, наши архитекторы решений предоставят вам всю необходимую экспертизу DevOps, чтобы сэкономить ваше время и сосредоточиться на машинном обучении.

Доступность в центрах обработки данных
NVIDIA GB200 NVL72 плотно упаковывает и соединяет графические процессоры с помощью картриджа с медным кабелем для простоты эксплуатации. Он обеспечивает в 25 раз более низкую стоимость и энергопотребление по сравнению с NVIDIA HGX H100 — скачок, который стал возможным благодаря системе жидкостного охлаждения, разработанной NVIDIA, которая в настоящее время устанавливается в нашем собственном центре обработки данных в Финляндии и на объекте колокейшн в Канзас-Сити. Проект включает компоненты, разработанные нами, чтобы помочь обеспечить бесперебойную работу оборудования при интенсивных нагрузках при обучении больших моделей на сотнях или тысячах узлов. Жидкостное охлаждение также подходит для NVIDIA HGX B200. Кроме того, мы проводим обширное тестирование каждого компонента перед развертыванием, чтобы максимизировать эффективность.

Предлагая кластеры на базе NVIDIA Blackwell в Европе и США, мы устраняем необходимость для клиентов беспокоиться о межконтинентальной задержке. Эти новые системы могут быть физически близко к вашей работе, решая даже такие детальные проблемы, как размещение зон доступности.

Вы можете оформить предварительный заказ на GB200 NVL72 или NVIDIA HGX B200 здесь и быть полностью готовыми к новой архитектуре, которая позволит вам обучать и выводить модели с беспрецедентной эффективностью.

nebius.com
console.eu.nebius.com

Nebius Group привлекла $700 млн в рамках частного размещения для расширения ИИ-инфраструктуры



Nebius Group N.V. объявила о привлечении $700 млн в рамках частного размещения от группы институциональных и аккредитованных инвесторов, включая Accel, Nvidia и Orbis Investments. Эти средства поддержат планы по расширению ИИ-инфраструктуры, включая крупные GPU-кластеры и облачные платформы. Об этом сообщила компания.

Генеральный директор Аркадий Волож отметил, что финансирование позволит ускорить расширение технологий, охватывающих два континента. Основной бизнес компании включает около 400 инженеров и команду по разработке моделей обработки естественного языка.

Nebius намерена продолжить развитие за счет построения дата-центров и расширения существующих мощностей. Недавно запущенная AI Studio предоставляет разработчикам доступ к современным моделям с низкими ценами.

В ходе частного размещения компания выпустит 33 333 334 акции класса A по цене $21 за акцию. Закрытие сделки ожидается после соблюдения всех условий. Правление планирует предложить Мэтта Вейганда из Accel на пост директора.

Решение отказаться от выкупа акций связано с высокими торговыми показателями после возобновления торговли на Nasdaq. Компания пересмотрела прогнозы и ожидает, что годовой доход достигнет от $750 млн до $1 млрд к концу 2025 года.

Goldman Sachs выступает единственным агентом по размещению и финансовым консультантом в этом процессе. Акции не зарегистрированы в соответствии с Законом о ценных бумагах 1933 года и не могут предлагаться или продаваться в США без регистрации или соответствующего освобождения.

Nebius открывает свою первую зону доступности в США



Зона доступности в Канзас-Сити, запуск которой запланирован на первый квартал 2025 года, будет включать в себя тысячи современных графических процессоров NVIDIA, в первую очередь графические процессоры H200 Tensor Core на начальном этапе, а энергоэффективная платформа NVIDIA Blackwell, как ожидается, появится в 2025 году.

Мы станем первым арендатором по размещению оборудования в дата-центре Канзас-Сити, принадлежащем нашему партнеру.
Патмос, которая предоставляет облачные решения, решения для высокоплотных вычислений, программного обеспечения и центров обработки данных.

Мы выбрали Patmos за продемонстрированную гибкость и опыт в поэтапном строительстве, поставляя индивидуальные сборки центров обработки данных быстрее, чем это предусмотрено отраслевым стандартом. Первая фаза строительства включает в себя обширные обновления инфраструктуры: резервные копии, генераторы и пространство в клетях, адаптированные для поддержки наших высоких требований к рабочей нагрузке.

Недавно Patmos перепрофилировал объект, превратив культовую печатную машину Kansas City Star в современный центр обработки данных ИИ. Размещение может быть расширено с первоначальных 5 МВт до 40 МВт, или около 35 тысяч графических процессоров, при полной потенциальной мощности.



Новая зона доступности позволит нам еще лучше удовлетворять потребности американских компаний, занимающихся ИИ. Для более эффективной работы с ними и для удобства нашей растущей команды мы также недавно объявили об открытии трех офисов по всей стране.

Это происходит как раз тогда, когда первые клиентские рабочие нагрузки развертываются в нашем парижском центре обработки данных colocation, который мы представили менее двух месяцев назад. Наряду с нашим собственным ЦОД в Финляндии, мощность которого мы утраиваем, Nebius будет иметь три зоны доступности, и это только начало. Мы продолжим строить инфраструктуру ИИ по обе стороны Атлантики в 2025 году и далее.

Nebius открывает офисы в США



Мы заявляем о себе на карте Соединенных Штатов.
Сделав первые шаги в Америке, мы поняли, что спрос на облачные сервисы AI-native на рынке США беспрецедентен. Расширение нашего присутствия в США означает, что мы можем быть ближе к нашим клиентам и поддерживать инновационные американские компании AI на их пути в будущее.

А также активно найм
В США у нас теперь также есть клиентские центры, где мы можем встречаться с нашими клиентами и партнерами, и где сотрудники Nebius могут работать в среде, способствующей творчеству. Наша первая база находится в культовом здании Ferry Building в Сан-Франциско. У нас также есть прекрасное пространство на Dallas Parkway в Техасе — недалеко от штаб-квартиры нашей дочерней компании Avride в Остине. Наш третий офис откроется в Нью-Йорке в конце этого года.

Предстоящие вебинары Nebius: выберите тему — преодоление разрыва между Slurm и K8s или тонкая настройка LLM с MLflow



В этом месяце мы рады предложить не один, а два вебинара, призванных повысить ваш уровень знаний в области машинного обучения.

Проводимые нашими экспертами ML, эти сессии будут изучать практические решения современных задач в области HPC и машинного обучения. Зарегистрируйтесь сейчас, используя ссылки ниже!

Как Slurm встречает K8s: представляем Soperator
4 декабря, среда, 18:00 UTC+1

Узнайте, как Soperator, наш оператор K8s с открытым исходным кодом для Slurm, заполняет пробел между ними, предлагая непревзойденную масштабируемость и эффективность для рабочих нагрузок машинного обучения и высокопроизводительных вычислений.
Для кого: инженеров машинного обучения, проводящих распределенное обучение, специалистов по высокопроизводительным вычислениям, управляющих крупномасштабными рабочими нагрузками, команд DevOps, поддерживающих среды машинного обучения и высокопроизводительных вычислений.
nebius.com/events/webinar-how-slurm-meets-k8s-introducing-soperator

Управляемый MLflow
Тонкая настройка LLM с помощью MLflow: практическое руководство
18 декабря, среда, 17:00 UTC+1

Узнайте, как MLflow может оптимизировать ваш рабочий процесс тонкой настройки LLM. Изучите лучшие практики для отслеживания экспериментов, управления моделями и совместной работы в проектах LLM с помощью мощных функций MLflow.
Для кого: инженеры машинного обучения и специалисты по обработке данных, желающие внедрить готовые к использованию решения LLM.
nebius.com/events/webinar-fine-tuning-llms-with-mlflow