Рейтинг
0.00

Nebius Cloud

1 читатель, 13 топиков

Nebius расширяет немедленный доступ к графическим процессорам NVIDIA Hopper



Расширение границ для энтузиастов ИИ
Мы собрали и проанализировали запросы пользователей за последние девять месяцев с момента запуска доступа к самообслуживанию в апреле. Мы заметили, что большинство пользователей потребляют больше вычислений на GPU, чем мы предоставляем мгновенно по умолчанию. С точки зрения пользователя, расширение квот вычислений несложно, но это создает дополнительные трения и ослабляет потенциал масштабируемости. Более того, процесс утверждения занимает время, что имеет решающее значение в мире конкурентоспособных компаний ИИ и ценных вычислений на GPU.

Мы подсчитали, что увеличение квот ускоряет доступ к ресурсам примерно для 80% наших пользователей самообслуживания. Это также открывает возможности и дает больше свободы тем, кому нужен быстрый доступ к сторонней учебной среде или дополнительное пространство для экспериментов с МО. Что бы это ни было, мы вас обеспечим.

Что нового
Это обновление вводит мгновенный доступ к графическим процессорам NVIDIA L40S и NVIDIA H200, делая их доступными через консоль для всех. Еще одним важным изменением является доступность до 16 графических процессоров NVIDIA H100 (2 узла, соединенных с NVIDIA Quantum InfiniBand). Это значительно увеличивает диапазон рабочих нагрузок, которые могут быть запущены немедленно.

Мы также увеличили квоты на оперативную память, процессор и хранилище, чтобы лучше соответствовать введенной конфигурации графического процессора.


Квота по умолчанию не применяется к сетевым жестким дискам и распространяется только на SSD-накопители.

Обратите внимание, что квоты по умолчанию могут меняться и корректироваться в зависимости от доступности вычислительных ресурсов в каждом конкретном регионе.

Начиная
Эти увеличенные квоты уже действуют для всех. Зарегистрируйтесь в консоли и введите свои платежные данные, чтобы начать. Если вашему проекту требуется значительный объем вычислений на GPU с самого начала, свяжитесь с нами через форму запроса для получения специального предложения.

Если вам нужны какие-либо рекомендации по квотам или у вас возникли технические проблемы, обращайтесь в нашу службу поддержки клиентов.

studio.nebius.ai
console.eu.nebius.com

DeepSeek R1 и V3: китайский Новый год ИИ начался рано



Если вы думаете, что празднование Нового года началось 1 января, то это зависит от того, как на это посмотреть — ведь в мире ИИ настоящий фейерверк прогремел в декабре с выпуском DeepSeek V3. Теперь DeepSeek R1 освещает небо сиянием с открытым исходным кодом, которое заставляет даже самых закоренелых гигантов Кремниевой долины почувствовать жар.

Рост DeepSeek
DeepSeek последовательно работает на моделях Mixture-of-Experts (MoE), которые эффективны и открыты. DeepSeek V2 был выпущен в мае 2024 года и представил интересную альтернативу Llama 3 70B. Его производительность на английском языке была немного ниже, чем у Llama, но V2 превзошел модель Meta на стандартных китайских тестах.

DeepSeek V3 сделал еще один шаг вперед, не только улучшив производительность, но и похваставшись в три раза более быстрым временем вывода. Он появился в декабре 2024 года и с тех пор вызвал резонанс в сообществе ИИ. Созданный на архитектуре MoE с колоссальным количеством параметров в 671 миллиард, V3 активирует всего 37 миллиардов параметров на токен, сохраняя как вычислительную нагрузку, так и потребление энергии на низком уровне по сравнению с другими альтернативами. Обученный на 14,8 триллионах высококачественных токенов с функцией Multi-Token Prediction для более высокой скорости вывода, DeepSeek V3 обрабатывает 60 токенов в секунду — в три раза быстрее своего предшественника. Он показывает тактовую частоту 88,5 на бенчмарке MMLU — немного меньше ведущего Llama 3.1, но превосходит таких известных конкурентов, как Qwen 2.5 и Claude 3.5 Sonnet. На бенчмарке DROP он достигает 91,6, демонстрируя внушительную способность к рассуждению (ты не должен обсуждать свои проблемы с рассуждениями LLM в этом посте; ты должен подождать отдельного). Если вы программист, обратите внимание: DeepSeek V3 превосходит Claude 3.5 Sonnet на Codeforces. Я знаю — я тоже любил свой Sonnet.


Доступность и открытость
Возможно, самой большой сенсацией является разрешительная лицензия DeepSeek V3 с открытым исходным кодом, позволяющая разработчикам свободно загружать, настраивать и развертывать модель — даже для коммерческих проектов. Эта открытая философия не только идеологическая; она также экономична. Обучение DeepSeek V3 обошлось примерно в 5,58 миллионов долларов за два месяца — это лишь малая часть того, что тратят некоторые крупные технологические компании. Внезапно у тяжеловесов с закрытым исходным кодом появился реальный конкурент, который может масштабироваться, не опустошая банковские счета. DeepSeek R1 добавляет оскорбления к ране, обойдя GPT-o1 по нескольким показателям (источник):


Количество данных преобладает над качеством данных
Тенденция, начатая Фи в Учебники — это все, что вам нужно наконец-то привело к широкому признанию: теперь, когда мы научились собирать огромные объемы данных, контроль качества данных стал настоящим секретом разработки современных моделей.

Это также одна из краеугольных идей проекта Pleias, соучредителем которого я являюсь. В 2024 году Pleias опубликовал Общий корпус — крупнейший открытый и разрешенный набор текстовых данных, включающий более 2 триллионов токенов. Однако именно обширная предварительная обработка, адаптированная для RAG, позволила Плея 1.0 семейство моделей, которые превзойдут свой вес на бенчмарках RAG. Надеюсь, позже я напишу несколько постов о предварительной обработке данных для «обмотки модели».

Бережливость — это новый тренд
Сообщество открытого исходного кода известно тем, что оно «бедно вычисляет», то есть ресурсы часто минимальны по сравнению с лабораториями с глубокими карманами. Но эта вынужденная бережливость может быть суперсилой: она стимулирует более эффективные алгоритмы, более простую архитектуру и экологичные оптимизации.

Интересное замечание: даже при постоянном повышении эффективности обучение гигантских моделей по-прежнему требует значительных затрат энергии. Это делает расположение и проектирование кластеров критически важными. Например, первый собственный центр обработки данных Nebius находится в Финляндии, где используется естественное воздушное охлаждение для сокращения расходов на электроэнергию и уменьшения выбросов углекислого газа — концепция, которую мы часто называем свободным охлаждением. Эта тенденция только усилится в 2025 году, поскольку все больше разработчиков и пользователей ИИ научатся делать больше с меньшими затратами.

По-настоящему открытый ИИ догоняет
Модели искусственного интеллекта закрытого типа в Кремниевой долине, эти «мамонты», оглядываются по сторонам. Появление DeepSeek V3 знаменует собой последний шаг в критическом сдвиге: ИИ с открытым исходным кодом больше не играет в догонялки; он медленно продвигается вперед по ключевым показателям и применимости в реальном мире.

Представляю вам Доказательство А: твиты Сэма Альтмана, намекающие на усиление конкуренции.


OpenAI, несомненно, изменил общественный консенсус относительно того, что возможно, но конкуренция усиливается, и слово «открытый» в его названии больше не является достаточным. Недавнее объявление Stargate контрастирует с бережливым подходом DeepSeek, который предоставляет полностью открытые модели за малую часть стоимости.

Если вы хотите разместить DeepSeek V3 в ЕС экономически эффективно, вы скоро сможете попробовать его в Небиус AI Студия и решите сами, как это сравнить с закрытыми альтернативами, используя игровую площадку студии. На этой неделе мы добавим и R1, и V3.

Дорога впереди
Можно с уверенностью сказать, что «китайский Новый год ИИ» начался с грохотом на целый месяц раньше в этом году. В конце концов, год Деревянной Змеи знаменует собой «время трансформации, роста и самоанализа». Это касается как начинающих стартапов, так и устоявшихся участников в области genAI. Вопрос уже не в том, догонит ли ИИ с открытым исходным кодом, а в том, как быстро он охватит поле — и кто сможет использовать его для наибольшего воздействия.

Анализ данных о происшествии: Частичная недоступность 26 ноября 2024



Обзор инцидента
Неисправный релиз в последовательности восстановления VM запустил операцию восстановления, в результате чего 282 виртуальные машины (VM) в eu-north1регионе были перезапущены. 164 из этих VM столкнулись с длительным простоем, требующим ручного вмешательства для восстановления работы. Это вызвало перерывы в рабочих нагрузках клиентов.

Мы искренне приносим извинения всем клиентам, пострадавшим от этого инцидента. Мы намерены извлечь из этого урок и предпринимаем конкретные шаги, чтобы гарантировать, что это не повторится.

Влияние
Перезапущено 282 виртуальные машины. 196 из них не смогли успешно перезапуститься и зависли.
32 виртуальные машины были перезапущены или удалены пользователями.
164 виртуальные машины не смогли запуститься и оставались в автономном режиме примерно 2–3 часа.

Хронология
  • 13:48 Развертывание нового релиза в eu-north1. Цепочка событий, приведших к инциденту, началась
  • 13:48 Массовый перезапуск ВМ: затронуто 282 ВМ.
  • 13:50 86 виртуальных машин успешно перезапущены автоматически.
  • 14:03 Были запущены оповещения о большом количестве застрявших виртуальных машин, и проблема была сообщена внутри компании. Первый отчет клиента получен через Slack; проблема была классифицирована как инцидент.
  • 14:21 Команда начала анализировать причины происходящего и способы смягчения последствий, не усугубляя ситуацию.
  • 15:00 Выявлена ​​основная причина и определена стратегия смягчения последствий.
  • 15:00 — 15:37 Исследовали способы смягчения последствий инцидента без возникновения дальнейших проблем и создали план смягчения, одновременно тестируя решение на отдельных виртуальных машинах. К этому времени 32 виртуальных машины были либо восстановлены пользователями, либо удалены.
  • 15:37 — 16:39 163 ВМ восстановлены партиями.
  • 17:40 Подтвержден успешный запуск всех затронутых ВМ. Инцидент решен

Первопричина
Чтобы обеспечить четкое понимание событий, которые привели к этому инциденту, мы опишем некоторые внутренние процессы, способствовавшие возникновению проблемы.

Служба Compute API столкнулась с проблемой, когда она неправильно предполагала, что некоторые виртуальные машины неработоспособны. Это было вызвано ошибочным предположением о порядке обработки событий в системе, отвечающей за отслеживание обновлений ресурсов. В результате Compute API ошибочно определил некоторые виртуальные машины как отсутствующие и инициировал ненужные операции восстановления.

Другим фактором, способствовавшим возникновению проблемы, стало то, что на момент инцидента системы не были оптимизированы для такого количества операций восстановления, из-за которых виртуальные машины зависали.

Действия по смягчению последствий
Мы начали с определения первопричины инцидента и остановки всех операций автоматического восстановления, чтобы предотвратить дальнейшее воздействие.

Затем мы разделили затронутые ВМ на две группы: те, которые успешно перезапустились, и те, которые застряли и требовали ручного вмешательства.
Чтобы решить проблему, мы разработали и тщательно протестировали процедуры смягчения. Они включали остановку затронутых ВМ для прерывания всех застрявших процессов и их последующий перезапуск контролируемыми партиями для обеспечения успешного перезапуска.

Наконец, эти процедуры смягчения последствий были успешно применены ко всем виртуальным машинам, требующим ручного восстановления, что завершило процесс.

Результаты реагирования на инциденты
Наши внутренние системы мониторинга обнаружили проблему, когда некоторые виртуальные машины зависли. Это вызвало немедленные телефонные звонки дежурным инженерам, и в течение 15 минут мы оценили воздействие, официально объявили об инциденте, собрали группу реагирования и начали работу по смягчению последствий. Благодаря быстрым действиям группы мы определили первопричину в течение 35 минут.

Процесс восстановления следовал поэтапному подходу, который оказался эффективным, но потребовал ручного вмешательства и тщательного мониторинга для обеспечения надежного восстановления. Этот инцидент показал, что нам нужна лучшая автоматизация процедур восстановления, которая могла бы значительно сократить время реагирования в подобных ситуациях.

План действий после инцидента
Наш план действий после инцидента направлен на улучшение трех ключевых областей: проверка перед развертыванием, эксплуатация и связь.

Для проверки перед развертыванием мы введем дополнительное тестирование сценариев восстановления и усилим проверку изменений состояния виртуальной машины.

В операционной деятельности мы планируем добавить ограничение скорости для процессов восстановления, улучшить мониторинг и обнаружение аномалий в деятельности виртуальных машин, а также усилить процедуры развертывания с помощью дополнительных проверок безопасности.

В сфере коммуникаций мы стремимся обеспечить более быструю эскалацию масштабных событий, связанных с виртуальными машинами, улучшить уведомления и взаимодействие с клиентами, а также усовершенствовать внутренние протоколы коммуникации для оптимизации наших усилий по реагированию на инциденты.

Знаменательный год: основные моменты путешествия Nebius в 2024 году



Хотя праздничный сезон, возможно, не всегда связан с числами — а скорее с тем, чтобы не думать о них некоторое время — они все еще всплывают здесь и там. Будь то мощность GPU, которую вы планируете на следующий год, или сколько миллиардов параметров вы будете использовать в своей следующей модели, числа ведут нас в 2025 год. Вот некоторые цифры, над которыми мы размышляем в эти дни — сохраняя при этом чувство веселья.

Наш недавний инвестиционный раунд указывает путь к светлому будущему, и мы рады приветствовать в составе нашей компании в качестве новых акционеров нескольких престижных инвесторов.



Эти 700 миллионов долларов пополнят наши собственные сбережения и дадут нам больше возможностей для инвестиций в создание инфраструктуры ИИ по всему миру…



…при этом никогда не забывая о своих корнях. Первый центр обработки данных Nebius в Финляндии, наша домашняя база, был полностью построен нами самостоятельно, с тщательным вниманием к конструкции здания, адаптацией его к нашим внутренним серверам и конструкциям стоек. И мы структурировали его не только для экономической эффективности, но и в очень финском стиле — с сауной на месте.



Это может показаться довольно горячим — надо признать, что большинство сотрудников предпочитают температуру ближе к 80–100 °C.

Говоря о тепле, мы используем избыточное тепло от наших серверов с пользой, перенаправляя его в близлежащий город Мянтсяля.



Трубы, по которым поступает тепло, конечно, не единственная часть коммуникаций центра обработки данных. Для поддержки многохостового обучения для наших клиентов мы полагаемся на InfiniBand. Фактически, общая длина оптических кабелей, установленных в наших центрах обработки данных, охватывает все расстояние от нашей штаб-квартиры в Амстердаме до Рима.



Конечно, мы посетили Рим в 2024 году, чтобы продвигать Nebius – вместе с 26 другими городами в Соединенных Штатах, Европе, Азиатско-Тихоокеанском регионе и за его пределами. Вы найдете нас на конференциях по ИИ по всему миру, готовых поддержать участников, где бы они ни находились.



Поддержка означает не только предоставление инфраструктуры GPU, но и заботу о людях в теплой и вдумчивой манере. Если количество ваших носков нечетное, ну… это, конечно, то, чего никогда не случалось с нами.



Посещение конференций по всему миру не означает, что у нас нет ключевых достопримечательностей. Наши рекламные щиты в районе залива привлекли много внимания — именно то, чего мы хотели.



Если мы так смелы в маркетинге, насколько сильны наши технологические основы? Один из способов измерить это — через портфель патентов. Эти цифры показывают, что мы не просто строим инфраструктуру ИИ, как другие, кто был до нас. Вместо этого мы продвигаем технологии, чтобы продвигать отрасль вперед.



Nebius привносит дополнительную технологическую ценность в эту область. Как еще можно описать платформу облачных вычислений, переписанную с нуля менее чем за год? Мы владеем каждой частью технологического стека Nebius, и каждая строка кода — наша собственная. Мы считаем, что это делает Nebius по-настоящему уникальным в мире облаков.



Помимо облака мы также запустили Nebius AI Studio, которая предоставляет разработчикам приложений GenAI конечные точки для десятков самых популярных моделей с открытым исходным кодом, а также некоторые более специализированные предложения. Они не ограничиваются LLM, но также включают модели машинного зрения. AI Studio уже производит фурор на рынке вывода.



Расширение нашего портфолио такими технологическими продуктами требует тесного сотрудничества между командами, особенно при росте в нескольких странах. Чтобы оставаться на связи, мы полагаемся на Zoom для трансграничной командной работы.



После продуктивных мозговых штурмов, как онлайн, так и офлайн, о том, как сделать жизнь разработчиков ИИ еще проще, мы прилагаем все усилия, чтобы восстановить связь с нашими семьями. Экологичный способ добираться на работу — велосипед — очень амстердамское занятие.



Вот и все наши цифры на 2024 год! Теперь пора подумать о том, как достичь еще более впечатляющих показателей в 2025 году. Если покорение мира ИИ также входит в ваши планы на следующий год, вы знаете, где найти инфраструктуру. И носки.

nebius.com
studio.nebius.ai/playground
console.eu.nebius.com

Реализовано в четвертом квартале: обновления нашего облака GPU



После завершения полной переписывания нашего облака с нуля в октябре мы начали улучшать фундамент, который мы вывели на рынок. Функции и инструменты, которые мы представили с тех пор, охватывают весь наш спектр облачных сервисов, от Compute Cloud до управляемых решений MLOps.

Вычислительное облако
  • Добавлена ​​конфигурация платформы AMD (cpu-d3).
  • В консоль добавлены новые панели мониторинга: ЦП, ГП, ОЗУ, метрики NVLink, метрики InfiniBand, метрики Ethernet.
  • Выбор типа публичного IP-адреса (статический или динамический) теперь доступен при создании виртуальной машины в GUI, CLI или Terraform.

Кластерное управление
Оператор

  • Включено sshdна рабочих узлах для прямого, безопасного доступа и упрощенного устранения неполадок.
  • Реализована поддержка enroot без необходимости наличия прав root, что обеспечивает более гибкие и безопасные контейнеризированные рабочие процессы.
  • Добавлена dockerd​​поддержка управления средой выполнения контейнера.
  • Интегрировано apparmorдля улучшения профилей безопасности и изоляции рабочей нагрузки.
  • Внедрены разделы Slurm для логического разделения ресурсов и повышения эффективности планирования.
  • Запущен API Slurm REST, позволяющий осуществлять программное управление кластерами, отправку заданий и запрашивать состояния кластеров.
  • Поддерживаются типы кластеров, состоящие только из ЦП и только из ГП, что позволяет пользователям точно адаптировать свою инфраструктуру к требованиям рабочей нагрузки.

Управляемый сервис для Kubernetes
  • Добавлена ​​поддержка балансировщика нагрузки для предоставления сервисам доступа в Интернет и внутренние сети.
  • В консоль добавлены новые панели мониторинга: ЦП, ГП, ОЗУ, метрики NVLink, метрики InfiniBand, метрики Ethernet.
  • Запущен автомасштабатор узлов для динамического добавления или удаления узлов в зависимости от потребностей в ресурсах.
  • Внедрена интеграция с нашей службой реестра контейнеров для бесперебойного управления образами.
  • Включена высокая доступность для кластеров по умолчанию, что обеспечивает избыточную плоскость управления без дополнительных затрат.
  • Добавлена ​​поддержка блочных томов ReadWriteOnce с CSI через блочное хранилище в режиме предварительного просмотра. Обратитесь в службу поддержки или к своему архитектору облачных решений, чтобы начать их использовать.
  • Добавлена ​​поддержка настройки кластеров в пользовательских подсетях, что позволяет кластерам Kubernetes подключаться к частному адресному пространству клиента через VPN.

Реестр контейнеров

Хранилище данных
Общая файловая система

  • Запущена функция изменения размера файловой системы. Производительность файловой системы будет увеличиваться на каждые 4 ТБ размера.
  • Добавлена ​​поддержка получения доступных платформ и предустановок через API и CLI.
  • Добавлена ​​возможность изменения размера файловых систем и дисков без необходимости их переустановки.

Хранение объектов
  • В консоль добавлены показатели производительности и потребления.

Управляемый сервис для PostgreSQL
  • Добавлены показатели производительности в консоль.
  • Добавлена ​​поддержка Run:ai.
  • Запущены частные конечные точки кластера (доступны только из VPC пользователя).
  • Добавлена ​​возможность включать и отключать конечные точки публичного кластера.
  • Добавлены настройки размера пула и некоторые второстепенные настройки, связанные с параметрами кластера PostgreSQL.
  • Добавлена ​​возможность обновления созданного кластера путем изменения параметров кластера (количество хостов, количество ЦП, объем памяти), параметров PostgreSQL (пароль, настройки автоочистки и т. д.) или настроек пулера.

Услуги и приложения MLOps
Управляемая услуга для MLflow

  • Теперь поддерживаются частные и публичные конечные точки.
  • Добавлены журналы MLflow в веб-консоль.
  • В веб-консоль добавлены показатели производительности MLflow.

Возможности облачной платформы
Сеть

  • Добавлено «количество доступных публичных IP-адресов» в качестве публичной квоты в консоли.
  • Теперь доступна возможность изменения диапазона IP-адресов для частной сети.
  • Решение Wireguard VPN было добавлено для безопасного удаленного доступа.
  • Управление идентификацией и доступом
  • Добавлена ​​аутентификация GitHub в консоль.
  • Теперь у клиентов есть возможность настраивать собственные федерации с помощью протокола SAML2 через API.

API
  • Выпустили API-репозиторий github.com/nebius/api
  • Go SDK и Python SDK выпущены в режиме предварительного просмотра. Пожалуйста, свяжитесь со службой поддержки или архитектором облачных решений, чтобы начать их использовать.
Страница статуса
  • Теперь вы можете подписаться на инциденты на страница статуса status.nebius.com

Небиус AI Студия
  • В настоящее время в нашем портфолио LLM более 30 моделей.
  • Теперь платформа поддерживает увеличенные лимиты скорости — более 100 млн токенов в минуту и ​​более.
  • Добавлена ​​новейшая модель Llama-3.3-70B-Instruct.
  • Добавлены модели стражи.
  • Добавлены специализированные модели Med42 и Llama3-OpenBioLLM-8B.
  • Теперь также доступны модели Vision.
  • LoRA доступен в режиме предварительного просмотра.

nebius.com
studio.nebius.ai/playground
console.eu.nebius.com

Nebius открывает предварительные заказы на кластеры на базе графических процессоров NVIDIA Blackwell



В настоящее время мы принимаем предварительные заказы на кластеры NVIDIA GB200 NVL72 и NVIDIA HGX B200, которые будут развернуты в наших центрах обработки данных в США и Финляндии с начала 2025 года. Эти новые кластеры, созданные на базе NVIDIA Blackwell — архитектуры, которая станет основой новой промышленной революции генеративного искусственного интеллекта, — представляют собой огромный шаг вперед по сравнению с существующими решениями.

Новое оборудование в облаке Nebius AI
В этом случае новое оборудование, которое мы собираемся предоставить — более 22 000 графических процессоров NVIDIA Blackwell будут развернуты в облаке Nebius AI-native — это полностью изменит правила игры. Для NVIDIA GB200 Grace Blackwell Superchip весь мэйнфрейм, включая систему охлаждения и даже архитектуру ЦП, был переосмыслен для размещения новейших и будущих колоссальных моделей. Система NVIDIA HGX B200, имеющая форм-фактор, который может показаться более знакомым, все еще требует адаптации, если вы ранее работали с системами NVIDIA HGX H200 или HGX H100.

Внутренняя экспертиза оборудования вашего поставщика облачных вычислений GPU имеет решающее значение для получения максимальной выгоды от инвестиций в GPU и технических аспектов запланированной миграции. Имея многолетний опыт проектирования и обслуживания высоконагруженных систем, наша команда по исследованиям и разработкам оборудования знает, как правильно настраивать и использовать сложные серверные устройства. Мы обеспечиваем максимальную производительность от каждого часа работы GPU.



Аналогично, архитектура Arm, на которой работает NVIDIA GB200 Grace Blackwell Superchip, не является чем-то, что широко использовалось в нашей области в последние годы. Специальная команда разработчиков ядра Linux от Nebius протянет здесь руку помощи — в настоящее время они создают специальный программный слой для плавной и стабильной работы этого нового оборудования. Легче интегрировать что-то столь сложное в недавно написанные системы. Всего несколько недель назад мы закончили переписывать все наше облако с нуля, поэтому нет никакого наследия, которое сдерживало бы нас при разработке поверх Arm.

Говоря о переписывании облака, одним из преимуществ для пользователей, которые мы получили в ходе этого процесса, стало создание гораздо более быстрого хранилища — как было подчеркнуто в нашем октябрьском объявлении. Мы ожидаем, что наша общая файловая система, адаптированная под ИИ, будет обеспечивать до 180 Гбит/с на стойку NVIDIA GB200 NVL72 для операций чтения, что очень важно для запуска многоузлового обучения и восстановления контрольных точек как можно быстрее. В сочетании с мощными вычислениями на GPU эти ресурсоемкие процессы станут более предсказуемыми и менее стрессовыми для вашей команды.



Многоузловые операции также требуют оркестровки при масштабировании вверх и вниз. Мы поставляем кластеры на базе NVIDIA GB200 и HGX B200 как полностью интегрированные облачные решения с управляемой оркестровкой рабочей нагрузки на основе Kubernetes и Slurm. Если возникнут какие-либо сложности, наши архитекторы решений предоставят вам всю необходимую экспертизу DevOps, чтобы сэкономить ваше время и сосредоточиться на машинном обучении.

Доступность в центрах обработки данных
NVIDIA GB200 NVL72 плотно упаковывает и соединяет графические процессоры с помощью картриджа с медным кабелем для простоты эксплуатации. Он обеспечивает в 25 раз более низкую стоимость и энергопотребление по сравнению с NVIDIA HGX H100 — скачок, который стал возможным благодаря системе жидкостного охлаждения, разработанной NVIDIA, которая в настоящее время устанавливается в нашем собственном центре обработки данных в Финляндии и на объекте колокейшн в Канзас-Сити. Проект включает компоненты, разработанные нами, чтобы помочь обеспечить бесперебойную работу оборудования при интенсивных нагрузках при обучении больших моделей на сотнях или тысячах узлов. Жидкостное охлаждение также подходит для NVIDIA HGX B200. Кроме того, мы проводим обширное тестирование каждого компонента перед развертыванием, чтобы максимизировать эффективность.

Предлагая кластеры на базе NVIDIA Blackwell в Европе и США, мы устраняем необходимость для клиентов беспокоиться о межконтинентальной задержке. Эти новые системы могут быть физически близко к вашей работе, решая даже такие детальные проблемы, как размещение зон доступности.

Вы можете оформить предварительный заказ на GB200 NVL72 или NVIDIA HGX B200 здесь и быть полностью готовыми к новой архитектуре, которая позволит вам обучать и выводить модели с беспрецедентной эффективностью.

nebius.com
console.eu.nebius.com

Nebius Group привлекла $700 млн в рамках частного размещения для расширения ИИ-инфраструктуры



Nebius Group N.V. объявила о привлечении $700 млн в рамках частного размещения от группы институциональных и аккредитованных инвесторов, включая Accel, Nvidia и Orbis Investments. Эти средства поддержат планы по расширению ИИ-инфраструктуры, включая крупные GPU-кластеры и облачные платформы. Об этом сообщила компания.

Генеральный директор Аркадий Волож отметил, что финансирование позволит ускорить расширение технологий, охватывающих два континента. Основной бизнес компании включает около 400 инженеров и команду по разработке моделей обработки естественного языка.

Nebius намерена продолжить развитие за счет построения дата-центров и расширения существующих мощностей. Недавно запущенная AI Studio предоставляет разработчикам доступ к современным моделям с низкими ценами.

В ходе частного размещения компания выпустит 33 333 334 акции класса A по цене $21 за акцию. Закрытие сделки ожидается после соблюдения всех условий. Правление планирует предложить Мэтта Вейганда из Accel на пост директора.

Решение отказаться от выкупа акций связано с высокими торговыми показателями после возобновления торговли на Nasdaq. Компания пересмотрела прогнозы и ожидает, что годовой доход достигнет от $750 млн до $1 млрд к концу 2025 года.

Goldman Sachs выступает единственным агентом по размещению и финансовым консультантом в этом процессе. Акции не зарегистрированы в соответствии с Законом о ценных бумагах 1933 года и не могут предлагаться или продаваться в США без регистрации или соответствующего освобождения.

Nebius открывает свою первую зону доступности в США



Зона доступности в Канзас-Сити, запуск которой запланирован на первый квартал 2025 года, будет включать в себя тысячи современных графических процессоров NVIDIA, в первую очередь графические процессоры H200 Tensor Core на начальном этапе, а энергоэффективная платформа NVIDIA Blackwell, как ожидается, появится в 2025 году.

Мы станем первым арендатором по размещению оборудования в дата-центре Канзас-Сити, принадлежащем нашему партнеру.
Патмос, которая предоставляет облачные решения, решения для высокоплотных вычислений, программного обеспечения и центров обработки данных.

Мы выбрали Patmos за продемонстрированную гибкость и опыт в поэтапном строительстве, поставляя индивидуальные сборки центров обработки данных быстрее, чем это предусмотрено отраслевым стандартом. Первая фаза строительства включает в себя обширные обновления инфраструктуры: резервные копии, генераторы и пространство в клетях, адаптированные для поддержки наших высоких требований к рабочей нагрузке.

Недавно Patmos перепрофилировал объект, превратив культовую печатную машину Kansas City Star в современный центр обработки данных ИИ. Размещение может быть расширено с первоначальных 5 МВт до 40 МВт, или около 35 тысяч графических процессоров, при полной потенциальной мощности.



Новая зона доступности позволит нам еще лучше удовлетворять потребности американских компаний, занимающихся ИИ. Для более эффективной работы с ними и для удобства нашей растущей команды мы также недавно объявили об открытии трех офисов по всей стране.

Это происходит как раз тогда, когда первые клиентские рабочие нагрузки развертываются в нашем парижском центре обработки данных colocation, который мы представили менее двух месяцев назад. Наряду с нашим собственным ЦОД в Финляндии, мощность которого мы утраиваем, Nebius будет иметь три зоны доступности, и это только начало. Мы продолжим строить инфраструктуру ИИ по обе стороны Атлантики в 2025 году и далее.

Nebius открывает офисы в США



Мы заявляем о себе на карте Соединенных Штатов.
Сделав первые шаги в Америке, мы поняли, что спрос на облачные сервисы AI-native на рынке США беспрецедентен. Расширение нашего присутствия в США означает, что мы можем быть ближе к нашим клиентам и поддерживать инновационные американские компании AI на их пути в будущее.

А также активно найм
В США у нас теперь также есть клиентские центры, где мы можем встречаться с нашими клиентами и партнерами, и где сотрудники Nebius могут работать в среде, способствующей творчеству. Наша первая база находится в культовом здании Ferry Building в Сан-Франциско. У нас также есть прекрасное пространство на Dallas Parkway в Техасе — недалеко от штаб-квартиры нашей дочерней компании Avride в Остине. Наш третий офис откроется в Нью-Йорке в конце этого года.

Предстоящие вебинары Nebius: выберите тему — преодоление разрыва между Slurm и K8s или тонкая настройка LLM с MLflow



В этом месяце мы рады предложить не один, а два вебинара, призванных повысить ваш уровень знаний в области машинного обучения.

Проводимые нашими экспертами ML, эти сессии будут изучать практические решения современных задач в области HPC и машинного обучения. Зарегистрируйтесь сейчас, используя ссылки ниже!

Как Slurm встречает K8s: представляем Soperator
4 декабря, среда, 18:00 UTC+1

Узнайте, как Soperator, наш оператор K8s с открытым исходным кодом для Slurm, заполняет пробел между ними, предлагая непревзойденную масштабируемость и эффективность для рабочих нагрузок машинного обучения и высокопроизводительных вычислений.
Для кого: инженеров машинного обучения, проводящих распределенное обучение, специалистов по высокопроизводительным вычислениям, управляющих крупномасштабными рабочими нагрузками, команд DevOps, поддерживающих среды машинного обучения и высокопроизводительных вычислений.
nebius.com/events/webinar-how-slurm-meets-k8s-introducing-soperator

Управляемый MLflow
Тонкая настройка LLM с помощью MLflow: практическое руководство
18 декабря, среда, 17:00 UTC+1

Узнайте, как MLflow может оптимизировать ваш рабочий процесс тонкой настройки LLM. Изучите лучшие практики для отслеживания экспериментов, управления моделями и совместной работы в проектах LLM с помощью мощных функций MLflow.
Для кого: инженеры машинного обучения и специалисты по обработке данных, желающие внедрить готовые к использованию решения LLM.
nebius.com/events/webinar-fine-tuning-llms-with-mlflow