Рейтинг
0.00

Nebius Cloud

0 читателей, 3 топика

Мы запускаем новую платформу Nebius, созданную с нуля



Мы разработали новую версию платформы Nebius, которая, как мы считаем, будет служить вашим потребностям еще лучше. Она уже тестируется нашей внутренней командой LLM R&D и рядом клиентов. Теперь мы выпускаем ее для всех.

Когда мы впервые запустили Nebius, мы начали с использования того, чему научились при создании общедоступного облака, что помогло нам быстро приступить к работе. Теперь мы видим лучшие способы делать вещи, поэтому мы создали совершенно новую, эффективную и удобную для пользователя облачную платформу ИИ.

Наша новая платформа отличается более быстрым бэкэндом хранилища, поддержкой новых графических процессоров и наших новейших услуг машинного обучения, лучшей наблюдаемостью и более интуитивным пользовательским интерфейсом. С сильным акцентом на потребности ИИ, она предоставляет энтузиастам и практикам машинного обучения надежную, функциональную среду для их амбициозных инициатив. Кстати, мы иногда называем ее Newbius, новый Nebius, вы знаете.

Более быстрое хранилище для лучшей производительности
Хранилище имеет решающее значение — особенно для обучения машинному обучению. Для лучшей поддержки рабочих нагрузок ИИ мы внесли технические изменения и низкоуровневые обновления в наше файловое хранилище, увеличив производительность до 100 Гбит/с и 1 млн IOPS для агрегированных операций чтения. Вот что изменилось:

Мы увеличили пропускную способность файловой системы, устранив архитектурные узкие места в ее внутренней структуре.

Наше файловое хранилище теперь имеет более высокую пропускную способность чтения и более низкую задержку благодаря расширению минимального размера фрагмента данных. Эти улучшения сокращают IO на CPU, освобождая вычислительные ресурсы.

Мы переработали способ передачи файлов и их метаданных в хранилище файлов, ускорив его за счет параллельной загрузки.

Оптимизированные настройки теперь позволяют быстрее работать с Pytorch Dataloader.

Эти изменения обеспечивают бесперебойную потоковую передачу данных во время обучения модели и предотвращают сбои при сохранении контрольных точек, загрузке кода модели или совместном использовании весов модели между узлами кластера.

Новые графические процессоры, новые возможности
Новая платформа позволяет получить доступ к графическим процессорам NVIDIA H200 Tensor Core, которые в настоящее время поступают в наши серверные стойки. Оставайтесь с нами, чтобы узнать больше об этих предложениях.


Мы также внедрили несколько сетевых изменений, определяющих, как наше облако взаимодействует с нашими физическими объектами, что открывает путь для плавной интеграции новых центров обработки данных в нашу инфраструктуру.

Более легкий доступ к услугам МО
Недавно мы запустили два новых управляемых сервиса для улучшения операций ML наших клиентов: Managed Spark™ и Managed MLflow. Оба теперь доступны на нашей новой консоли.

Managed Service for Apache Spark — это полностью управляемый движок обработки данных, разработанный для упрощения и ускорения инженерии данных и рабочих нагрузок машинного обучения. Apache Spark славится своей скоростью и простотой использования в обработке больших данных.

Managed Service for MLflow — это полностью управляемый, ведущий в отрасли инструмент для управления жизненным циклом машинного обучения. Он собирает и хранит ключевые метрики и параметры итераций машинного обучения, отслеживает запуски экспериментов и помогает выделить наиболее эффективные модели для дальнейшего развертывания.


Улучшенная наблюдаемость
Мы внесли значительные улучшения в наблюдаемость на новой платформе. Теперь у вас есть доступ в режиме реального времени к ключевым метрикам оборудования на панелях управления сервисами. Нет необходимости подключать внешние инструменты, такие как Grafana — все, что вам нужно, у вас под рукой.


Например, вы можете отслеживать параметры GPU, такие как использование GPU, использование памяти, использование буфера кадров, тактовую частоту SM, тактовую частоту памяти и т. д. Кроме того, мы разработали панель управления для нашего хранилища объектов, отображающую ключевые параметры контейнера, такие как запросы на чтение, запросы на изменение, трафик, количество объектов, пространство по типу объекта и общий размер контейнера.

Более интуитивный пользовательский интерфейс
Наши изменения пользовательского интерфейса отражают фокус на том, что важно. Мы реструктурировали облачные сущности в новой консоли, чтобы сделать общий опыт более плавным и интуитивно понятным, с меньшим количеством отвлекающих факторов и щелчков, необходимых для выполнения задач.

Кроме того, мы добавили быстрый доступ к поддержке и документации, что позволяет нашим пользователям тратить меньше времени на настройку сервиса и устранение неполадок.

Самообслуживаемое облако GPU для энтузиастов ИИ
В Nebius мы создаем облачную платформу будущего для всех. Мы понимаем, насколько раздражающими могут быть списки ожидания и ограниченная доступность GPU — они могут нарушить дорожные карты продукта, производственную динамику и ожидания заинтересованных сторон.

Наша цель — демократизировать доступ к современным графическим процессорам для всех энтузиастов ИИ и МО, независимо от размера компании или отрасли. Благодаря нашей внутренней команде LLM R&D, индивидуальному проектированию оборудования серверов и стоек, глубокому инженерному опыту и прочным партнерским отношениям с поставщиками мы создали уникальный подход к инфраструктуре графических процессоров с самообслуживанием. Теперь вы можете войти в систему и получить более быстрый доступ к графическим процессорам с минимальными обязательствами, сокращая время получения ценности и усиливая конкурентное преимущество ваших усилий в области ИИ.

Nebius утроит мощность ЦОДа в Финляндии



В финском ЦОДе будут развернуты графические процессоры Nvidia H200 Tensor Core, доступ к которым клиенты должны получить с ноября 2024 года. С их запуском Nebius станет одним из первых европейских операторов, представивших решения на базе этой платформы на рынке.

В дата-центре в Мянтсяля используется свободное воздушное охлаждение (free cooling), а также система рекуперации выделяемого тепла для отопления местных домов. В настоящее время она ежегодно рекуперирует около 20 000 МВт∙ч энергии. Предполагается, что расширение дата-центра еще больше повысит эффективность системы.

Расширение финского ЦОДа является частью более широкой программы, в рамках которой компания к середине 2025 года инвестирует свыше $1 млрд в ИИ-инфраструктуру в Европе, включая строительство по ее заказу новых центров обработки данных и использование услуг colocation, а также недавно аносированный запуск кластера GPU в дата-центре Equinix в Париже. Отмечается, что парижский кластер станет первым объектом, который оборудован исключительно серверами, разработанными Nebius, — по заявлению компании, она больше не использует сторонние серверы и стойки. Первые клиентские рабочие нагрузки ЦОД в Париже получит уже в ноябре 2024 года.

Сегодня мы запускаем свой первый продукт: Inference Service



Мы рады представить Nebius AI Studio — нашу новейшую платформу, призванную упростить и ускорить процесс разработки искусственного интеллекта.

Сегодня мы запускаем свой первый продукт: Inference Service. Он предоставляет конечные точки для самых популярных моделей ИИ, закладывая основу для ваших потребностей в разработке ИИ.

Основные преимущества сервиса вывода
Используйте передовые модели с открытым исходным кодом
Получите доступ к тщательно подобранному выбору высокопроизводительных моделей ИИ, таких как Meta Llama-3.1 и Mistral, без необходимости в обширных знаниях MLOps. Независимо от того, создаете ли вы чат-ботов, генераторы контента или инновационные решения на основе ИИ, эти модели обеспечивают прочную основу для воплощения ваших идей в жизнь.

Оптимизируйте производительность и контролируйте затраты
Достигните сверхнизкой задержки с помощью нашего высокооптимизированного конвейера обслуживания, обеспечивающего быстрые ответы по всем направлениям. Наши гибкие варианты ценообразования позволяют вам выбирать между быстрыми и базовыми вкусами, так что вы можете сбалансировать скорость и экономию в зависимости от требований вашего проекта — вы платите только за то, что используете.

Наслаждайтесь удобным и бесперебойным использованием
Начните тестирование, сравнение и развертывание моделей ИИ без усилий с помощью нашей интуитивно понятной игровой площадки — для начала не требуется кодирование. Когда вы будете готовы интегрировать ИИ в свои приложения, наш знакомый API сделает процесс простым, минимизируя время и усилия по разработке.

nebius.ai/studio/inference
studio.nebius.ai/