Рейтинг
0.00

Scaleway Хостинг

9 читателей, 150 топиков

Новые функции и снижение цен на варианты общедоступной полосы пропускания Dedibox



Уважаемый клиент,
Мы рады сообщить, что с 1 июля 2024 года мы снижаем цены на варианты большей общедоступной пропускной способности, доступные на наших серверах CORE-7 и PRO-9.
Это обновление является частью нашего постоянного стремления предоставить вам исключительную ценность и наилучший сервис.
Вот краткий обзор новых цен:



console.online.net/en/order/server

Scaleway и KNE (Hachette Livre Group) объявляют о крупном партнерстве в сфере суверенного облака



Scaleway, ведущий европейский поставщик облачных услуг, объединился с Kiosque Numérique de l'Education (KNE, Hachette Livre ), ведущим французским дистрибьютором цифровых учебников и цифровых образовательных ресурсов, для стратегического партнерства в области управления данными и хостинга.

Благодаря этому сотрудничеству Kiosque Numérique de l'Education (KNE) получит выгоду от защищенной инфраструктуры Scaleway, которая размещает свои данные во Франции, в одном из самых экологически чистых центров обработки данных в Европе. Центр обработки данных DC5, полностью работающий от возобновляемых источников энергии, потребляет на 30–40 % меньше энергии, чем стандартный центр обработки данных, и в два раза эффективнее расходует воду, чем рыночные стандарты.

Scaleway имеет полный контроль над суверенитетом данных. Поскольку центры обработки данных Scaleway расположены в Европе, в основном во Франции, Scaleway полностью соответствует GDPR, а хранимые ею данные не подпадают под действие экстерриториальных законов. Это помогает обеспечить безопасность конфиденциальных данных всех клиентов, в том числе преподавателей и учащихся. Действительно, Scaleway уже сотрудничает с Министерством образования Франции в соответствии со строгими стандартами последнего, в частности, создав облачную инфраструктуру для платформы видеоконференций «Webinaire de l'Etat».

Это соглашение является частью общего обязательства работать вместе для удовлетворения растущих потребностей рынка образования. KNE группы Hachette Livre, ключевой игрок на рынке цифровых образовательных ресурсов на протяжении последних 20 лет, получит выгоду от полностью переработанной платформы, которая должна выйти в сеть во второй половине 2024 года и будет включать в себя новейшие инновации и высокий уровень безопасность и доступность.

Этот альянс со Scaleway демонстрирует нашу приверженность безопасности и надежности наших цифровых услуг для мира образования. Благодаря этому партнерству мы подтверждаем нашу приверженность предоставлению нашим пользователям наилучшего опыта, гарантируя при этом конфиденциальность и целостность их данных. Это сотрудничество знаменует собой важный шаг в нашем постоянном стремлении к инновациям и оптимизации наших услуг для удовлетворения растущих потребностей образовательного сектора с точки зрения цифровых предложений и в соответствии с нашим подходом КСО
Иван Островиц, директор по электронному образованию в Hachette Livre

Благодаря этому партнерству Scaleway укрепляет свои позиции надежного поставщика цифровых инфраструктур, поддерживая крупного игрока в области цифровых образовательных ресурсов в его стремлении к инновациям и безопасности данных.

Мы очень гордимся тем, что приветствуем Kiosque Numérique de l'Education в нашем облаке и считаем Hachette Livre одним из наших клиентов. Сотрудничая с таким крупным игроком, как Hachette Livre, для их KNE, мы поддерживаем их образовательную миссию с помощью наших передовых облачных решений; решений, которые обеспечивают полный суверенитет данных с минимальным воздействием на окружающую среду
добавил генеральный директор Scaleway Дэмиен Лукас

О цифровом киоске образования (KNE) компании Hachette Livre
Kiosque Numérique de l'Education — поставщик цифровых образовательных ресурсов Hachette Livre, включающий более 20 издателей и почти 2000 ссылок. Это решение, созданное подразделением электронного образования Hachette Livre, признано за свою легитимность и надежность и постоянно развивается в соответствии с потребностями рынка.
Для получения дополнительной информации о Kiosque Numérique de l'Education: www.kiosque-edu.com

О Скалевее
Компания Scaleway, основанная в 1999 году, является поставщиком облачных услуг, который поддерживает разработку, обучение, развертывание и масштабирование инфраструктуры в рамках полноценной облачной экосистемы. Scaleway позволяет европейским организациям обучать, тестировать, разрабатывать и размещать их в устойчивой среде с доступом к более чем 50 облачным сервисам. Облачное портфолио Scaleway с офисами в Париже, Амстердаме и Варшаве используется более чем 25 000 компаний, которые выбирают Scaleway из-за многозонного резервирования и интегрированных безопасных услуг управления пользователями. Благодаря полностью управляемым сервисам, таким как выделенные серверы, «голое железо», вычисления, контейнеры и бессерверные решения, Scaleway обеспечивает гибкость в облачных инфраструктурах. Клиенты могут свободно выбирать расположение своих данных, лучшую архитектуру для своего бизнеса и более ответственный способ масштабирования. Scaleway — поставщик облачных услуг, продвигающий инновации в области искусственного интеллекта в Европе.
Чтобы узнать больше о Scaleway: www.scaleway.com

Meta, Hugging Face и Scaleway объявляют о новой программе ускорения искусственного интеллекта для европейских стартапов



  • Meta, Hugging Face и Scaleway объявляют о новой программе ускорения искусственного интеллекта для европейских стартапов, желающих интегрировать модели открытого фонда в свои продукты.
  • Избранное количество европейских стартапов получат доступ к передовым открытым моделям и ресурсам в области ИИ, ускоряя развитие экосистемы ИИ в ЕС и формируя следующую волну инноваций.
  • Стартапы могут подать заявку до 16 августа 2024 года здесь.

Meta сотрудничает с Hugging Face, платформой с открытым исходным кодом, управляемой сообществом, на которой размещены модели и инструменты машинного обучения, и Scaleway, европейским лидером в области облачных технологий в области инфраструктуры искусственного интеллекта, над «Программой запуска искусственного интеллекта», чтобы ускорить внедрение искусственного интеллекта с открытым исходным кодом. решения в Европе. Заявки на участие в программе теперь открыты для стартапов из всех стран-членов ЕС с целью привнести экономические и технологические преимущества открытых моделей в более широкую экосистему.

Программа AI Startup Program базируется в STATION F в Париже, что позволяет европейским стартапам воспользоваться ресурсами, доступными в крупнейшем в мире стартап-кампусе. При поддержке инкубатора HEC программа ускорит пять стартапов на стадии MVP или продукта с сентября 2024 года по февраль 2025 года. Стартапы со всего Европейского Союза приглашаются подавать заявки, а группа экспертов из Meta, Hugging Face и Scaleway выбирает проекты, основанные на моделях открытого фонда и/или демонстрирует свои планы по интеграции этих моделей в свои продукты и услуги.

Отобранные стартапы получат выгоду от технического наставничества со стороны исследовательских групп в Meta Fundamental Artificial Intelligence Research (FAIR), исследовательской лаборатории искусственного интеллекта компании, доступа к платформе и инструментам Hugging Face, а также вычислительных мощностей Scaleway для разработки своих услуг на основе открытого исходного кода. Технологические кирпичи искусственного интеллекта. Эта программа следует за первой редакцией акселератора, анонсированной в ноябре 2023 года, которая поддерживала компанию Pollen Robotics, которая использует модели Meta Llama и Segment Anything для разработки робототехнической платформы с открытым исходным кодом Fringuant, которая разрабатывает технологию сканирования тела для модных ритейлеров. и Qevlar AI сосредоточились на укреплении кибербезопасности.

Более десяти лет Meta является пионером в области открытых инноваций в области ИИ, и благодаря нашим общедоступным, современным моделям ИИ мы своими глазами увидели, какое влияние они могут оказать на более широкое сообщество. Наши модели Llama были загружены миллионы раз, а десятки тысяч новых версий доступны в репозиториях, таких как Hugging Face. Благодаря этой программе мы можем помочь европейским разработчикам быстрее внедрять инновации, обеспечивая рост на своих рынках и продвигая вперед европейскую экосистему
Марко Панчини, руководитель отдела по делам ЕС, Meta

Успех первой программы стартапа Meta в области искусственного интеллекта является свидетельством невероятного таланта Европы в области искусственного интеллекта и их энтузиазма в отношении инноваций, движимых открытыми и совместными усилиями. Hugging Face с радостью поддерживает вторую когорту программы через открытый исходный код!
Клеман Деланг, генеральный директор и соучредитель Hugging Face

Как ведущий поставщик вычислительной мощности ИИ в Европейском облаке, мы рады снова объединить усилия с Meta и Hugging Face для этого нового выпуска нашей общей программы стартапов ИИ. Кластер Scaleway из нескольких тысяч графических процессоров NVIDIA H100 является крупнейшим в Европе, что означает, что стартапы могут достичь новых уровней инноваций без каких-либо данных, покидающих континент. В сочетании с мощью моделей с открытым исходным кодом, таких как Llama, и уникальным охватом Hugging Face, мы гордимся тем, что можем дать поддержку следующему поколению европейских стартапов ИИ
Дэмиен Лукас, генеральный директор Scaleway

При всей нынешней динамике и энтузиазме в области искусственного интеллекта программа Меты на СТАНЦИИ F быстро стала одной из самых востребованных программ в кампусе. Мы очень рады услышать, что Meta – вместе со своими партнерами Hugging Face и Scaleway – планируют вывести программу на европейский уровень, чтобы работать с некоторыми из ведущих новаторов в области искусственного интеллекта в регионе
Роксана Варза, директор станции F.

Прием заявок открыт до 16 августа 2024 года, а стартапы могут подать заявку europeanaistartupprogram.splashthat.com/

Представляем Dedibox VPS: ваш путь к глобальному расширению



Мы рады объявить о запуске нашей новой услуги Dedibox VPS (виртуальный частный сервер). Это новое предложение призвано предоставить вам простой и экономичный способ создать точку присутствия или расширить свою инфраструктуру на международном уровне, имея более 60 офисов по всему миру.

Dedibox VPS подходит для различных вариантов использования, включая хостинг веб-сайтов, веб-приложений, небольших баз данных, сред разработки и многого другого. Это идеальное решение для компаний, стремящихся выйти на новые рынки или просто ищущих надежное и доступное хостинговое решение.

Ключевые преимущества:
  • Присутствие по всему миру: Dedibox VPS, охватывающий более 60 локаций по всему миру, предлагает беспрецедентную гибкость, позволяя вам развертывать виртуальную инфраструктуру везде, где проживает ваша аудитория.
  • Мгновенная производительность. Ускорьте свои проекты с помощью широкого выбора моделей с потрясающей производительностью и надежностью, которые можно развернуть за несколько минут. Мы предлагаем 2 диапазона и 12 конфигураций, которые идеально соответствуют вашим потребностям, все с пропускной способностью до 1 Гбит/с.
  • Экономическая эффективность: начиная всего с 4,99 евро в месяц, Dedibox VPS обеспечивает первоклассную производительность без больших затрат. Мы предлагаем доступную ежемесячную оплату без скрытых комиссий.

Диапазоны Dedibox VPS:
  • Dedibox VPS START: от 4,99 евро в месяц со стандартными процессорами, твердотельными накопителями SATA и доступностью в более чем 60 местах.
  • Dedibox VPS PRO: от 7,99 евро в месяц с процессорами премиум-класса, твердотельным накопителем NVMe и доступностью более чем в 20 местах.
Для получения более подробных технических характеристик и часто задаваемых вопросов посетите наш веб-сайт.
www.scaleway.com/en/dedibox-vps/

Мы рады представить вам эту новую услугу и стремимся помочь вам развивать свой бизнес по всему миру. Если у вас есть какие-либо вопросы или вам нужна дополнительная помощь, пожалуйста, не стесняйтесь обращаться к нам.
С наилучшими пожеланиями, Команда Дедибокса

Маршрутизируемые IP-адреса появятся во всех продуктах Scaleway



Scaleway меняет поведение общедоступного IP-адреса с NAT-IP на маршрутизируемый IP-адрес.

Для обеспечения роста компания Scaleway решила внедрить высокодоступный NAT (преобразование сетевых адресов), чтобы обеспечить перемещение IP-адресов между физические машины с экземплярами, которым они были назначены.

Мы удалим NAT, чтобы упростить управление сетью. Запланированные изменения принесут нашим пользователям ряд улучшений, включая поддержку IPv6 и повышенную безопасность.

Маршрутизируемые IP-адреса и IP-адреса NAT
Раньше при каждом развертывании экземпляра Scaleway ему назначался внутренний частный IP-адрес, а также общедоступный IP-адрес, который направлялся к нему через решение NAT (преобразование сетевых адресов) операторского уровня. Однако эта установка создала некоторые проблемы. Например, если гипервизор, на котором размещен экземпляр, был изменен, скажем, после процедуры остановки/запуска, частный IP-адрес также изменится, что может нарушить внутреннюю связь.

Благодаря функции «маршрутизируемого IP» мы можем направлять общедоступные IP-адреса непосредственно в экземпляр без необходимости проходить через шлюз NAT для преобразования общедоступного IP-адреса в частный IP-адрес. Таким образом, к вашему экземпляру можно получить доступ непосредственно из Интернета через его маршрутизируемый гибкий IP-адрес, обеспечивая согласованность IP-адресов даже в случае перезапуска экземпляра или изменения гипервизора.

Этот сетевой метод, который поддерживает как IPv4, так и IPv6, позволяет назначать несколько гибких IP-адресов одному экземпляру. Это предпочтительный режим конфигурации сети для всех совместимых типов экземпляров, однако имейте в виду, что, поскольку IP-адреса теперь монтируются внутри экземпляров, всякий раз, когда вы хотите изменить IP-адрес на работающем экземпляре, вам придется выполнять ручные операции для обновления сети. конфигурация.

План миграции
Все продукты Scaleway перейдут с IP-адреса NAT на маршрутизируемый IP-адрес. Этот процесс миграции предполагает два сценария:

Ручная миграция
Некоторые продукты будут предлагать пользователям возможность миграции вручную. Цель состоит в том, чтобы дать пользователям возможность проверить потенциальное влияние изменения стека IP на их текущие операции и определить оптимальное время для выполнения миграции. Следующие продукты будут поддерживать миграцию вручную:
  • Kapsule и Kosmos: клиенты смогут выполнить миграцию вручную во втором/третьем квартале 2024 года.
  • Публичный шлюз: клиенты могут выполнить миграцию вручную с апреля по май 2024 года.
  • Примеры: клиенты могут выполнить миграцию вручную до второго квартала 2024 года (руководство).

Примечание 1. Мы настоятельно рекомендуем вам перенести свои экземпляры самостоятельно, чтобы избежать проблем, которые могут возникнуть во время автоматической миграции (следующий раздел).

Примечание 2: убедитесь, что DHCP-клиент правильно настроен на вашем общедоступном сетевом интерфейсе (в большинстве случаев ens2 или eth0). Если во время миграции используются статические конфигурации сети, существует риск потери подключения к Интернету, поэтому вместо этого рекомендуется использовать DHCP. Прежде чем начать миграцию, необходимо обновить пакеты «scaleway-ecosystem» и «cloud-init» до последних версий. Пожалуйста, ознакомьтесь с разделом «Как безопасно перейти на IP Mobility» в документации к вашему продукту.

Автоматическая миграция
Scaleway выполнит миграцию управляемых продуктов на новый стек маршрутизируемых IP-адресов для всех существующих клиентов. График миграции будет сообщен как обычное плановое обслуживание в 2024 году. Автоматическая миграция будет полезна для следующих продуктов:
  • Управляемые базы данных (RDB и Redis)
  • Балансировщик нагрузки
  • Публичный шлюз
  • Веб хостинг
  • Капсула и Космос
  • Экземпляры

Scaleway запускает свои серверы RISC-V в облаке, впервые в мире и твёрдо придерживаясь технологической независимости



Париж, Франция – четверг, 29 февраля 2024 г. – Scaleway, европейский поставщик облачных услуг, с гордостью представляет линейку серверов RISC-V, еще раз подчеркивая свою приверженность инновациям и приверженность развитию технологий завтрашнего дня.

RISC-V, архитектура с открытым набором команд для процессоров, станет доминирующей архитектурой в мире, где все больше и больше стран стремятся восстановить суверенитет над производством полупроводников. Революция в области микропроцессоров не за горами, основанная на принятии универсального языка, свободного от коммерческих лицензий и геополитических ограничений.

Запуск серверов RISC-V — это конкретное и прямое заявление Scaleway о стимулировании экосистемы, в которой технологический суверенитет открыт для всех, от самого низкого уровня и выше. Эта смелая, дальновидная инициатива на развивающемся рынке открывает новые перспективы для всех игроков
сказал Себастьен Люттренжер, директор по исследованиям и разработкам Scaleway.

Scaleway теперь активно предлагает своим клиентам ряд серверов RISC-V. Эта инициатива призвана способствовать разработке приложений и способствовать появлению европейских лидеров в производстве микропроцессоров. Переход на RISC-V, более энергоэффективную технологию, чем существующие стандарты, также открывает двери для более устойчивых решений для центров обработки данных, тем самым укрепляя приверженность Scaleway к устойчивому развитию.

Elastic Metal RV1 доступен для любого бюджета и оснащен процессором T-HEAD TH1520 SoC, 16 ГБ ОЗУ и 128 ГБ встроенной памяти по цене 15,99 евро в месяц. Архитектура RISC-V, хотя и новая и все еще оптимизируется, уже обеспечивает удивительно высокий уровень производительности благодаря своему современному и открытому дизайну. Таким образом, он уже представляет собой надежную альтернативу устоявшимся архитектурам, таким как x86 и ARM.

Мы рады быть первыми, кто предлагает серверы RISC-V в облаке, открывая новые возможности для наших клиентов для удовлетворения растущих требований к суверенитету, эффективности и устойчивости. Это нововведение является дальнейшим шагом на пути к нашему видению независимой и конкурентоспособное европейское облако
добавил Дэмиен Лукас, генеральный директор Scaleway.

Серверы EM-RV1 являются результатом многомесячных исследований и разработок в парижских лабораториях Scaleway. Каждый аспект их конструкции, от первых прототипов до корпуса, напечатанного на 3D-принтере, свидетельствует об итеративном, кустарном подходе к предоставлению вам ряда надежных серверов RISC-V, доступных в облаке, в кратчайшие сроки.

Чтобы получить дополнительную информацию о серверах Scaleway RISC-V и опробовать их прямо сейчас, посетите labs.scaleway.com/en/em-rv1/

Инфраструктуры для LLM в облаке

Открытый исходный код делает LLM (большие языковые модели) доступными каждому. Доступно множество вариантов, особенно для вывода. Вы, наверное, слышали о библиотеке вывода Hugging Face, но есть еще OpenLLM, vLLM и многие другие.

Основная проблема, особенно если вы такая компания, как Mistral AI, создающая новые LLM, заключается в том, что архитектура вашего LLM должна поддерживаться всеми этими решениями. Им нужна возможность общаться с Hugging Face, NVIDIA, OpenLLM и так далее.

Вторая проблема — это стоимость, особенно стоимости инфраструктуры, которая вам понадобится для масштабирования развертывания LLM. Для этого у вас есть разные решения:

Выбор подходящих графических процессоров (ваш LLM должен им соответствовать)
Выбор подходящей техники:
  • Квантование, которое предполагает уменьшение количества байтов, используемых переменными, поэтому вы можете разместить более крупные модели в меньших ограничениях памяти. Это компромисс между ними, поскольку это может повлиять на точность вашей модели и результаты ее производительности.
  • Методы точной настройки, такие как точная настройка с эффективным использованием параметров ( PEFT ). С помощью методов PEFT вы можете значительно снизить затраты на вычисления и память, настроив лишь небольшое количество (дополнительных) параметров модели вместо всех параметров модели. Вы также можете комбинировать методы PEFT с квантованием.
  • Затем вам нужно решить, будете ли вы размещать его самостоятельно; вы используете решение PaaS; или готовые к использованию конечные точки API, как это делает OpenAI.

Выбор правильного графического процессора


Вышеуказанное является предложением Scaleway, но аналогичные предложения в настоящее время устанавливаются у большинства крупных облачных провайдеров.
  • H100 PCIe 5 — флагманский и самый мощный графический процессор NVIDIA. Он имеет интересные функции, такие как Transformer Engine, библиотека для ускорения моделей Transformer на графических процессорах NVIDIA, включая использование 8-битной точности с плавающей запятой (FP8) на графических процессорах Hopper и Ada Lovelace, чтобы обеспечить лучшую производительность при меньшем использовании памяти как при обучении, так и при выводе.. Это ускоряет обучение моделей Transformer, а это означает, что вы можете поместить в память вдвое больше переменных, в 8 бит вместо 16. Кроме того, библиотека NVIDIA помогает упростить эти изменения; плюс большой объем памяти и пропускная способность памяти являются ключевыми моментами, поскольку чем быстрее вы сможете загрузить свою память, тем быстрее будет работать ваш графический процессор.
  • L4 PCIe 4 можно рассматривать как современного преемника NVIDIA T4, предназначенного для вывода, но прекрасно способного обучать меньшие модели LLM. Как и H100, он может работать с новыми форматами данных, такими как FP8. У него меньшая пропускная способность памяти, чем у H100, но это может создать некоторые узкие места в определенных случаях использования, например, при обработке больших пакетов изображений для обучения моделей компьютерного зрения. В этих случаях вы можете не увидеть значительного прироста производительности по сравнению, например, с предыдущей архитектурой Ampere. И в отличие от H100, у него есть возможности рендеринга видео и 3D, поэтому, если вы хотите создать синтетический набор данных для компьютерного зрения с помощью Blender, вы можете использовать этот графический процессор.
  • L40S PCIe 4 — это то, что NVIDIA считает новым A100. Он имеет в два раза больше памяти, чем L4, но с большей пропускной способностью памяти и более высокой вычислительной производительностью. По словам NVIDIA, для генеративного ИИ, когда вы оптимизируете свой код с помощью FP8 и так далее, DGX с 8x A100 с 40 Гбит NVlink может работать так же хорошо, как 8 L40S PCIe 4 без NVLink, так что это мощный и интересный графический процессор.

Совет по использованию экземпляров графического процессора 1: образы Docker


При использовании графических процессоров используйте образы Docker и начните с бесплатных изображений NVIDIA. Таким образом, код становится переносимым, поэтому его можно запускать на вашем ноутбуке, на рабочей станции, на экземпляре графического процессора (независимо от облачного провайдера, поэтому без привязки) или на мощном кластере (либо с SLURM в качестве оркестратора, если вы находитесь в мире HPC/AI или Kubernetes, если вы больше в мире AI/MLOps).

NVIDIA регулярно обновляет эти образы, поэтому вы можете воспользоваться улучшениями производительности и исправлениями ошибок/безопасности. Производительность A100 сейчас значительно лучше, чем при запуске, и то же самое будет относиться к H100, L4 и так далее. Кроме того, существует множество функций, позволяющих экономить время, которые позволят вам быстрее создавать POC, например, фреймворк и такие инструменты, как NeMo, Riva и т. д., которые доступны через каталог NGC (выше).

Это также открывает возможность использовать лицензию AI Enterprise для поддерживаемых конфигураций оборудования (что обычно можно увидеть только в предложениях облачных провайдеров), что обеспечит вам поддержку в случае возникновения ошибок или проблем с производительностью и даже предложит помощь на основе данных NVIDIA. ученых, чтобы помочь вам отладить ваш код и получить максимальную производительность от всех этих программ. И, конечно же, вы можете выбрать свою любимую платформу: PyTorch, TensorFlow, Jupyter Lab и так далее.

Использование экземпляров Scaleway GPU
В ОС Scaleway GPU OS 12 мы уже предустановили Docker, поэтому вы можете использовать его прямо из коробки. Меня часто спрашивают, почему не предустановлены CUDA или Anaconda. Причина в том, что эти программы должны выполняться внутри контейнеров, поскольку не у всех пользователей одинаковые требования. Например, они могут использовать разные версии CUDA, cuDNN или Pytorch, поэтому это действительно зависит от требований пользователя. И использовать контейнер, созданный NVIDIA, проще, чем устанавливать и поддерживать среду искусственного интеллекта Python. Кроме того, это упрощает воспроизведение результатов в рамках ваших тренировок или экспериментов.

Итак, в основном вы делаете это:
## Connect to a GPU instance like H100-1-80G {connect-to-a-gpu-instance-like-h100-1-80g}

ssh root@<replace_with_instance_public_ip>

## Pull the Nvidia Pytorch docker image (or other image, with the software versions you need)

docker pull nvcr.io/nvidia/pytorch:24.01-py3
[...]

## Launch the Pytorch container {launch-the-pytorch-container}

docker run --rm -it --runtime=nvidia \
-p 8888:8888 \
-p 6006:6006 \
-v /root/my-data/:/workspace \
-v /scratch/:/workspace/scratch \
nvcr.io/nvidia/pytorch:24.01-py3

## You can work with Jupyter Lab, Pytorch etc… {you-can-work-with-jupyter-lab-pytorch-etc}


Совет по использованию экземпляров графического процессора 2: MIG


Одной из уникальных особенностей H100 является MIG, или многоэкземплярный графический процессор, который позволяет разделить графический процессор на семь частей. Это действительно полезно, если вы хотите оптимизировать свою рабочую нагрузку. Если у вас есть рабочие нагрузки, которые не полностью нагружают графические процессоры, это хороший способ иметь несколько рабочих нагрузок и максимизировать использование графического процессора. Он работает с автономными виртуальными машинами и очень легко работает в Kubernetes. Вы запрашиваете одну ссылку на графический процессор, соответствующую разделению, которое вы хотите использовать для одного ресурса графического процессора.

В Kubernetes это так же просто, как заменить в файле развертывания классические ограничения ресурсов
nvidia.com/gpu: '1' . по желаемому имени раздела MIG, например, nvidia.com/mig-3g.40gb: 1

docs.nvidia.com/datacenter/tesla/mig-user-guide/index.html

Совет по использованию экземпляров графического процессора 3: NVIDIA Transformer Engine и FP8


Все графические процессоры последнего поколения (доступные в новейшей архитектуре графических процессоров Nvidia, а именно Hopper и Ada Lovelace) используют NVIDIA Transformer Engine, библиотеку для ускорения моделей Transformer на графических процессорах NVIDIA, включая использование 8-битной точности с плавающей запятой (FP8) в Hopper. и графические процессоры Ada, чтобы обеспечить более высокую производительность при меньшем использовании памяти как при обучении, так и при выводе.

Что касается использования формата данных FP8, то на самом деле существует два типа FP8, которые предлагают компромисс между точностью и динамическим диапазоном чисел, которыми вы можете манипулировать (см. диаграмму). При обучении нейронных сетей можно использовать оба этих типа. Обычно активация и вес вперед требуют большей точности, поэтому тип данных E4M3 лучше всего использовать во время прямого прохода. Однако при обратном проходе градиенты, проходящие через сеть, обычно менее подвержены потере точности, но требуют более высокого динамического диапазона. Поэтому их лучше всего хранить в формате данных E5M2. Этим можно даже управлять автоматически с помощью формата «ГИБРИД» (подробнее здесь).

Transformer Engine предназначен не только для трансформеров. Поскольку он также может оптимизировать линейные операции, он может принести пользу другим архитектурам моделей, таким как компьютерное зрение (см. пример MNIST). Итак, по сути, вы устанавливаете пакет движка Transformer с помощью «pip», загружаете пакет и просто тестируете или заменяете определенный оперант. модули (из ваших любимых сред глубокого обучения) с помощью модуля, входящего в состав пакета Transformer engine (см. пример MNIST выше). Если вы хотите потратить немного времени на оптимизацию своего кода, используя Transformer Engine и формат FP8, вы можете это сделать. Здесь полезно оптимизировать, потому что вы будете использовать меньше памяти, использовать больше переменных и ускорять вывод и обучение. Поэтому обязательно оптимизируйте свой код!

Использование LLM в производстве: создание чат-бота с искусственным интеллектом с помощью RAG


Если вы хотите использовать LLM в производстве, возможно, вам захочется создать чат-бота, и для этого вам, вероятно, понадобится точно настроить модель ваших данных для вашего конкретного случая использования. С библиотекой Transformers Hugging Face это легко с точки зрения кода; но улучшить результаты может быть сложно, поскольку это требует множества проб и ошибок.

Другой метод — взглянуть на RAG, или Retrival Augmented Generation, который можно выполнить перед тонкой настройкой или вместо нее. Таким образом, риск поломки модели снижается, как и риск тонкой настройки. Кроме того, при использовании RAG не требуется затрат на тонкую настройку, поскольку вы не платите за использование графического процессора при нескольких попытках, необходимых для точной настройки; и вы можете сохранить конфиденциальность своих данных, разместив их локально. Кроме того, вы снижаете риск возникновения галлюцинаций, что всегда плохо, когда вы пытаетесь создать чат-бота с искусственным интеллектом для своего бизнеса. Поэтому я включил документацию, объясняющую эту систему. У NVIDIA даже есть проект на GitHub, который позволит вам создать своего первого чат-бота с искусственным интеллектом с помощью RAG всего за пять минут.

Что вам нужно для обучения основам LLM
Во-первых, много денег! В официальном документе LLaMA говорится, что обучение LLaMa с использованием 2048 графических процессоров A100 емкостью 80 ГБ заняло 21 день. Мы не можем предполагать, сколько это стоит, но кто-то другой написал здесь (подсказка: это очень много!)
Вам также понадобится команда экспертов… но не обязательно сотни! Mixture от Mistral AI превзошел GPT3.5 (согласно тесту Mistral AI) при команде численностью менее 20 человек.
Также потребуется много данных: для этого вам, возможно, придется порыться в Интернете или обратиться за помощью к партнерству. Затем данные необходимо будет подготовить, т.е. очистить и дедуплицировать.
Наконец, вам понадобится много вычислительной мощности! Если мы посмотрим на этот график NVIDIA:

… мы видим большой скачок между A100 и H100 (время обучения от одного месяца до одной недели для самых больших моделей).

Как работать с большим количеством данных
Наши клиенты Superpod используют Spark для подготовки данных, который использует ЦП (около 10 000 виртуальных ЦП) и около 100 ТБ блочного хранилища, прежде чем набор данных будет сохранен в объектном хранилище. Кстати, Scaleway в настоящее время работает над предложением управляемого кластера Spark: следите за этим!

NVIDIA также предоставляет такие инструменты, как NeMo data Curator (через NGC/Nvidia AI Enterprise, поэтому мы говорим о контейнерах), который имеет такие функции, как загрузка данных и извлечение текста, переформатирование и очистка текста, фильтрация качества, дедупликация на уровне документа и т.д. многоязычная дезактивация последующих задач и многое другое.

Даже с использованием этих инструментов подготовка данных может занять много времени, но ее необходимо сделать до начала обучения.

Как начать обучение
Чтобы начать обучение, вам понадобится более одного графического процессора, поэтому строительными блоками будут NVIDIA DGX H100 — готовые к использованию компьютеры с установленной максимальной конфигурацией сервера, так что вы получите лучшее из лучшего:
  • 8 графических процессоров NVIDIA H100 емкостью 80 ГБ и 640 ГБ общей памяти графического процессора
  • 18 подключений NVIDIA NVLink на каждый графический процессор
  • 900 гигабайт в секунду двунаправленной пропускной способности между графическими процессорами благодаря NVLink
  • 4x NVIDIA NVSwitch™
  • 7,2 терабайта в секунду двунаправленной пропускной способности между графическими процессорами
  • В 1,5 раза больше, чем предыдущее поколение
  • 10 сетевых интерфейсов NVIDIA ConnectX-7, 400 гигабит в секунду
  • 1 терабайт в секунду пиковой пропускной способности двунаправленной сети
  • Два процессора Intel Xeon Platinum 8480C, всего 112 ядер и системная память объемом 2 ТБ.
  • SSD-накопитель NVMe емкостью 30 терабайт — высокоскоростное хранилище для максимальной производительности.

Чтобы построить Superpod, вы берете этот сервер, а затем объединяете 32 из них, ни больше, ни меньше. Это то, что NVIDIA называет масштабируемой единицей. Если вы увеличите четыре масштабируемых устройства, у вас будет 128 узлов, и это будет система SuperPOD H100. Каждый из четырех блоков имеет производительность 1 экзафлопс в формате FP8, что в общей сложности составляет до 4 эксафлопс в формате FP8, а кластер управляется NVIDIA Base Command Manager, поэтому программное обеспечение NVIDIA с оркестратором SLURM позволяет запускать задания на нескольких компьютерах для провести обучение.

Итак, в Scaleway у нас есть два суперкомпьютера:
Jeroboam, уменьшенная версия кластера, предназначенная для обучения написанию кода с несколькими графическими процессорами и несколькими узлами:
  • 2 узла NVIDIA DGX H100 (16 графических процессоров Nvidia H100)
  • До 63,2 PFLOPS (тензорное ядро ​​FP8)
  • 8 графических процессоров Nvidia H100 80 ГБ SXM с NVlink до 900 ГБ/с на узел
  • Двойной процессор Intel Xeon Platinum 8480C (всего 112 ядер с частотой 2 ГГц)
  • 2 ТБ оперативной памяти
  • 2x NVMe по 1,92 ТБ для ОС
  • NVMe емкостью 30,72 ТБ для временного хранилища
  • Пропускная способность (для 2 DGX): до 40 ГБ/с при чтении и 30 ГБ/с при записи.
  • Сеть межсоединений графических процессоров Nvidia Infiniband со скоростью до 400 Гбит/с (на уровне кластера)
  • Высокопроизводительное хранилище DDN емкостью 60 ТБ с низкой задержкой.

Nabuchodonosor, «настоящая вещь» для обучения, которая также создана для людей, которые хотят обучать LLM с помощью видео, а не только текста, благодаря большому объему высокопроизводительного хранилища…
  • 127 узлов NVIDIA DGX H100 (1016 графических процессоров Nvidia H100)
  • До 4 EFLOPS (тензорное ядро ​​FP8)
  • 8 графических процессоров Nvidia H100 80 ГБ SXM с NVlink до 900 ГБ/с на узел
  • Двойной процессор Intel Xeon Platinum 8480C (всего 112 ядер с частотой 2 ГГц)
  • 2 ТБ оперативной памяти
  • 2x NVMe по 1,92 ТБ для ОС
  • NVMe емкостью 30,72 ТБ для временного хранилища
  • Сеть межсоединений графических процессоров Nvidia Infiniband со скоростью до 400 Гбит/с (на уровне кластера)
  • 1,8 ПБ высокопроизводительного хранилища DDN с низкой задержкой
  • Пропускная способность (для 127 DGX): до 2,7 ТБ/с при чтении и 1,95 ТБ/с при записи.

Обучение LLM


Проблема обучения LLM Nabuchodonosor заключается в том, что это пользовательский опыт HPC, что означает работу SLURM, а не Kubernetes. Однако это по-прежнему контейнеры, которые вы создаете поверх образов контейнеров NVIDIA NGC (Pytorch, Tensorflow, Jax…). Вот почему, когда вы пишете свой код с этими изображениями NGC, даже с одним небольшим графическим процессором, ваш код сможет легче масштабироваться. Одна из лучших практик — если у вас, скажем, 100 узлов, не запускайте задания на всех из них. Сохраните несколько запасных на случай, если один или два графических процессора выйдут из строя (такое случается!) Таким образом, если у вас возникнут какие-либо проблемы, вы сможете перезапустить свою работу, заменив неисправные узлы.

Вам нужно будет писать свой код особым образом, чтобы максимизировать производительность за счет использования параллелизма данных и параллелизма моделей (одновременные вычисления на нескольких графических процессорах); для этого вы можете использовать такие ресурсы, как Deepspeed.

Еще есть комплексная платформа Nvidia NeMo, которая также поможет вам создавать, настраивать и развертывать генеративные модели искусственного интеллекта.


Суперкомпьютеры Scaleway были построены всего за три-семь месяцев, поэтому обеспечить своевременную доставку всех компонентов и их правильное подключение с помощью более чем 5000 кабелей было непростой логистической задачей!

Обеспечение электропитанием также является довольно сложной задачей: энергопотребление системы Nabuchodonosor Superpod составляет 1,2 МВт, а это означает, что мы можем разместить только два блока DGX в каждой стойке, так что это не очень эффективное использование площади центра обработки данных. Еще есть стоимость электроэнергии, которая, например, во Франции в пять раз выше, чем в США. Но поскольку углеродоемкость французской электроэнергии очень низкая, она генерирует примерно в семь раз меньше выбросов, чем, например, в Германии. Более того, поскольку все машины искусственного интеллекта Scaleway размещены в DC5, который не имеет кондиционера и, следовательно, потребляет на 30–40% меньше энергии, чем стандартные центры обработки данных, мы можем сказать, что это одна из самых устойчивых установок искусственного интеллекта в мире. Подробнее об искусственном интеллекте и устойчивом развитии здесь.

Что дальше?


В этом году Scaleway выпустит суперчипNVIDIA GH200 Grace Hopper, который сочетает в себе процессоры Grace ARM и графические процессоры Hopper в одном устройстве, которые связаны со скоростью 900 ГБ/с. Вы можете соединить 256 таких устройств вместе, что намного больше, чем вы можете подключить в конфигурации DGX, описанной выше (8 графических процессоров, подключенных со скоростью 900 ГБ/с с помощью NVlink в одном серверном узле DGX H100). А если вам нужно больше, вы даже можете подключить несколько ячеек 256 GH200 через Infiniband со скоростью 400 Гбит/с. Так что это действительно для случаев использования, где память является узким местом, поэтому это действительно для HPC и для вывода LLM. Когда они все собраны вместе, это похоже на гигантский графический процессор, предназначенный для самых требовательных случаев использования, например, в здравоохранении и науках о жизни.

Прекращение поддержки общедоступных кластеров Kapsule



18 марта 2024 г. обслуживание общедоступного сетевого интерфейса для рабочих узлов Kapsule будет прекращено.

Усиление безопасности повсюду было и всегда будет нашим главным приоритетом, и именно поэтому кластеры Kapsule не могут иметь только публичные IP-адреса. Это здорово, часто очень удобно, и мы оставим общедоступные IP-адреса по умолчанию. Но лучший путь вперед — использовать бесплатные частные сети Scaleway для защиты вашей инфраструктуры. Они позволяют всем вашим облачным ресурсам — узлам, базам данных, «голому железу» — взаимодействовать в изолированной и безопасной сети без использования общедоступного Интернета.

Вот почему мы ввели новое значение по умолчанию — «контролируемую изоляцию», при котором узлы имеют как общедоступные, так и частные IP-адреса.

Срок удаления
  • По состоянию на 18 октября 2023 г. общедоступные кластеры устарели ( журнал изменений ). К новым кластерам Kapsule должна быть подключена (бесплатная) частная сеть.
  • 4 декабря 2023 г. мы покажем уведомление об устаревании во всех кластерах без частных конечных точек и предупреждения о необходимости миграции.
  • 18 марта 2024 г. обслуживание устаревшей общедоступной сети будет прекращено ( уведомление ).
  • В период с 18 марта 2024 г. по 26 апреля 2024 г. кластеры Kapsule, по-прежнему имеющие общедоступные конечные точки, будут автоматически перенесены Scaleway в частные сети.

Миграции будут происходить регион за регионом в следующем порядке:
  • PL-WAW: 18 марта 2024 г. – 22 марта 2024 г.
  • NL-AMS: 1 апреля 2024 г. – 5 апреля 2024 г.
  • FR-PAR: 15 апреля 2024 г. – 26 апреля 2024 г.

Как узнать, использует ли мой кластер только общедоступные сети?
До мая 2023 года и до того, как VPC стал общедоступным в Scaleway, режим сети по умолчанию был полностью общедоступным.
Если вы создали кластер Kapsule до этого времени, весьма вероятно, что ваш кластер не был настроен с подключенной частной сетью.
Однако, если вы не уверены, использует ли ваш кластер эту функцию, вы можете проверить несколько мест:
  • В списке кластеров Kubernetes найдите столбец «Сеть»; появится предупреждение (!) «Паблик»
  • Для любого кластера, который еще предстоит перенести, в верхней части обзора будет отображаться постоянный желтый предупреждающий баннер.

Что я получу от этого?
Перейдя на частную сеть в начале 2024 года, вы защитите свою инфраструктуру от будущего.
  • Более безопасный Kubernetes: частные сети позволяют вашим облачным ресурсам взаимодействовать в изолированной и безопасной сети без использования общедоступного Интернета.
  • Более устойчивый кластер: частные сети позволяют настраивать кластеры из нескольких зон доступности.
  • Сверхгибкие возможности изоляции: вы можете либо сохранять общедоступные IP-адреса на своих узлах (защищенные группами безопасности), либо иметь только частные IP-адреса на узлах с одним выходным IP-адресом. Или оба!
  • Готовы к большему количеству функций: вскоре плоскости управления будут изолированы от ваших рабочих узлов, и все они будут общаться в одной частной сети. Вы даже сможете ограничить/разрешить диапазон IP-адресов или портов, чтобы контролировать, кто может получить доступ к серверу API.

Какова плата?
VPC и частные сети предоставляются совершенно бесплатно.

Будут ли простои во время миграции?
Да, подключение частной сети к кластеру Kapsule приводит к неизбежным потерям сети от 1 до 10 минут.

Что произойдет после начала миграции:
  • Ваша плоскость управления будет перезапущена в первый раз: API Kubernetes вашего кластера будет временно недоступен.
  • Ваши пулы будут обновлены для миграции узлов в частную сеть. Все ваши узлы будут перезагружены в соответствии с указанной политикой обновления ваших пулов.
  • После перезагрузки всех ваших узлов ваша плоскость управления будет настроена на использование частной сети и перезапущена еще раз. Затем ваши балансировщики нагрузки будут перенастроены и также перенесены в частную сеть.
  • Наконец, сетевой интерфейс контейнера (CNI) вашего кластера будет перенастроен и перезапущен для использования частной сети.
Важно! На этапе №4 сеть модулей вашего кластера будет временно недоступна в течение 1–10 минут, поскольку все модули CNI перезапускаются. Ориентировочная продолжительность зависит от размера вашего кластера и используемого вами CNI. На этом этапе ваши модули не смогут взаимодействовать друг с другом.

Как мне перенести кластеры Kapsule?
  • Либо с помощью консоли Scaleway: в информации о вашем кластере перейдите на вкладку «Частная сеть», чтобы начать миграцию.
  • Или через Terraform: просто установите Private_network_id с ресурсом Scaleway_k8s_cluster, чтобы запустить миграцию.
  • Нет PNID => PNID: переводит кластер в частный
  • PNID a => PNID b: предупреждение, затем принудительное создание нового кластера.
Пожалуйста, внимательно выбирайте частную сеть.
  • После подключения кластера к частной сети вы не сможете отменить эту миграцию.
  • Кластер невозможно переместить в другую частную сеть после миграции.
  • Частную сеть невозможно отключить.