Рейтинг
0.00

Online.Net Хостинг

11 читателей, 130 топиков

Lancement des offres Dedibox Intel Xeon Silver et Gold



После переименования наших выделенных серверов и обновления нескольких из них, high-end предложения развиваются в свою очередь с появлением процессоров Intel Xeon Silver и Gold!

Новый high-end Core
Для экстремальной производительности эти выделенные серверы в Core Core оснащены процессорами Bi-Xeon Silver (4114) и Bi-Xeon Gold (5120 или 6140) с до 36 ядер на сервер! Они используют хранилище NVMe SSD (2, 4 или 8 ТБ) и объем памяти от 128 ГБ до 768 ГБ для обеспечения максимального качества обработки. Эти серверы обладают исключительной вычислительной мощностью и отвечают самым насущным потребностям в обработке данных, моделировании или кодировании видео.

Мы предлагаем вам аренду и без согласования конфигураций серверов, которые ранее часто настраивались по индивидуальному заказу, с 269.99 € без налогов и без платы за установку! Вот их особенности в деталях.

Последний Core предлагает:

www.online.net/fr/serveurs-dedies/core-5-s
www.online.net/fr/serveurs-dedies/core-5-l
www.online.net/fr/serveurs-dedies/core-5-xl

Нужны серверы хранения?
Воспользуйтесь возможностями хранения, рассчитанными на лучшее соотношение цены и качества!
В последнем магазине предлагаются:

www.online.net/fr/serveurs-dedies/store-1-s
www.online.net/fr/serveurs-dedies/store-2-m
www.online.net/fr/serveurs-dedies/store-2-l
www.online.net/fr/serveurs-dedies/store-4-xl

Заявление о подозрительном мониторинге Super Micro

Команды Scaleway-Online были осведомлены СМИ о том, что оборудование Super Micro будет иметь встроенный микроконтроллер.

Scaleway-Online работает с крупнейшими производителями на рынке для предоставления наших центров обработки данных во Франции и за рубежом. Super Micro является одним из них.
У нас есть среди наших десятков тысяч активных машин большой парк серверов с использованием компонентов от Super Micro.

Учитывая этот факт, мы очень серьезно воспринимаем информацию, опубликованную вчера, даже если было официальное опровержение нашего партнера-производителя.

Уже почти 10 лет мы проводим обширное тестирование и проверку всего оборудования, которое мы выбираем, и мы никогда не замечали никаких аномалий или специфического поведения на оборудовании, предоставляемом Super Micro.

Несмотря на всю нашу бдительность и наш контроль, которые являются неотъемлемой частью нашего ноу-хау, с тех пор мы не располагаем абсолютной гарантией и достаточной надежной информацией в это время, чтобы подтвердить или опровергнуть предполагаемые факты. Поэтому мы решили провести собственное расследование.

Мы решили мобилизовать команду наших лучших инженеров и специалистов в области электроники, чтобы провести тщательный анализ различных типов оборудования, поставляемого Super Micro, которые в настоящее время развернуты в наших центрах обработки данных.

Мы стремимся к полной прозрачности в отношении этой предполагаемой ситуации и будем держать эту новость в блоге актуальной с нашими текущими анализами. Наши главные сотрудники по информационной безопасности (CISO) и наше общее руководство также мобилизованы, чтобы пролить свет на эти утверждения.

Команда Scaleway-Online

A follow-up on the DC5 maintenance on Sept

18 сентября мы запланировали капитальный ремонт на DC5 затрагивающий 8000 серверов, которые мигрировали из временного помещения в их окончательном место. Цель состояла в том, чтобы предоставить вам среду внедренной наших нового центра обработки данных DC5, который теперь предлагает 16.000 квадратных метров, посвященных серверам, 24 МВт электроэнергии, эффективность использования мощности (PUE) 1,09 и общее улучшение безопасности.

Эта операция была первоначально планировалось завершить в течение двух дней, 17 сентября и 18 с 6:00 до 8:00 CEST. Затем его вновь планируется сделать полностью на 18 сентября.

Миграция этих серверов, однако, больше, чем ожидалось. Мы столкнулись с трудностями в основном трех областях:
  1. Физическая миграция продолжалась еще четыре часа и закончилась около 12:00 CEST.
  2. Во время перезагрузки сети, оборудования пострадали от потери конфигурации, задерживало восстановление до 18:00 CEST.
  3. Некоторые сервера столкнулись с ошибкой IPMI и перезагрузка этих машин была задержана, в результате этого вопроса.

План для завершения операции в течение двух часов, рано утром, был слишком оптимистичным. Кроме того, как содержание было якобы сделано в короткие сроки двух часов, некоторые клиенты не переключиться на их резервные средства. Это вызвало услуга недоступность путь дольше, чем ожидалось.

Этот случай был проанализирован и привел к сильной переоценке процесса миграции с помощью наших оборудования, сетей, инфраструктуры и поддержки команд. Ситуация была оценена, и наши команды узнали от него о технической точке, а также с точкой зрения проекта и управления инцидентами.

Доступность наших систем является сердцем нашего бизнеса, так же, как наши обязательства перед клиентами. Это также является сильной, что обычно отличает нас на рынке.

Это наше намерение обеспечить только самое высокое качество обслуживания наших клиентов, и мы глубоко сожалеем о том, что ситуация повлияла вас, ваш бизнес и, возможно, ваши клиент.

Эта операция, безусловно, позволило определить направления совершенствования и реализации мероприятий, необходимых для повышения уровня удовлетворенности наших будущих миграций.

Еще раз спасибо за вашу верность,

Команда Scaleway-Online

Представляем DC5 - Hyper-Scale Mechanical-Cooling Datacenter



Уже более десяти лет мы являемся лидерами в проектировании, создании и эксплуатации центров обработки данных.

Когда мы начали строить наш первый центр обработки данных, мы столкнулись со многими проблемами, такими как:
  • Как мы оптимизируем энергетический след таких объектов?
  • Как мы можем предотвратить потерю мощности?
  • Как мы можем обеспечить надлежащее охлаждение?
  • Как мы можем сделать его модульным?
В течение первых лет операций все эти вопросы часто не спали ночью. Тем не менее, благодаря испытаниям и ошибкам, трудолюбию и настойчивости, мы наконец получили опыт, чтобы сделать наши центры обработки данных эффективными и масштабируемыми. Сегодня наши центры обработки данных — это проверенные бизнесом объекты, управляемые профессиональными и целеустремленными командами. На сегодняшний день мы являемся одним из крупнейших операторов центров обработки данных во Франции с более чем 42 000 квадратных метров и 43 МВт в производстве.

Наш новый объект DC5 является одним из самых значительных проектов центров обработки данных во Франции. Предлагая более 24 МВт ИТ-мощности, DC5 состоит из 12 частных апартаментов, обеспечивающих 1,8 МВт ИТ-мощности каждый на общей площади 16 000 квадратных метров. Мы разработали это средство для масштабируемых облачных вычислений и больших инфраструктур данных.

В этом сообщении в блоге мы подробно расскажем о том, как мы преобразовали здание сортировки почты в беспрецедентный центр обработки данных с гипермасштабированием. Сообщение состоит из трех разделов:
  • Стратегическое местоположение здания
  • Эффективная система охлаждения
  • Ультра-высокая плотность по дизайну

Стратегическое местоположение здания
Расположенная на северо-западе Парижа, сайт изначально занимался сортировкой почты до 2013 года. Это здание имеет множество стратегических преимуществ, которые привели к принятию нашего решения превратить его в гипермагистральный центр обработки данных.

Прежде всего, здание расположено в Сен-Оуэн-Аумне в крупнейшем бизнес-парке в Европе и близко к двум магистралям Интернета операторов Tier-1. Более того, его «локализация» дает огромную мощность. Наконец, это больше чем 40 км от наших других центров обработки данных, что позволяет нам предлагать (среднесрочную, долгосрочную) зону диссоциирования для региона Парижа.

На приведенном выше рисунке вы можете увидеть географические местоположения каждого из наших центров обработки данных и где DC5 находится по сравнению с DC2, DC3 и DC4.

Эффективная система охлаждения
В DC5 мы используем систему прямого бесплатного охлаждения с испарительным охлаждением для охлаждения помещений IT и прямого бесплатного охлаждения с использованием традиционных чиллеров для охлаждения помещений Meet Me и ИБП. Поэтому нет реального кондиционирования воздуха, что осложняется во Франции, потому что в стране умеренный климат. В отличие от Финляндии, температура не достаточно холодная, чтобы использовать внешний воздух круглый год, и в отличие от Испании, это не так жарко, чтобы ежедневно использовать горячий воздух.

Используя систему прямого бесплатного охлаждения с испарительным охлаждением, воздух, поступающий в центр обработки данных, охлаждается перед входом в комнаты ИТ. Этот метод предлагает эффективную альтернативу механическому охлаждению. При DC5 испарительное охлаждение активируется, когда температура воздуха превышает 30 ° C. Благодаря системе прямого свободного охлаждения с испарительным охлаждением мы можем поддерживать постоянную температуру 30 ° C ± 1 ° C в холодных проходах.

В DC5, из двух этажей, одна комната IT, а другая — пленум, посвященный перемещению большого количества воздуха. Затем холодный воздух вводится в холодный проход, а горячий воздух извлекается из горячего коридора.

Охлаждение, электрическое и сетевое распределение производятся из потолка, в то время как в традиционном дизайне распределение обычно осуществляется через проход доступа.


Воздухозаборные решетки на картинке выше только позволяют воздуху проникать и удерживать дождь, птиц и других предприимчивых животных.

За решеткой воздухозаборника решетка вентиляционной решетки оснащена программируемыми логическими контроллерами (PLC) для регулирования открытия сетки и контроля потока воздуха. Чем прохладнее воздух, тем больше сетка закрывается и наоборот.

ПЛК управляются датчиками температуры и влажности для настройки их открытия и использования адиабатических сред. В общей сложности мы можем обрабатывать более 400 информации в режиме реального времени для настройки и оптимизации системы с использованием AI и сложных алгоритмов.

Как только воздух находится, поток воздуха поступает во вторую серию сеток. Их роль заключается в обеспечении равного перераспределения воздушного потока на всей фильтрующей стенке. Без этих сеток воздушный поток неравный между дном и верхней частью стены.
Чтобы заблокировать и удалить воздушные частицы в здании, мы установили воздушные фильтры класса F7.

Как раз за воздушными фильтрами, стена вентилятора толкает очищенный воздух в холодные проходы с потолка.

Чтобы охладить оба, комнаты Meet Me и механические области, мы используем прямое бесплатное охлаждение с использованием традиционных чиллеров. Эти чиллеры используются только тогда, когда наружная температура выше 20 ° C. Наш дизайн новаторский, поскольку мы также используем блок хранения льда мощностью 6 МВт-ч. Блок хранения льда предлагает множество преимуществ:
  • Он быстро реагирует на спрос на охлаждение без использования чиллеров.
  • Это позволяет избежать короткого цикла на чиллерах.
  • Он обеспечивает потребность в охлаждении в случае отказа чиллера.
  • Это экономически выгодно, поскольку лед производится ночью, когда энергия дешевле.

Кроме того, система охлаждения DC5 может считаться инновационной:
  • 100% воздух снаружи проходит через адиабатический процесс, который позволяет воздуху испаряться через систему охлаждения и увлажнения.
  • Он перерабатывает воздух, поступающий из горячих проходов. Отработанное тепло смешивается с наружным воздухом в зоне смешивания для достижения заданного значения температуры и нагревает воздух до того, как он попадет в центр обработки данных, чтобы поддерживать температуру 30 ° C в холодных проходах.
  • Мы используем хранение льда для всех инфраструктур, которые нуждаются в механическом охлаждении и низкой температуре атмосферы.

Использование прямого бесплатного охлаждения с испарительным охлаждением дает много преимуществ по сравнению с традиционной системой охлаждения. Эта конструкция является достаточной для энергии и значительно снижает потери воды в отличие от чиллеров или градирен. Кроме того, его низкая сложность сводит к минимуму риск отказа холодильного оборудования. Наконец, упрощение дизайна делает систему более простой в обслуживании и функционировании для команды на месте.

Сверхплотная конструкция
Мы разработали DC5 для ультра-высокой плотности и инфраструктуры сверхмасштабирования. Каждая стойка может поддерживать до 6 кВт с общей емкостью 300 стоек на номер.


На стойках DC5 питание осуществляется двумя разными путями.
Только один путь защищен автономными ИБП и генераторами. ИБП работают только тогда, когда сетка ниже наших критериев качества. Другой путь защищен только генератором. Поскольку все наши серверы имеют двойной шнур, это абсолютно не влияет.
Этот дизайн дает нам правильный уровень избыточности с гораздо более эффективной инфраструктурой и почти 100% установленной емкости, которую можно использовать за все время, в отличие от традиционной архитектуры 2N с максимальной 50% установленной емкости, пригодной для серверов.


В случае сбоя питания, путь А становится недоступным до тех пор, пока генераторы не начнут работать, поскольку он не защищен ИБП. Путь B обеспечивает бесперебойное питание до тех пор, пока генераторы не будут полностью работоспособны. Эта операция занимает менее 12 секунд. Наши генераторы — это двигатели с непрерывным ходом, работающие в фазе и синхронизированные с сеткой. Другими словами, они могут работать одновременно с использованием сетки. Когда электросеть возвращается, нагрузка может быть перенесена из генераторов в сетку без перерыва и отключена по мощности на пути A.

Вывод
Конструкция DC5 позволила нам создать очень эффективную и сверхвысокую плотность. Используя более простую конструкцию, мы повысили надежность. Наличие меньшего количества компонентов означает более высокую надежность, так как меньше деталей, которые могут выйти из строя. DC5 поможет нам значительно поддержать рост Scaleway & Online в течение следующих 6 лет.

Important information about Intel Side Channel Vulnerability L1TF



Как вы, возможно, читали в других местах в средствах массовой информации, Intel недавно опубликовала информацию о новой атаке бокового канала, называемой неисправностью терминала L1 (L1TF). Проблема L1TF влияет только на аппаратное обеспечение, обеспечивающее одновременную многопоточность (SMT) и включающую функцию SMT.

Мы знали о проблеме L1TF с момента ее анонса и работали с Intel, нашими поставщиками оборудования и другими облачными провайдерами, чтобы лучше понять влияние проблемы и снизить риск для клиентов.

Небольшая часть экземпляров VC1, около 10%, работает на серверах с процессорами, совместимыми с SMT. Мы предпринимаем шаги для смягчения проблемы L1TF с помощью комбинации обновлений прошивки, обновлений ядра и настройки политики выселения кэша L1.

Мы будем информировать клиентов с затронутыми экземплярами VC1 перед любым обслуживанием, необходимым для реализации смягчений L1TF.

Все клиенты с экземплярами Pro X64 работают на аппаратном обеспечении, затронутом проблемой L1TF. Мы работаем с нашими поставщиками оборудования для реализации исправлений в микрокодах и будем информировать клиентов об обслуживании, необходимых для завершения реализации смягчения L1TF.

Подводя итог влиянию L1TF на наших клиентов:
  • Предложения C1 и ARM64 не затронуты проблемой L1TF, поскольку они не используют процессоры Intel
  • Предложения C2 и START не затрагиваются, поскольку их процессоры не поддерживают SMT
  • Небольшое подмножество экземпляров VC1 находится на аппаратном обеспечении, уязвимом для L1TF
  • Пользователи Pro с экземплярами X64 находятся на аппаратном обеспечении, уязвимом для L1TF
  • Клиенты облачного хостинга не пострадали
  • Некоторые из наших серверов веб-хостинга уязвимы для L1TF и вскоре будут установлены новым ядром.

В ближайшие дни и недели мы ожидаем полного смягчения L1TF, в течение которого мы свяжемся с затронутыми клиентами напрямую, чтобы уведомить их о любом требуемом техническом обслуживании.