Безопасность и соответствие

СУВЕРЕНИТЕТ ДАННЫХ
Обеспечение безопасности и соответствия

Защита критически важных инфраструктур и конфиденциальных данных — серьезная проблема для обеспечения безопасности и суверенитета. Чтобы ответить на это, OVHcloud разработала суверенные облачные решения, специально предназначенные для администраций, критически важных операторов и операторов основных услуг по всей Европе. Они получают усиленную безопасность на физическом, организационном и договорном уровне.
Эти решения доступны в двух наших новых центрах обработки данных, расположенных во Франции. Данные клиентов размещаются и обрабатываются только в пределах Европейского Союза, что гарантирует суверенитет в отношении экстерриториальных неевропейских законов.
www.ovhcloud.com/en-ie/enterprise/products/hosted-private-cloud/safety-compliance/

Безопасная и надежная цифровая экосистема для всех
Хирен Парех, вице-президент OVHcloud по Северной Европе, поделился своими прогнозами на 2021 год в отношении радикальной устойчивости, искусственного интеллекта, хранения и потребности в гидросистемах с Capacity Media.
www.capacitymedia.com/articles/3827469/a-safe-and-trusted-digital-ecosystem-for-all

5,5 миллиона долларов на сбор средств для Люсин
Выбор места для размещения медицинских данных является важным фактором, который следует тщательно продумать. Марин Котти Эслоус, генеральный директор Lucine, рассказывает о своем бизнесе, решениях, которые она приняла, чтобы успокоить инвесторов, и о том, что, по ее мнению, ждет в будущем.
Работа с OVHcloud была добровольным и инициированным подходом. Мы хотели принять политическое, этическое и ориентированное на граждан решение в отношении хранения и обработки наших медицинских данных. Программа Startup очень помогла нам и поддержала нас в получении необходимой сертификации HDS.
Марин Котти Эслоус — генеральный директор Lucine

Решения OVHcloud
Хотите развернуть виртуальную инфраструктуру VMware за 90 минут?
Выбирайте наши решения Managed Bare Metal Essentials, чтобы получить максимальную отдачу от нашей технологии автоматизации и оркестровки — наряду с нашим круглосуточным управлением оборудованием — при сохранении независимости и контроля над своей инфраструктурой.
www.ovhcloud.com/en-ie/managed-bare-metal/

Вы используете OVHcloud?
OVHcloud Connect предлагает изолированный трафик, управление VLAN, подключение к частной сети vRack и многое другое. Мы поможем вам шаг за шагом начать работу с вашим решением и обеспечить его безопасность.
docs.ovh.com/ie/en/ovhcloud-connect/

6 причин перейти на управляемый Kubernetes


Kubernetes можно установить на своем оборудовании, либо использовать managed-решение от облачного провайдера. При самостоятельной установке on-premise вы можете более гибко контролировать процесс настройки, но есть риск столкнуться с определенными сложностями.

Если вы уже пробовали разворачивать и поддерживать кластер на своем оборудовании, то, возможно, знакомы с ними. Если только планируете это сделать — прочитайте статью, чтобы разобраться в преимуществах управляемого Kubernetes.

В статье мы расскажем про шесть причин перейти на Yandex Managed Service for Kubernetes®, чтобы избежать сложностей развертывания и администрирования кластера Kubernetes on-premise. Заметим, что это не все преимущества, которые дает управляемый Kubernetes, а только самые значимые, на наш взгляд.

Легко установить и настроить кластер
Kubernetes — сложная система, для установки и настройки которой нужны определенные знания и навыки. Чтобы получить стабильную и безопасную систему, важно правильно установить и настроить кластер: права доступа, сетевые настройки, мониторинг, резервное копирование, файловое хранилище и многое другое.

Чтобы это сделать, необходим специалист с определенными навыками. А лучше два, чтобы они подменяли друг друга на время отпусков и болезней. Хорошо, если у вас в компании уже есть такие люди. Если нет, потребуется время, чтобы их найти или обучить. При этом нужно постоянно поддерживать их квалификацию, потому что Kubernetes развивается и в нем появляются новые возможности и особенности.


Чтобы избавиться от сложностей установки и настройки кластера, можно воспользоваться управляемым Kubernetes. Создать готовый кластер в облаке сможет любой технический специалист, знакомый с Kubernetes на базовом уровне. Для этого не нужны глубокие знания администрирования, достаточно понимать основные концепции, чтобы выбрать параметры сети, группы безопасности, количество подов на узле.

Кластер создается в веб-интерфейсе несколькими кликами. Облачный провайдер выполнит за вас все основные настройки и интеграции, настроит резервное копирование, подключит мониторинг и настроит сеть.


Кроме UI-интерфейса Yandex.Cloud также предлагает возможность создания и управления кластером через API, CLI, SDK и Terraform. Главное преимущество такого способа — автоматизация рутинных задач по созданию и управлению ресурсами кластера. Облачный провайдер берет на себя большую часть задач по установке и настройке кластера, что ускоряет процесс развертывания и исключает необходимость иметь профильных специалистов в штате компании.

Кластер обновляет облачный провайдер
Как и любую систему, кластер нужно обновлять. В решении on-premise обновлять и тестировать кластер вам придется самостоятельно. А так как Kubernetes довольно сложен в освоении, не исключена вероятность ошибок, исправлять которые придется самостоятельно, что потребует много времени. А обновить кластер без простоя — еще более сложная задача.

В Managed Service for Kubernetes облачный провайдер сам обновит ваш кластер. Мы предварительно тестируем новые версии Kubernetes и только после этого устанавливаем их на кластеры клиентов. Вам остается лишь проверить корректность работы сервисов и приложений в новой версии Kubernetes. Как клиент может контролировать процесс обновления:
  • Вы выбираете расписание установки обновления. Можно указать конкретные дни недели и время. Например, в ночь с пятницы на субботу, чтобы в случае непредвиденных ситуаций еще оставалось время до понедельника. При этом перед установкой обновления мы вас обязательно оповестим.
  • Вы можете отключить автообновление и устанавливать каждое обновление отдельно, по мере необходимости. Это полезно, когда нет возможности заранее выделить единое время для установки всех обновлений.

У Kubernetes есть три релизных канала для обновления:
  • Rapid. Содержит самые свежие версии Kubernetes. На канале часто появляются минорные обновления с новой функциональностью и улучшениями. Рекомендуем для непродуктивных сред — разработки и тестирования — потому что тут раньше всего появляется функционал, который скоро появится в продуктивном канале regular.
  • Regular. Хорошо протестированные версии. Сюда они попадают из канала rapid. Мы рекомендуем использовать канал для большинства продуктовых сред.
  • Stable. Самые стабильные версии, которые включают в основном исправления ошибок и проблем безопасности. Сюда они попадают из канала regular. Этот канал мы рекомендуем, если вы хотите как можно реже обновлять кластер. Например, в Kubernetes работают второстепенные приложения, которые не нужно постоянно дорабатывать и тестировать. Также этот канал подойдет, если у вас долгий цикл разработки приложений.


Поддерживается автомасштабирование узлов
Kubernetes умеет горизонтально автомасштабироваться, то есть добавлять и освобождать узлы по мере нагрузки. Когда нагрузка на кластер растет — автоматически подключаются новые узлы, чтобы ваши приложения не тормозили. А когда нагрузка падает, ненужные узлы освобождаются.

Такая возможность есть в любой установке Kubernetes, даже on-premise. Но если настраивать автомасштабирование на своем оборудовании, необходим постоянный резерв свободных машин. При этом большую часть времени резервные машины скорее всего будут простаивать. К тому же не исключена вероятность, что в момент особо высокой непредвиденной нагрузки может не хватить даже этих резервов.

Облачный Kubernetes лишен этих недостатков:
  • Вам не нужно думать о простое оборудования. При создании кластера вы выбираете минимальное и максимальное количество рабочих узлов. Когда нагрузка небольшая, в вашем кластере будет минимум узлов. Когда нагрузка возрастает — кластер сам подключит дополнительные узлы из ресурсов облака.
  • Облачный провайдер обладает огромными вычислительными ресурсами и может масштабировать ваш кластер вплоть до любого необходимого числа узлов. Ваша система сможет выдержать даже очень высокие нагрузки.

Можно создать региональный отказоустойчивый кластер
При создании продуктового кластера важно позаботиться об отказоустойчивости. Как правило, для этого создаются несколько реплик мастер-узлов.

Если разворачивать кластер на своем оборудовании, как правило, все узлы будут находиться в одном дата-центре или географической зоне (городе или районе). Дата-центры обеспечивают надежность инфраструктуры резервированием, дублированием критических узлов и гарантируют SLA. Но в случае аварии природного или техногенного характера, а также человеческого фактора, ЦОД перестанет функционировать и вы полностью потеряете доступ к кластеру.

Managed-решение Yandex.Cloud позволяет создать региональный отказоустойчивый кластер. У нас есть три собственных дата-центра, расположенных во Владимирской, Рязанской и Московской областях. Если в одном из дата-центров произойдет авария, мастер-узлы в остальных дата-центрах продолжат работать и ваши приложения будут доступны.


А тестовые среды не предъявляют таких требований к отказоустойчивости, для них вы можете создать зональный кластер с одним мастер-узлом. Это будет намного дешевле, чем региональный отказоустойчивый кластер.

Работает с RBAC и IAM
Большие компании используют системы учетных записей, такие как Active Directory или G Suite. И для того чтобы интегрировать их с кластером Kubernetes, необходимо устанавливать и настраивать дополнительные инструменты.

В Managed Service for Kubernetes вы можете подключить систему и использовать свои учетные записи без дополнительных настроек. Для этого на уровне IAM настраивается федерация через протокол SAML. И тогда учетные записи ваших пользователей интегрируются с платформой Yandex.Cloud и им можно назначать роли.

Наш IAM является дополнением к стандартному Kubernetes RBAC. Используя обе системы, можно решать более сложные задачи по разграничению доступа. Например,

разработчику из всех ресурсов платформы необходим доступ только к кластеру Kubernetes. Для этого внутри облака ему выдаются минимальные права, достаточные лишь для подключения к кластеру. А внутри Kubernetes при помощи RBAC ему добавляются необходимые полномочия на объекты кластера.

Удобный UI «из коробки»
У Kubernetes нет стандартного графического интерфейса управления. Существуют сторонние разработки от сообщества, которые нужно устанавливать, настраивать и предоставлять к ним доступ.

Мы разработали собственный интерфейс управления, доступный всем пользователям Managed Service for Kubernetes. Он уже интегрирован с Yandex IAM, что позволяет легко раздавать полномочия. Вы можете использовать наш дашборд вместо одного из сторонних или вместе с ним. Вот несколько его ключевых возможностей:
  • Детализация узлов, деплойментов, подов и сети. По каждому из этих объектов можно увидеть текущее состояние, посмотреть перечень событий и логов. Это позволяет отлаживать приложения без необходимости устанавливать дополнительные инструменты в кластер. Из детализации деплоймента можно увидеть, какие поды создались на его основе, и сразу перейти к ним.
  • Детализация потребления ресурсов. По каждому узлу или поду можно увидеть, сколько тратится CPU, памяти и сетевых ресурсов.
  • Настройка детализации. В каждой детализации можно добавлять или убирать поля для отображения.
  • Гибкий фильтр событий. В кластере генерируется довольно много событий, поэтому мы создали гибкий фильтр. Можно фильтровать по пространству имен, уровню или сущности.
Мы постоянно дорабатываем дашборд, поэтому в будущем у него появятся новые возможности. Нашим клиентам ничего не нужно устанавливать или обновлять, они сразу будут получать новые возможности.


Краткие итоги
Мы рассмотрели шесть главных преимуществ Managed Service for Kubernetes® перед классическими on‑premise‑кластерами Kubernetes.

Но это не все, что может предложить Yandex.Cloud для решения задач Kubernetes. С помощью платформы вы можете решать и другие задачи, например находить уязвимости в образах контейнеров, шифровать секреты в etcd‑хранилище или интегрироваться с инструментами CI/CD. Более подробно об этих и других возможностях вы можете узнать из нашего вебинара «Kubernetes. Managed на все 100%».

Эксперимент в облачном хранилище для повышения уровня выращивания чиа



Любой, кто обращает внимание на рынок жестких дисков так же внимательно, как Backblaze, уже знает все о быстром росте популярности Chia — «зеленой» альтернативы Биткойну — и о том, какое влияние она оказывает на мировые поставки жестких дисков. Если вы еще не слышали о Чиа, ознакомьтесь с краткой записью ниже, чтобы получить дополнительную информацию. Но этот пост предназначен для многих фермеров чиа, которые уже погрузились в сельское хозяйство и теперь сталкиваются с пустыми полками в поисках решений для хранения на своих участках.

Помня об этой нехватке, наша команда приступила к изучению экспериментального решения, которое позволит обрабатывать участки Chia, хранящиеся в облачном хранилище B2. Мы рады сообщить, что теперь фермеры чиа могут хранить и обрабатывать свои участки в Backblaze B2.

Итак, если вы хотите принять участие в сенсации Chia, не тратя много средств на труднодоступные жесткие диски большой емкости, теперь есть инновационный способ начать работу с доступным масштабируемым облачным решением.
Chia против биткойнов: Chia — это новая криптовалюта, в которой используется алгоритм доказательства свободного места. В отличие от алгоритма доказательства работы, поддерживающего Биткойн, который требует больших затрат ресурсов и ресурсов процессора, и энергии, Chia был разработан для минимизации энергопотребления. В результате мы получаем блокчейн с интенсивным хранением. Если вы хотите узнать больше, рекомендуем обратиться к первоисточнику.

Ключи к победе в испытаниях чиа
Участки Чиа не просто бездействуют. Сеть Chia регулярно выдает запросы на соответствие и проверки качества. Проверки качества важны для достижения успеха, но проблемы — когда каждые 512 участков проверяется каждые 10 минут — являются причиной того, что вы занимаетесь сельским хозяйством.

Если один из ваших сюжетов выбран для матча, вам необходимо получить «полное доказательство», чтобы получить вознаграждение, что требует около 64 поисков жесткого диска и доставки полного доказательства остальной части одноранговой сети. менее чем за 30 секунд, прежде чем «повелители времени» Чиа двинут блокчейн дальше.

Это создает две проблемы, которые могут мешать вам спать по ночам, если вы пытаетесь фармить чиа:
  • Проблема 1: Где хранить участки в масштабе.
  • Учитывая, что текущее расчетное сетевое пространство, занятое участками Chia, составляет 20 эксабайт (и растет экспоненциально!), Случай показывает, что только один из ваших участков будет выигрывать примерно раз в 96 лет. Это все равно, что ждать всю жизнь кукурузного початка, а не весело. Итак, вы хотите иметь много участков, чтобы улучшить свои шансы, но вам нужно где-то их хранить, что вы можете себе позволить и которое может расти вместе с вашим сельским хозяйством.
  • Проблема 2: Управление сложностью масштабирования хранилища.
  • Если вы решите проблему хранения, вам также понадобится способ быстро и надежно сделать все графики доступными для чтения и быстрого представления в сети, когда вы выиграете испытание. Вам нужно будет уметь управлять этой сложностью каждую секунду каждый день, пока вы хотите быть фермером. Если вы ждете 96 лет, чтобы получить хоть один кукурузный початок, пропустить день сбора урожая было бы обидно.
Это ключи к победе в матче: достижение масштаба и умелое управление им.

Статус-кво: отдельные фермеры чиа используют жесткие диски для хранения
Для жесткого диска 7200 об / мин с задержкой чтения примерно 10 мс получение проверки качества или полной проверки занимает около 70 мс на подходящую диаграмму. Поскольку ядро ​​Chia кэширует первые семь операций чтения, жесткий диск должен выполнить только 64 поиска при выдаче запроса.

Если диск емкостью 18 ТБ, который может содержать 166 графиков по 108 ГБ на график (при k = 32), достаточно удачлив, чтобы содержать график, который является тем волшебным «одним из 512», жесткий диск достаточно быстро выполняет необходимые операции чтения, потому что Chia была разработана для использования жестких дисков для земледелия. Но жесткие диски могут выполнять только одну из этих операций за раз, поэтому рабочий стол должен выполнять операции последовательно. Даже если вы используете твердотельный накопитель, вам все равно придется выполнять операции последовательно. Опять же, это не проблема для отдельных дисков, поскольку жесткие диски и твердотельные накопители могут выполнять операции очень быстро в отведенное время.

Но даже для тех, кому посчастливилось найти запас готовых дисков емкостью 18 ТБ, которые не были дважды размечены, обеспечение хранилища для количества участков, необходимых фермеру Чиа для обеспечения разумных шансов на успех, будет трудом и капиталом. интенсивный.


Как использовать облачное хранилище для масштабирования участков
Программное обеспечение Chia не было разработано для ведения сельского хозяйства с использованием общедоступного облачного объектного хранилища, и первые тесты, которые мы провели на графиках Chia, хранящихся в облачном хранилище B2, подтвердили это: требуется несколько минут, а не 30 секунд, необходимых для своевременного прохождения проверки качества. В отличие от решения с локальным хранилищем, где данные проверки качества могут кэшироваться ядром, при настройке облачного хранилища производительность снижается до такой степени, что это влияет на вероятность успешного выполнения пользователями задач.

Backblaze B2 Cloud Storage предоставляет объектное хранилище, в котором данные хранятся в виде дискретных объектов, что исключает необходимость использования какой-либо вложенной или иерархической файловой структуры. Это делает B2 Cloud Storage идеальным для масштабирования и использования в качестве исходного хранилища, но как отдельный продукт хранилище объектов не подходит для хранения графиков Chia. Без оптимизации кэширования для повышения производительности и способа одновременного чтения графиков B2 Cloud Storage не смог бы эффективно служить в случае фермерского хозяйства Chia. Но B2 Cloud Storage спроектировано так, чтобы использовать преимущества параллельных операций или потоков, предлагая некоторые преимущества по сравнению со стандартным физическим диском, если они правильно настроены для этого варианта использования (кашля * я писал здесь про потоки! Кашля *).

Наша команда подумала, что было бы интересно создать инструмент, обеспечивающий обходной путь для варианта использования Chia, по четырем веским причинам:
  • Во-первых: потому что Backblaze Storage Cloud предоставляет оба ключа для успешного выращивания чиа: нет необходимости в выделении ресурсов, и фермеры из чиа могут загружать новые участки с высокой скоростью и масштабом. Backblaze Storage Cloud обслуживает почти 500 миллиардов файлов с исключительной надежностью и доступностью.
  • Во-вторых: стоимость хранения участков Chia в Backblaze B2 является привлекательной с финансовой точки зрения и составляет 5 долларов США за ТБ в месяц. Согласно Chia Calculator, использование облачного хранилища B2 для хранения участков было бы прибыльным, в зависимости от темпов роста сетевого пространства и текущей цены монеты Chia.
  • В-третьих: команда инженеров и инженеров Tiger, включая меня, думала, что это будет интересным и полезным (и увлекательным) экспериментом.
  • Наконец: та же команда считала, что мы могли бы включить Chia-сельское хозяйство участков, хранящихся в B2 Cloud Storage, взломав код того, как распараллеливать операции в Chia.
  • Помня об этом, наша команда Tiger приступила к работе. Инструмент для монтирования Backblaze B2 в качестве файловой системы был необходим, поскольку Chia изначально не поддерживает API Backblaze B2 Native или S3 Compatible. После некоторого тестирования наша команда остановилась на B2_fuse, поскольку наши инженеры, которые будут над этим работать, уже были знакомы с исходным кодом.

Выбрав B2_fuse, наши инженеры добавили алгоритм предварительной выборки для кэширования операций чтения, чтобы решить проблему ядра, упомянутую выше. Это улучшило бы производительность, но поскольку считывание с жесткого диска по-прежнему выполнялось по одному, оставалось место для дополнительных улучшений. Очевидно, что параллельное выполнение операций значительно повысило бы вероятность успеха, и после некоторых копаний один из наших инженеров нашел PR (запрос на вытягивание), который добавлял параллельное чтение и еще не был объединен в проект Chia.

Благодаря оптимизации кэширования в B2_fuse и добавленной функциональности параллельного чтения время проверки для графика Chia, хранящегося в облачном хранилище B2, сократилось до секунд. Это обеспечивает загрузку участков Chia в Backblaze B2 и их представление в сети Chia для ведения сельского хозяйства без необходимости использования дорогостоящего сервера в центре обработки данных.

Наши успешные тесты были проведены с использованием вычислительного экземпляра, работающего в регионе Запада США, с учетной записью Backblaze B2, который также находится в регионе Запада США. Попробуйте, и вы увидите целое поле метафорических культур — все готово к тому, когда придет вызов «один из 512».
Если вы хотите попробовать это решение, настройте учетную запись Backblaze B2 сейчас и получите обновленную версию B2_fuse (или внесите свой вклад в проект) вместе с инструкциями о том, как получить PR с параллельными чтениями здесь: github.com/Backblaze-B2-Samples/b2fs4chia

Поскольку эта поддержка носит экспериментальный характер и команда Backblaze знает, что многие фермеры Chia будут рады ее опробовать, мы просим фермеров ограничить хранение делянок Chia до 100 ТБ или связаться с нашим отделом продаж, чтобы обсудить что-то более крупное.

Спринтхост — Запускаем защиту от DDoS-Guard



В Спринтхост в тестовом режиме появилась услуга защиты хостинга от DDoS-атак от компании DDoS-Guard.

DDoS-Guard использует технологию обратного прокси, которая позволяет перенаправить DDoS-атаку на защищенный IP-адрес. Далее весь входящий трафик сканируется и очищается от всех паразитных пакетов. Общая канальная емкость сети более 1,5 Тб/сек, что обеспечивает бесперебойную работу 24/7.

Свяжитесь с нами обратным письмом, если:
  • Готовы абсолютно бесплатно протестировать услугу на своем аккаунте и посмотреть на защиту в действии;
  • Хотите на постоянной основе использовать защиту от DDoS-Guard для своего проекта.

sprintbox.ru

Приглашаем на вебинар «Рекомендательные системы»



Приглашаем вас на вебинар «Рекомендательные системы: архитектура и применение». Старт 22 июня в 12:00 (МСК).
Рекомендательная система — сплошная польза для бизнеса. Это и экономия ресурсов, и увеличение среднего чека, и допродажи, и лояльность пользователей.
Главное — всё правильно подготовить и интегрировать.
На вебинаре разберём, как собрать эффективный движок для рекомендательной системы. Покажем архитектуру современного движка на базе платформы данных Yandex.Cloud, посмотрим кейсы и рабочие алгоритмы.
Опытом построения рекомендательных систем поделятся наши коллеги из компании GlowByte — эксперты в области BI, Big Data и автоматизации маркетинга.
cloud.yandex.ru/events/368

Ядерная мощь на FirstDEDIC — AMD EPYC 7742 для самых высоких нагрузок



Начинаем лето с отличных новостей! Впервые на FirstDEDIC доступны конфигурации выделенных серверов на базе AMD EPYC — флагмана второго поколения, мощного 64-ядерного процессора EPYC 7742.

Технические характеристики процессора:
  • 64 ядра,
  • 128 потоков,
  • 256 Мб кэш-памяти третьего уровня,
  • до 3,4 ГГц в турборежиме,
  • 2,25 ГГц в базовом режиме,
  • уровень TDP — 225 Вт,
  • 8 каналов памяти DDR4-3200,
  • поддержка ECC-памяти.
Второе поколение EPYC носит кодовое названием «Rome», построено на архитектуре Zen 2 и предлагает больше производительности по сравнению не только с предыдущим, но и с близкими по техническим параметрам конкурирующими аналогами.

Производителю удалось добиться прироста мощности за счёт изменения компоновки ядер внутри процессора, обеспечив их максимальное количество. Инновация строится на использовании так называемых чиплетов — отдельных кристаллов, связанных быстрой шиной Infinity Fabric. При этом плотность размещения транзисторов увеличилась вдвое, и во столько же уменьшилось энергопотребление. Сама по себе шина Infinity Fabric тоже была ускорена, ее ширина выросла с 256 до 512 бит, что сократило задержки при обмене данными между ядрами.

Также в процессорах AMD EPYC второго поколения оптимизирована работа кэш-памяти первого уровня и увеличен объём кэша третьего — до 256 Мб.

Дополнительным преимуществом стало улучшенное управлением питанием, которое позволяет наиболее эффективно работать разному количеству ядер на максимальной частоте. Так восемь активных ядер могут работать на 3,4 ГГц, а все 64 — на 3,2 ГГц.

Кроме того, второе поколение процессоров AMD EPYC не только унаследовало от предшественника защиту от таких угроз, как Spectre, Meltdown и прочих, но и получило в том числе аппаратные патчи усиленной защиты от всех версий Spectre, которые не требуют постоянного обновления прошивки.

Результаты тестирования
Чтобы вы могли убедиться в мощности предлагаемого решения, мы протестировали топовый многоядерный процессор AMD EPYC 7742, используя бенчмарки Sysbench и Geekbench 5, и сравнили полученные результаты с показателями самых производительных в нашей линейке процессоров Intel Xeon Scalable — Gold 6230R и Gold 6240R.
В тестировании использовались двухпроцессорные конфигурации:
  • 2хGold 6230R — 52 ядра, 2,1-4,0 ГГц,
  • 2хGold 6240R — 48 ядер, 2,4-4,0 ГГц,
  • 2хEPYC 7742 — 128 ядер, 2,25-3,4 ГГц.


По результатам теста Sysbench топовый AMD EPYC в 2,5 раза опережает соперников. Разница составляет 159,2% с 2хGold 6230R и 155,6% с 2хGold 6240R.


Что касается результатов теста Geekbench 5, то в однопоточном режиме AMD EPYC идет почти наравне с Intel Scalable — разница составляет около 5%. Тут все решает тактовая частота, а у Intel в турборежиме она выше. Зато в многопоточном режиме, где последнее слово остается за ядрами, лидерство AMD EPYC заметно сразу: разница с с 2хGold 6230R составляет 51,9%, а с 2хGold 6240R — 54,1%.
  • Особенности серверной платформы:
  • двухпроцессорные конфигурации,
  • накопители NVMe,
  • оперативная память от 128 Гб до 2048 Гб.
Платформа для сборки конфигураций на базе AMD 2xEPYC 7742 поддерживает объём оперативной памяти до 2 Тб, а кроме того позволяет подключать до 10 накопителей NVMe. Максимальный объём одного диска — 8000 Гб.

Конфигурации на базе AMD 2xEPYC обеспечат вам высокую производительность, безопасность и масштабируемость для самых ресурсоемких рабочих нагрузок. Сборка сервера в течение 24 часов.

https://firstvds.ru

Масштабные скидки: VDS — 15% и Выделенные серверы — 10%

Отличное начало лета 2021 года, не правда ли?
Команда SpaceCore подготовила для Вас масштабные скидки на все виды VDS и Выделенных серверов!

До 20 июня Вы можете приобрести абсолютно любой виртуальный сервер со скидкой 15%!
Помимо этого, на все Выделенные серверы активирована скидка 10%!

Мы предоставляем производительное оборудование в 5-ти разных странах мира, с игровой защитой от DDoS и без.
Все это по низким для пользователя ценам. Успей ухватить выгодное предложение!

• Остались вопросы? Мы с радостью ответим!
Сайт: https://spacecore.pro
Биллинг: https://billing.spacecore.pro
Email: support@spacecore.pro
Telegram: @spacecore_pro
VK: vk.com/spacecore_pro

Новый конфигуратор VPS/VDS: теперь до 64гб ОЗУ, 16 ядер 5.3 Ггц



Уважаемые клиенты!

Рады сообщить, что конструктор виртуальных серверов теперь стал доступен и для тарифов i9-10900k / i9-9900k с частотой до 5.3 ГГц.

Кроме того, были расширены лимиты для всех тарифов в конструкторе: теперь возможно заказать до 64 ГБ ОЗУ и до 16 vCPU.

Доступна посуточная оплата. Активация серверов в течение 120 секунд с момента оплаты.

Подробнее и оформить заказ: msk.host/products/vds

Новый тарифы на i9-9900K



Представляем новую линейку виртуальных серверов на базе ВСЕХ ЯДЕР процессора i9-9900K в ???????? Финляндии. Арендуя сервера у нас вы получаете абсолютно всю мощь топового процессора от Intel — все 8 ядер и 16 потоков с частотой 5 ГГц.

All-Core / от 8 GB DDR4 / от 100 GB NVMe — начиная с 800 ₽ в месяц!

Каждый сервер работает на высокочастотной DDR4-памяти и высокоскоростных NVMe-дисках со скоростью записи 3.2 ГБайт в секунду, а так же — подключен к безлимитному каналу 1 Гбит, защищен от DDoS-атак и отлично подходит для Windows 7/10/Server 2016/2019.

Новые тарифы Ryzen 7 3700X



Объявляем запуск новой линейки виртуальных серверов на базе процессора Ryzen 7 3700X в Москве на базе ДЦ DataPRO.

Эти высокопроизводительные процессоры обеспечат вашим проектам быструю обработку данных на частоте 4.4 ГГц на ядро вместе с высокочастотной памятью DDR4 и высокоскоростными NVMe-дисками.

1 vCore (4.4 ГГц) / 2 GB DDR4 / 25 GB NVMe — всего 300 ₽ в месяц.
1 vCore (4.4 ГГц) / 4 GB DDR4 / 50 GB NVMe — всего 500 ₽ в месяц.
2 vCore (4.4 ГГц) / 8 GB DDR4 / 100 GB NVMe — всего 1000 ₽ в месяц.

Безлимитный трафик, канал 1 Гбит/с на каждый сервер, минимальный пинг по всей РФ и бесплатный Anti-DDoS для защиты ваших проектов от любого типа атак 24/7.

Все это вы можете заказать на hshp.host/