Узлы Compute с NVME накопителями Intel в Cloud2

Добрый день, теперь в облаке Cloud2 новые узлы выделяются с NVME накопителями Intel DC p4500.


6 месяцев назад мы запустили первый узел выполнения виртуальных машин с накопителем Intel DC p4500 размером 4 TB. За время использования этот накопитель великолепно себя зарекомендовал как для типовых виртуальных машин, так и для нетиповых машин, которые мы выделяем клиентам по требованию, при возникновении специфических задач.

Intel DC p4500 использует шину PCI-E, что обеспечивает минимальную задержку ввода/вывода, существенно ниже той, которую могут обеспечить накопители на шине SAS/SATA. Благодаря этому, данный накопитель обеспечивает большую производительность приложений, которые используют транзакции, например, СУБД.

Высокая пропускная способность и показатели IOPS позволяют выполнять резервное копирование томов с практически нулевым влиянием на производительность виртуальных машин, что особенно важно для VM с круглосуточной нагрузкой.

Мы приняли решение запускать новые узлы Compute только с такими накопителями, поскольку этот накопитель обеспечивает высочайшую производительность дисковой подсистемы VM и гарантирует оптимальное быстродействие в любое время суток, даже когда выполняются задачи системного резервного копирования.

Если вы хотите заказать перенос своей VM на узел, использующий NVMe Intel DC p4500, создайте задачу в биллинговой системе.В настоящее время перенос доступен только для машин, которые используют один том.

ru.cloud-2.io/
billing.netpoint-dc.com/

Бесплатный тестовый период виртуального хостинга на 10 дней



Мы гарантируем высокую стабильность и премиальное качество оказываемых услуг, поэтому можем всем желающим предоставить бесплатный тестовый период на 10 дней!

А Вы уже попробовали?

Оцените наш хостинг и оперативную поддержку прямо сейчас: zomro.com

Sandstorm Oasis is Shutting Down

31 декабря 2019 года сервис платного хостинга Sandstorm, Sandstorm Oasis, перестанет работать.
  • Только Оазис затронут. Другие службы Sandstorm, такие как Sandcats.io, рынок приложений и автоматические обновления для собственного размещения Sandstorm, будут продолжать работать.
  • Новые ежемесячные платежи не будут приниматься, начиная с 1 января 2020 года. Пользователи смогут завершить последний платежный период, оплаченный в декабре и заканчивающийся в январе. После окончания подписки ваши приложения не смогут запускаться.
  • Владельцы зерна будут по-прежнему иметь возможность загружать свои данные или передавать их на другой сервер Sandstorm в течение как минимум еще шести месяцев, до 30 июня 2020 года. После этого данные могут стать постоянно недоступными.

Время идти самостоятельно
Если вы пользователь Oasis, не бойтесь! Вы можете продолжать использовать Sandstorm на своем собственном сервере и легко переносить на него все свои данные Oasis.

Действительно, сегодня почти нет причин предпочитать Oasis самому себе сервер Sandstorm. Рассмотреть возможность:
  • Сервер Digital Ocean с аналогичной ценой, на котором запущена программа Sandstorm, будет загружать приложения намного быстрее, чем Oasis, предоставляя вам в 5 раз больше места для хранения.
  • Пользователи в Европе (которых у Oasis непропорционально много, хотя мы никогда не предполагали, что Oasis будет для них подходящим) будут лучше обслуживаться европейским хостинг-провайдером, обеспечивая меньшую задержку и регулируемые европейскими законами. Оазис находится в США.
  • Оазисом в настоящее время управляет один человек (я). Я делаю все возможное, но если со мной что-то случится, Оазис может внезапно исчезнуть. В отличие от этого, ваш сервер самостоятельно никогда не исчезнет, ​​независимо от того, что я делаю.
  • После того, как Sandstorm установлен на вашем сервере, он становится практически полностью самоуправляемым. Обновления устанавливаются автоматически. Сертификаты TLS обновляются автоматически (с помощью Sandcats.io). Современные виртуальные машины (например, Digital Ocean) могут выполнять автоматическое резервное копирование.
Чтобы облегчить перенос ваших данных на новый сервер, я добавил новую функцию «Массовые передачи» в Sandstorm. Найдите его, нажав кнопку в верхней части вашего списка зерновых:


Затем следуйте инструкциям на экране, чтобы указать сервер назначения, просмотрите список зерен для передачи и затем выполните передачу.

Подведем итог:

Зачем закрывать Оазис?
История последних нескольких лет

Sandstorm, как компания, в основном закрылась два года назад. У компании кончились деньги инвесторов, но при этом практически не было доходов, и нет никаких веских доказательств того, что мы когда-либо их получим. Хотя Sandstorm был популярен в Hacker News, эта популярность никогда не превращалась в платных пользователей. Между тем на рынке, на котором мы себе представляли, мы найдем реальную прибыль — корпоративное программное обеспечение — мы не добились реального прогресса вообще. В этом штате нам не удалось привлечь новых инвесторов, и мы не смогли найти компанию для приобретения бизнеса.

Команда Sandstorm была вынуждена искать новые рабочие места. Большинство из нас были наняты Cloudflare, хотя некоторые решили пойти в другое место. Лично я выбрал Cloudflare, потому что мне всегда нравилась техническая культура, которую я видел в их постах в блоге, и потому, что мне был интересен проект, над которым они хотели, чтобы я работал.

Изначально я планировал продолжать разработку Sandstorm как проекта с открытым исходным кодом. Я чувствовал — и все еще чувствую — что если бы можно было сгладить только некоторые неровные края и заполнить некоторые ключевые недостающие функции, Sandstorm действительно мог бы стать реальной заменой для набора веб-сервисов, которые люди используют каждый день. Я поставил себе цель избавиться от сервисов Google, заменив ключевые биты приложениями Sandstorm, особенно электронной почтой. Я подумал, что, если бы я действительно смог заставить это работать, возможно, мы сможем перезапустить компанию.

Я добился определенного прогресса. По ночам и выходным мне удавалось очистить один из самых грубых краев Песчаной бури, исправив систему идентификации. Я также переписал основы того, как Sandstorm обрабатывает HTTP-трафик, делая его намного быстрее и чище и удаляя JavaScript из той части системы, в которой он не имел бизнеса.

Какое-то время Oasis стоил гораздо больше, чем доход, и я компенсировал разницу из своего кармана. Но между перезаписью HTTP (которая спасла несколько машин) и прекращением бесплатного плана Oasis я смог довести дело до такой степени, что Oasis умеренно выгоден, зарабатывая несколько сотен долларов в месяц.

Но, тем временем, на моей новой работе в Cloudflare я являюсь ведущим инженером / архитектором проекта под названием Cloudflare Workers, «серверной» платформы, которая одновременно развертывает ваш код в 193 (и растущих) местах по всему миру. Начав с нуля, когда я присоединился, я построил первый прототип за несколько месяцев, вскоре после этого у меня было общедоступное демо и бета-тестирование, и я выпустил его в мир ровно (по совпадению!) Через год после присоединения. Сегодня Cloudflare Workers обрабатывают примерно в миллион раз больше трафика, чем когда-либо делал Sandstorm. Тем временем, команда выросла из меня до буквально загруженного автобуса людей. И мы действительно только начинаем.

Как бы я ни любил Песчаную бурю, мне трудно возвращаться домой с моей успешной дневной работы, чтобы работать над неудачным сайд-проектом. Итак, я трачу все меньше и меньше времени на Песчаную Бурю. Я до сих пор выпускаю обновления каждый месяц, чтобы поддерживать новые зависимости, но последние полтора года не работал над новыми функциями, прежде чем добавлять массовые переводы в последнее время.

Между тем, без руководства сообщество в основном распалось. Единственное приложение, которое регулярно получает обновления — это Wekan, благодаря его сопровождающему Lauri “xet7” Ojansivu. Джейк Вайс героически продолжает нести флаг «Песчаная буря», просматривая представления приложений (в основном от Лаури), отвечая на вопросы и сообщения об ошибках, и пропагандируя Песчаную бурю в Интернете. Пара других скрывается в списке рассылки и IRC. Большинство людей пошли дальше.

Почему бы не оставить Oasis запущенным?
Оазис является умеренно прибыльным: он приносит доход около 1800 долларов в месяц, а стоимость в месяц составляет около 1400 долларов между инфраструктурой, услугами, сборами и обслуживанием бизнеса (например, подготовка налогов). Почти 200 человек платят за это, и кажется, что большинство из них фактически используют это. Пока это не потеря денег, почему бы не позволить этому быть?

Во-первых, очевидная причина: для работы все еще требуется время. Раз в месяц я должен проводить субботнее тестирование и выпуск обновлений. Несколько раз, изменения в зависимостях ломали вещи, требуя времени отладки. На самом деле серверная часть управления и хранения кластеров Oasis (известная как «Blackrock») все еще работает с октября 2018 года! По причинам, которые я не смог определить, новые сборки после этой точки начинают падать при умеренной нагрузке. Я не могу воспроизвести такую ​​нагрузку в тестовой среде, поэтому единственный способ проверить потенциальные исправления — вытащить полную версию, посмотреть, как она вышла из строя, и откатить ее. После нескольких попыток я в основном сдался. К счастью, этот компонент Oasis не претерпел существенных изменений и не имеет какой-либо поверхности атаки, подвергаемой прямой атаке, поэтому закрепление старой версии в основном нормально… но это хрупкая позиция.

На соответствующей ноте я нахожусь на звонке 24/7 для Оазиса. Он редко ломается, но когда это происходит, у меня возникают проблемы с его своевременным исправлением. Например, в январе необъяснимый сбой в работе Google Cloud заставил меня перевести Oasis в другую зону, для которой он не был предназначен (да, да, это не мульти-дом, мы никогда не заходили так далеко). Это было вниз в течение нескольких часов. К счастью, это были выходные, и я был дома, или это могли быть дни. В другом инциденте я обнаружил, что GMail направляет все мои оповещения о мониторинге (и электронную почту для поддержки @, security @, contact @ и т. Д.) Напрямую на спам в течение нескольких месяцев.

Но более важным, чем временное бремя для меня, является то, что я больше не чувствую себя хорошо, когда беру деньги за этот продукт. Почти все пакеты приложений с 2015-2016; с тех пор многие из этих приложений получили значительные обновления в своих автономных версиях, которые отсутствуют в Sandstorm. Приложения загружаются очень медленно в Oasis. Многие из них имеют значительные недостающие функции по сравнению с их автономными версиями из-за того, что они не адаптированы к модели безопасности Sandstorm. И сам пользовательский интерфейс Sandstorm остаётся ужасно неполным и дрянным. Я постоянно переживаю, что большинство людей, которые платят за Оазис, подписались по ошибке и никогда не замечали этого в выписках по кредитным картам — это может показаться надуманным, но на самом деле у меня было по крайней мере несколько жалоб от людей, которые так и сделали ( который я потом вернул). Я беспокоюсь, что у нас, похоже, есть европейские клиенты, и мне интересно, понимают ли они, что Sandstorm находится в США и может не соответствовать соответствующим европейским нормам. Мне стыдно, что люди, которые не читают блог, считают, что этот продукт поддерживается штатными сотрудниками. Оазис по-прежнему был бы прибыльным, если бы его использовали только люди, которые полностью понимают состояние компании? Я не уверен.

Наконец, сегодня Oasis практически не дает преимуществ перед хостингом. Цена на виртуальные серверы снизилась до такой степени, что самообслуживание Sandstorm на сервере с аналогичной ценой даст вам гораздо лучший опыт, чем Oasis. Sandstorm всегда должен был иметь собственный сервер в любом случае. На самом деле, оглядываясь назад, я думаю, что мы никогда не должны были создавать Оазис, а вместо этого должны были бы сосредоточиться полностью на самодостаточности.

Что дальше?
Sandstorm будет продолжать существовать как проект с открытым исходным кодом. Я лично планирую перенести зерна Oasis на сервер, размещенный на собственной машине, и продолжаю использовать его. Я должен признать, что создание функции массового переноса было довольно забавным — я забыл, как мало времени требуется для создания важных функций в Meteor. И я все еще заинтересован в том, чтобы самостоятельно размещать свою электронную почту, могу ли я собрать достойный UX. Может быть, я буду вдохновлен, чтобы что-то построить на Песчаной Буре… посмотрим.

Однако после закрытия Oasis проект следует понимать как проект для хобби, а не как бизнес. Люди больше не должны полагаться на меня, работая в свободное время, чтобы защитить ваши данные или сделать их доступными.

Дата-центр Linode Sydney в Австралии



Мы с гордостью сообщаем, что в конце этого года Linode собирается запустить наш новейший дата-центр Linode Sydney. Это будет наш 11-й центр обработки данных во всем мире, и он станет следствием нашей недавней глобальной экспансии в Торонто и Мумбаи.

Это значительная веха для нас. С первых дней существования Linode большой австралийский регион неизменно представлял одно из наших крупнейших сообществ клиентов. Эти клиенты традиционно развернули облачные серверы в наших центрах обработки данных в Калифорнии, Сингапуре и Японии. С запуском Linode Sydney региональные клиенты теперь получат выгоду от низкой задержки и повышения производительности благодаря запуску своих современных приложений ближе к дому. А для тех разработчиков и организаций, которые раньше не могли использовать Linode, у них теперь есть другой выбор облачных провайдеров, который позволяет им соблюдать законы о суверенитете данных.

Запуск этого центра обработки данных расширяет нашу миссию по ускорению инноваций, делая облачные вычисления простыми, доступными и доступными для всех — теперь благодаря близости и качеству обслуживания, которого заслуживает Австралия.

Австралия — одно из самых популярных мест для инноваций в мире. Город Сидней является домом для почти половины всех австралийских стартапов, и внедрение общественного облака в стране растет с большей скоростью, чем где-либо еще в мире.

Некоторые из самых успешных стартапов в мире родились в Сиднее. Это город с динамичной экосистемой разработчиков и удивительным опытом создания компаний, которые выросли в лидеров мирового рынка. С нашим присутствием в Сиднее мы обеспечим облачную инфраструктуру, которая позволит следующим Atlassian и Canva
Дэн Спатаро, директор центра обработки данных и сетевых операций, Linode

Мы сфокусированы на лазерном подходе и делаем одно и только одно: упрощаем разработку, развертывание и масштабирование облачной инфраструктуры с наилучшим соотношением цены и производительности на рынке. Это формула, которой мы придерживаемся в течение 16 лет и которая помогла более 800 000 разработчиков и компаний внедрять инновации и расти быстрее.

Поддержка наших тысяч клиентов в Австралии на протяжении многих лет была просто удивительной. Это то, что мы ценим каждый день. Возможность доставить опыт в облаке, которого они ждали, является честью и привилегией.

https://www.linode.com

Bloomberg предоставляет 14 000 приложений только на одном терминале



Bloomberg предоставляет 14 000 приложений только на одном терминале, предоставляя информацию по всему миру с высокой надежностью и низкой задержкой. В 2016 году Bloomberg принял альфа-версию Kubernetes и с тех пор добился замечательных результатов. Смотрите тематическое исследование:

Если вы работаете в сфере финансовых услуг, терминал Bloomberg, вероятно, ваш лучший друг. За кулисами Bloomberg каждый день имеет дело с сотнями миллиардов данных, поступающих с финансовых рынков, и миллионами новостей из сотен тысяч источников. Только на Терминале есть 14 000 различных приложений. В таких масштабах доставка информации по всему миру с высокой надежностью и низкой задержкой является большой проблемой для более чем 5500 человек сильного инженерного отдела компании.

В последние годы команда разработчиков инфраструктуры работала над предоставлением инфраструктуры как службы, одновременно раскручивая множество виртуальных машин и масштабируя их по мере необходимости. «Но это не дало командам разработчиков достаточно гибкости для разработки приложений, особенно когда им нужно было масштабироваться быстрее, чем поступающие запросы», — говорит Андрей Рыбка, руководитель группы вычислительной архитектуры в офисе Bloomberg в CTO. «Нам нужно было равномерно распределить объекты по всей сети, и мы хотели, чтобы наше частное облако было таким же простым в использовании, как и общедоступное облако».

В 2016 году Bloomberg принял Kubernetes, когда он еще находился в альфа-версии, и с тех пор добился замечательных результатов, используя исходный код проекта. «С Kubernetes мы можем очень эффективно использовать наше оборудование до такой степени, что мы можем приблизиться к коэффициенту использования от 90 до 95%», — говорит Рыбка. Автоматическое масштабирование в Kubernetes позволяет системе гораздо быстрее удовлетворять потребности. Кроме того, Kubernetes «предложил нам возможность стандартизировать наш подход к созданию и управлению сервисами, что означает, что мы можем уделять больше времени работе над инструментами с открытым исходным кодом, которые мы поддерживаем», — говорит Стивен Бауэр, Инфраструктура данных и аналитики Вести. «Если мы хотим установить новый кластер в другом месте в мире, это действительно очень просто сделать. Все это всего лишь код. Конфигурация — это код».

www.cncf.io/case-study/bloomberg/
www.servers.ru/

По данным Bloomberg, Великобритания остается крупнейшим торговым центром на валютном рынке в 6,6 триллиона долларов, с долей рынка более 50%

У нас есть предприятие в Equinix LD6 в Слау, где находится обширная коллекция взаимосвязанных площадок для исполнения и торговых платформ.

Ускорение внедрения облачных технологий в Польше благодаря основному партнерству и новому облачному региону

Цифровые технологии становятся следующим двигателем роста польской экономики. Чтобы подготовить предприятия и общественные организации всех размеров к этому цифровому преобразованию, Польша должна иметь мощную технологическую основу и легкий доступ к новым инновациям, которые ускорят развитие бизнеса, наряду с инвестициями в технологические решения, программы поддержки, обучение цифровым навыкам и обмен знаниями. Вот почему мы формируем стратегическое партнерство с польским провайдером облачных услуг (DCP), помогая новым и признанным польским предприятиям использовать все возможности облака.

В рамках нашего стратегического партнерства DCP, который был основан совместно PKO Bank Polski и Польским фондом развития, станет реселлером сервисов Google Cloud в Польше и создаст возможности управляемых сервисов вокруг Google Cloud. Благодаря этому партнерству с DCP мы сможем расширить нашу поддержку польских предприятий, предоставляя передовую инфраструктуру и программное обеспечение, соответствующее их потребностям. Вместе наша цель — ускорить внедрение облачных технологий как крупными, так и малыми предприятиями во всех отраслях. В течение следующих пяти лет мы будем обучать экспертов, чтобы помочь польским предприятиям перейти в облачную среду, а также предоставлять советы и стратегические советы о том, как компании могут максимизировать преимущества своих облачных развертываний.

В рамках нашей приверженности Польше и Центральной и Восточной Европе (ЦВЕ) мы также откроем регион Google Cloud в Варшаве, Польша. В этом новом регионе клиенты Google Cloud, работающие в Центральной и Восточной Европе, выиграют от низкой задержки и высокой производительности своих облачных рабочих нагрузок и данных. Предназначенный для обеспечения высокой доступности, регион будет иметь три зоны для защиты от перебоев в работе и будет запущен с нашим портфелем ключевых продуктов, включая Compute Engine, App Engine, Google Kubernetes Engine, Cloud Bigtable, Cloud Spanner и BigQuery.



Это важный момент для польской экономики. Мы очень гордимся партнерством с Google Cloud и видим, как они привносят новый облачный регион в Варшаву. Глобальные предприятия уже наращивают свои конкурентные преимущества с помощью Google Cloud, и теперь мы сможем предложить клиентам в Польше те же самые передовые технологии, которые доступны во всем мире. Мы верим в мульти-облачную стратегию. Область Google Cloud вместе с нашей собственной инфраструктурой позволит нам создавать гибридные сервисы, которые принесут еще большую ценность для наших клиентов.
сказал Михаил Поточек, генеральный директор провайдера облачных услуг для внутреннего рынка

В Google инфраструктура остается ключевой областью инвестиций, которая лежит в основе всей нашей работы и поддержки всех наших продуктов. В настоящее время клиенты Google Cloud обслуживаются в 20 облачных регионах и 61 зоне доступности. После завершения строительства новый сайт в Варшаве станет частью всемирной сети безопасной и надежной инфраструктуры. Узнайте больше о местоположениях Google Cloud.

Сегодняшние объявления дополняют давнюю приверженность Google Польше и соседним странам. Ранее в этом году генеральный директор Google Сундар Пичаи посетил Варшаву, где объявил о намерении Google выделить 20 миллионов долларов на программы повышения квалификации в области цифровых технологий в регионе ЦВЕ. Кроме того, наш инженерный центр исследований и разработок в Варшаве продолжает расти с каждым годом, и в нем работают высококвалифицированные специалисты, которые работают над нашими глобальными облачными решениями.

Польша переживает период быстрого роста, ускоряет цифровую трансформацию и стала международным центром разработки программного обеспечения. Стратегическое партнерство с DCP и новым регионом Google Cloud в Варшаве согласуется с нашим стремлением стимулировать цифровую экономику Польши и упростит польским компаниям создание высокодоступных и значимых приложений для своих клиентов.

Сентябрь — День программиста, Vepp и история тарифа CPU.Турбо

Приветы!

Если усердно работать в День программиста, а все празднования отложить на потом, можно ненароком вызвать Ктулху одобрение начальника. Примета верняк.


Но шутки шутками, а если вы тоже забыли отпраздновать 256-ой день в году, то вот вам новый выпуск дайджеста. Отодвиньте клавиатуру в сторону, налейте чаю покрепче и устройте себе праздничный перерыв на актуальное чтиво.

Тем более, что в этот раз всем материалам мы подарили по два заголовка — общий для всех и альтернативный для программистов. Угадайте, кому какой.

«Тыжпрограммист»: когда устал от просьб настроить WP по-быстрому
Знакомьтесь — Vepp! Новая панель управления сервером Vepp создана для тех, кто ценит свое время и не хочет разбираться в разных технических деталях хостинга. Vepp самостоятельно привязывает домен, настраивает веб-сервер, создаёт базу данных и устанавливает CMS. Пара кликов — и сайт на Wordpress уже пашет в сети как миленький. И да, мы — первые, кто предлагает серверы с новинкой. Кстати, при заказе готового сервера панель на 1 месяц в подарок.
firstvds.ru/vepp


Как мы собирали сервер для нагруженных проектов
Железный подход к запуску тарифа и тесты Xeon E-2288G. Тадам! Приоткрыли дверь во внутреннюю кухню отдела эксплуатации и рассказали, как искали лучшее техническое решение для скоростного тарифа CPU.Турбо. Графики производительности процессоров, сюрпризы от Интела и сравнительное тестирование пяти виртуальных серверов — всё в нашей статье на Хабре.
hosting.kitchen/firstvds/zheleznye-5-ggc-istoriya-o-tom-kak-sobrat-superbystryy-vds.html

Как программист программисту: Strace — реально тема
Комиксы Джулии про Strace. Если не знали, утилита Strace — полезный инструмент, который помогает отслеживать системные вызовы и доставку сигналов между процессами и ядром Linux. Говорят, сильно облегчает работу программистов и системных администраторов. Проверьте, если не верите.
habr.com/ru/company/first/blog/467093/

Все переводы комиксов Джулии бережно храним в нашем блоге. Вот прям тут.
firstvds.ru/blog/julia_evans

Баги, о которых говорят все
Уязвимость в Exim (CVE-2019-15846)
По последним данным баг, позволяющий выполнить код с правами root, представляет угрозу только для тех серверов, где настроен прием входящих соединений TLS. В сентябре вышел корректирующий выпуск Exim 4.92.2. — если еще не обновились, то самое время. Подробнее на opennet.ru.

Уязвимость нулевого дня в phpMyAdmin (CVE-2019-12922)
Затрагивает все версии вплоть до 4.9.0.1. и позволяет удалять серверы в панели. Чтобы воспользоваться лазейкой в программе, атакующему нужно отправить специальную ссылку администратору, который уже авторизован в панели в том же браузере. Поэтому совет от капитана Очевидность — не кликайте на всякие подозрительные ссылки. Подробнее на xakep.ru.

Уязвимости в плагинах для WordPress
Хакеры нашли дыры в 10 плагинах и теперь пользуются ими, чтобы создавать новые учетные записи от имени администратора. Рекомендуется обновить все уязвимые плагины до актуальных версий и почистить ресурсы от «левых» учеток. Подробнее на xakep.ru.

Тысячи серверов Linux под угрозой
Пока эксперты пытаются заполучить и изучить образец шифровальщика Lilocked, малварь заражает все новые серверы: «портит» файлы и требует выкуп. Какими путями попадает на сервер пока неизвестно, но многие пользователи сетуют на дыры в Exim и старых версиях WordPress. Обновляйтесь и следите за уязвимостями — от всех опасностей не спасет, но лишним не будет. Подробнее на xakep.ru.

Железные 5 ГГц: история о том, как собрать супербыстрый VDS



Если бы наш старый добрый тариф «Форсаж» был человеком, то сейчас он бы нервно курил в сторонке и вспоминал лучшие годы. А ведь как хорошо всё начиналось. Тогда, в 2018 году, мы первыми подключили NVMe и модифицировали тариф с гибким масштабированием ресурсов, который жил с нами с 2016 года. Тогда он был самым быстрым из всех наших тарифов. Но времена меняются и несмотря на то, что Gold 5115 по-прежнему считается довольно шустрым процессором, уже появились решения и порезвее.

В общем, моя история о том, как Форсажу пришлось нехотя сойти с верхней ступени пьедестала и занять третье место по скорости после двух новых тарифов — «Битрикс.Турбо» и «CPU.Турбо», которые мы запустили в течение этого года.

Могу пообещать, что будет много подробностей про железо, тестов процессоров и (ну надо же) виртуальных машин и немного внутренней кухни. Итак, приступим.

Это гонка на выживание — сейчас будет весело!
В феврале 2019 года мы запустили новый тариф Битрикс.Турбо: серверы с процессорами Intel Core i9-9900K с тактовой частотой в 5 ГГц в режиме Turbo Boost. Мы гоняли тесты на производительность — тогда-то я и написал свою первую статью, а ребята из соседнего отдела пилили рецепт, чтобы выжать из Битрикса максимум. i9 оправдали наши ожидания, запуск состоялся. Всем спасибо, расходимся…

На самом деле Битрикс.Турбо оказался очень востребованным у наших клиентов. До сих пор только и успеваем серверы в кластер добавлять. Поэтому мы сделали выводы и решили не останавливаться на достигнутом, а продолжить свои изыскания в области высокочастотных процессоров.

Поскольку Битрикс.Турбо задумывался (и получился!) весьма специализированным тарифом, а Форсаж клиенты больше ценили за гибкость, было решено дополнить линейку именно скоростным тарифом для всех, кому надо «ещё круче, ещё быстрее».

Так как i9-9900K преподнесли нам пару «сюрпризов», мы сразу решили, что запускаться будем на других процессорах. Да, так все и было, уже на этапе проектирования аппаратного решения для Битрикс. Турбо мы получили «увлекательный и богатый опыт». Раз такое дело, немного отклонюсь в сторону от основного повествования и буквально в двух словах расскажу про этот экспириенс.

Стандартный сервер для тарифа Битрикс.Турбо собирается на одноюнитовой платформе: материнская плата на чипсете Intel Q370, процессор Intel i9-9900K, объём оперативной памяти 64 Гб, два NVMe-накопителя по 2 Тб в RAID1.

Внедрение такого решения было крайне весёлым и интересным. Дело в том, что по утверждению компании Intel, TDP данного процессора 95 Вт. И действительно, если использовать материнские платы, например, c чипсетом H310, процессор при пиковой нагрузке не выходит за указанные пределы: спокойно разгоняет одно ядро до 5 ГГц и остальные в пределах от 4,7 до 4,8 ГГц. Но если платформа использует чипсет классом выше, например, Q370 и улучшенное питание процессора, то процессор разгоняет до 5 ГГц уже большее количество ядер: от 2 до 5, а TDP увеличивается почти до 200 Вт.

Охладить такую «печку» в одноюнитовом исполнении — задача из бронхов (да уж, не из лёгких). Процессор начинал троттлиться и опускал частоту на всех ядрах до 4,4–4,5 ГГц. Контролировать такую ситуацию было крайне сложно. Честно говоря, я впервые столкнулся с настолько сильным несоответствием спецификации и реального воплощения у столь крупного и серьёзного производителя, как Синие.

Ввиду того, что на тот момент это был единственный доступный процессор со столь высокими штатными частотами, нам пришлось хорошо поработать перед тем, как позволить себе использовать его для нового тарифа, и прибегнуть к достаточно нетривиальным решениям: задействовать специальные корпуса с мощным воздушным охлаждением и организовать не менее крутое охлаждение стоек. Всё это вкупе позволяет сделать так, чтобы больше ядер работали в максимуме на частоте 5 ГГц без перегрева и троттлинга, но увеличивает энергопотребление и шум, дикий шум.

К сожалению, на тот момент времени внедрить жидкостное охлаждение мы не могли: с одной стороны, не было подходящего решения в нужном количестве для запуска, с другой, была масса вопросов к надёжности существующих, — утопить серверы крайне не хотелось.

Теперь вернёмся к основному повествованию.

Танцы на граблях


Как известно, производители процессоров тестируют свои решения на десктопном рынке и, в случае положительного результата, реализуют их в серверном сегменте. Нам оставалось только ждать появления серверного аналога Intel i9-9900K. И почти год спустя такой аналог появился — им стал Intel Xeon E-2288G. Компания Intel учла недостатки предшественника: процессор стал жёстко ограничен в теплопакете (95 Вт). Как и в любом серверном процессоре от Intel, появилась память с поддержкой ECC, а максимальный поддерживаемый объём вырос до 128 Гб.

С процессором разобрались, пришло время разобраться с серверной платформой. Поиск подходящей стал для нас серьезной проблемой, так как мы искали ту, которая устроила бы нас по тактико-техническим характеристикам, имела адекватную стоимость и поддерживала все возможности столь быстрого камня.

Поскольку процессор новый, выбор платформ оказался весьма и весьма ограниченным. После тщательного и дотошного изучения мы остановились на трех вариантах: первая отвалилась при первых тестах, — производитель выпустил сырой релиз прошивки платформы с поддержкой E-2288G, с которой всё решение работало крайне нестабильно, а ждать нового релиза и стабилизации платформы можно было только к концу года. Вторая не позволяла организовать полноценное охлаждение цепей питания, что очень важно для этого процессора. Новый процессор оказался им не по зубам. А вот третья подошла по всем параметрам. Не только оправдала, но даже превзошла наши ожидания. Модели раскрывать не могу — коммерческая тайна.

Также мы решили отказаться от экстремального воздушного охлаждения в пользу жидкостного (далее «водяное»), на которое постепенно планируем перевести и серверы для проекта Битрикс.Турбо. Прогресс не стоит на месте, и это прекрасно.

В результате переход на водяное охлаждение позволил поднять производительность как Intel i9-9900K, так и Intel Xeon E-2288G, не переходя температурный порог в 65 градусов в максимально длительной нагрузке во все потоки. Потратив уйму времени на отработку всех возможностей, а также всех возможных и даже невозможных внештатных ситуаций (я сильно скептически относился к «воде»), прогнав длительные тесты на максимальных нагрузках, даже я был вынужден согласиться, что это решение заслуживает того, чтобы жить долго и счастливо. Поэтому знакомьтесь — новый тариф CPU.Турбо.

Тактико-технические характеристики «железа» и софта для нового тарифа
Железо. Одноюнитовая однопроцессорная платформа, процессор Intel Xeon E-2288G с системой водяного охлаждения, 64 Гб ECC ОЗУ, дисковая подсистема на двух NVMe-накопителях Intel M.2 в RAID1.

Софт. Так как мы используем панели ISPsystem VMmanager 5, то выбор ОС у нас не особо богатый, поэтому ОС Linux CentOS 7 с ядром Oracle Unbreakable Enterprise Kernel Release 5 (UEK5) 4.14, qemu 2.12, libvirt 4.5.

Тестирование
В этот раз тестирование проводилось в два захода.

Сначала мы сравнили процессоры: i9-9900K на «воздухе», i9-9900K на «воде» и E-2288G на «воде». Проводить полный комплект тестов на последнем с воздушным охлаждением не стали из-за бессмысленности затеи — сразу было понятно, что и как будет. Также не стал я загонять в тест и процессор Intel Gold 5115, который используется на тарифе «Форсаж». Эти серверы идут в двухпроцессорной конфигурации и в многопоточных тестах теряется чистота сравнения.

Затем мы запустили тестирование пяти виртуальных машин: одна на тарифе Форсаж и четыре на CPU.Турбо. Тестирование производилось с эмуляцией процессора хоста, на пустом родительском сервере (без соседей) в вариациях тарифов «2 ядра/4 гига» (это самая популярная из сопоставимых конфигурация на «Форсаже»).


Тактико-технические характеристики платформ
Тариф Битрикс. Турбо
  • Intel i9-9900K
  • Материнская плата: Asus PRIME Q370M-C
  • Оперативная память: 16 Гб DDR4-2666MT/s Kingston 4 штуки
  • SSD-накопитель: 2 Тб Intel NVMe M.2 2 штуки в RAID1

Тариф CPU.Турбо
  • Intel Xeon E-2288G
  • Оперативная память: 16 Гб DDR4-2666MT/s Kingston 4 штуки
  • SSD-накопитель: 2 Тб Intel NVMe M.2 2 штуки в RAID1
Список тестов, которые проводились:
  • Geekbench
  • Sysbench
  • Phoronix Test Suite

Подробное описание этого комплекса есть в моей прошлой статье. Однажды соберусь с духом, добавлю подробностей и опубликуем отдельно.

Результаты тестирования процессоров


По результатам теста Geekbench в однопоточном режиме Xeon E-2288G немного отстаёт от i9-9900K — разница составляет всего 0,8%. В многопоточном режиме отстает уже i9-9900k — на 7,63%.

Результаты других тестов







Во всех тестах, за исключением GeekBench, i9-9900K на «воде» лучше себя самого на «воздухе». E-2288G лучше своего «прародителя» по всем тестам, за исключением однопоточного теста GeekBench и теста Apache. Полагаю, что на результаты в этих тестах повлияли внутренние оптимизации процессора, которые и позволили упаковать его в стабильный теплопакет. В прочих однопоточных тестах производительность на одном уровне с погрешностью — выше 5 ГГц не прыгнем:-)

Едем дальше.

Тестирование виртуальных серверов
Сравнивать будем аж пять виртуальных машин.

Прежде всего, как и всегда, виртуальная машина под управлением ОС CentOS Linux 7 со стоковым ядром 3.10. Так же, ввиду того, что на хост-сервере используется кастомное ядро Unbreakable Enterprise Kernel Release 5 (UEK5) от Oracle, которое позволяет поднять производительность на новых процессорах, посмотрим, как изменится производительность виртуальной машины с CentOS 7 и ядром UEK5 (4.14) внутри на тарифе CPU.Турбо. Коли уж я взял в тест CentOS 7 с двумя разными ядрами, почему бы не посмотреть на прохождение тестов виртуальными машинами на других операционных системах семейства Linux и других версиях ядра? Возьмём последние версии Ubuntu LTS и Debian: Ubuntu 18.04 (ядро 4.15) и Debian 10 (ядро 4.19).

Итак, у стартовой черты:
  • Форсаж CentOS 7 (3.10),
  • CPU.Турбо CentOS 7 (3.10),
  • CPU.Турбо CentOS 7 (uek5 4.14),
  • CPU.Турбо Ubuntu 18.04 (4.15),
  • CPU.Турбо Debian 10 (4.19).

Таким образом, мы сравним и два тарифа, и две CentOS 7 с разными ядрами, и 3 версии популярных ОС. Давно хотел замутить такую штуку, не знал, в какую статью засунуть:-)

Тесты — те же, ну очень я их люблю.
Результаты тестирования виртуальных серверов

По результатам теста Geekbench в однопоточном режиме первое место у ВМ CPU.Турбо с ядром UEK5. При этом разница между Форсажем и CPU.Турбо (3.10) уже составляет 65,02%, а с ядром UEK5 — и все 67,01%. Разница между CPU.Турбо на Centos 7 и на Debian — 0,2% в пользу UEK5.

В многопоточном режиме первенство у CPU.Турбо Debian. Он опережает CPU.Турбо (3.10) на 2,19%, а CPU.Турбо (UEK) на 1,13%. При этом CPU.Турбо (3.10) опережает Форсаж на 55,48%. Разница между CPU.Турбо (UEK) и Форсажем достигает 57,13%.







В однопоточном и многопоточном тесте Geekbench, а также тестах Sysbench, C-ray, OpenSSL примерно на одном уровне идут CentOS 7 с обоими ядрами и Debian 10. На предпоследнем месте Ubuntu 18.04.

В тесте на сжатие: Compress-7zip и Compress-bzip — первое место у Debian 10, второе место делят CentOS 7 с обоими ядрами, третье место у Ubuntu 18.04.

В тесте encode-mp3 места распределились следующим образом: Debian 10, Ubuntu 18.04, CentOS 7 UEK5, CentOS 7 с ядром 3.10.

В однопоточном тесте Himeno первое и второе место у CentOS 7 3.10 и CentOS 7 UEK5, третье — Debian 10, четвёртое с большим отставание у Ubuntu 18.04.

В тесте ffmpeg первое место у CentOS 7 UEK5, второе у Debian 10, третье место разделили CentOS 7 3.10 и Ubuntu 18.04.

В тесте John The Ripper первое место у Debian 10, второе — с одинаковым результатом обе CentOS 7, третье — Ubuntu 18.04.

В тесте Apache с большим отрывом лидирует CentOS7 UEK5, далее Debian 10, CentOS 7 3.10, Ubuntu 18.04.

В тесте GCC разница между ВМ на тарифе CPU.Турбо незначительна.

Во всех тестах последнее месте у ВМ на тарифе Форсаж — ощущается разница в частотах.



Интересно прошёл тест виртуальных машин. Отставание ВМ на тарифе «Форсаж» было очевидно. Так же были очевидны результаты у ВМ с CentOS 7 с разными ядрами: они должны были быть близки или с небольшим с перевесом в сторону более свежего ядра. Неожиданным стал только тест Apache. Но полным откровением стали результаты Debian 10 и Ubuntu 18.04 — лидирование в большинстве тестов Debian 10 и отставание так же в большинстве тестов Ubuntu 18.04.

Сказать, что именно влияет на такой разброс результатов, мне сложно. Возможно, более свежее ядро и софт. Или набор сервисов, запущенных «из коробки»: тесты проводились на свежеразвёрнутых ВМ без каких-либо настроек. Если Debian 10 после старта запускает очень небольшое количество сервисов, которые можно пересчитать на пальцах двух рук опытного фрезеровщика, то Ubuntu 18.04 не стал упаковывать себя в такие узкие рамки:-)

В целом, для тех, кто решит на собственном опыте убедиться в том, что новый тариф CPU.Турбо по праву зовется скоростным, рекомендую учесть два момента. Во-первых, операционка — на Debian будет быстрее без шаманства, с CentOS 7 тоже отлично, а если поколдовать с ядром, так вообще супер. Кому интересна установка UEK5 на CentOS 7 — го в комментарии. А во-вторых, следует помнить, что тестировали мы все-таки на пустых нодах. И значит, под нагрузкой результаты будут несколько иными, но все равно высокими. Всем добра.

До 3 октября серверы на тарифе CPU.Турбо можно заказать со скидкой 25% на 1 месяц по промокоду CPU_TURBO. Промокод сгорит в полночь на 4 октября 2019 года. Также можно взять сервер на бесплатный трехдневный тест.

P.S. На всех фотографиях наш HR Generalist Соня.