Hi-CPU VPS - Russia - E2288G 5.0 Ghz!



В российский дата-центр PQ.Hosting прибыло очень мощное пополнение – новейшие процессоры Intel E2288G частотой 5.0 ГГц. Кроме того, на всех новых машинах установлена оперативная память DDR4 ECC и диски NVMe SSD.

В довершение ко всему, наши российские серверы находятся под супернадежной защитой DDOS GUARD, в дата-центре DataPro, сертификацией TIER III.

Для всех новых серверов мы создали отдельные тарифы, которые вам наверняка понравятся. Знакомьтесь, подключайтесь, наслаждайтесь идеальным хостингом!

В данный момент, тарифы доступы для заказа в биллинге.
bill.pq.hosting

Главные ресурсные компоненты хостинга, на которые стоит обратить внимание



  • Непрерывная доступность. Чем выше показатель безотказной работы хостинга, тем больше ему можно доверять.
  • Место на диске и оперативная память. Важно, чтобы для хранения использовались быстрые диски на твердотельных накопителях (SSD), а размер оперативной памяти позволял совершать все необходимые операции.
  • Мощность процессора. Его основные параметры – число ядер, тактовая частота и размер быстрой памяти (кэша). Чем выше каждый из них, тем большее количество данных могут одновременно обрабатывать сервера хостинга.
  • Пропускная способность канала передачи данных, которая влияет на то, как быстро пользователи получат доступ к веб-ресурсу. Чем она больше – тем больше посетителей одновременно сайт принимает без потери производительности.

На нашем сайте zomro.com/virtual.html Вы можете найти всю необходимую информацию по услугам, а также обратиться к консультантам в чате или по телефону для выбора оптимального решения для Ваших проектов.

Качественный DNS-хостинг



Долгое время ищешь качественный DNS-хостинг для своего домена?

Теперь, на SpaceCore каждый может получить DNS-хостинг абсолютно бесплатно! NS-серверы расположены сразу в нескольких локациях и защищены от DDoS-атак, что гарантирует высокий UpTime!

Бесплатно заказать услугу Вы можете в нашем биллинге — billing.spacecore.pro

Остались вопросы? Мы ответим!
Email: support@spacecore.pro
Telegram: @spacecore_pro
VK: vk.com/spacecore_pro

Будьте готовы к сетевому пулу передачи!

  • UPcloud


Потребности в сетевой передаче между облачными серверами могут сильно различаться, из-за чего одни исчерпывают свои квоты, в то время как другие мало используют пакетную передачу. Мы всегда следим за интересами наших пользователей, поэтому 1 октября 2020 года мы представим Network Transfer Pool всем пользователям общедоступного облака!

Представляем сетевой пул передачи
Пул передачи сети, как следует из названия, объединяет все квоты передачи, включенные во все ваши продукты и услуги UpCloud, в единый пул передачи для всей учетной записи. Сюда входят все квоты передачи для всех центров обработки данных, охватывающие все текущие облачные серверы, а также любые будущие продукты, которые содержат квоты для исходящей передачи.

Общий пул передачи делится на количество часов в календарном месяце для почасовой квоты использования ваших сервисов UpCloud. Любая исходящая передача данных по сети вашими серверами сначала бесплатно вычитается из пула до почасовой квоты.

Пул сетевой передачи обеспечит большую гибкость в конфигурациях услуг. Это позволит вашим интерфейсным серверам и серверам балансировки нагрузки полностью использовать квоты передачи, которые ваша база данных и другие внутренние серверы в противном случае отказались бы.

Пример нового сетевого пула передачи:
  • Облачные сервисы имеют объединенный сетевой пул передачи размером 36 ТБ
  • Пул делится на 720 часов для почасовой квоты передачи 50 ГБ.
  • Для исходящей сетевой передачи сначала используется почасовая квота в 50 ГБ.
  • Любая передача, превышающая 50 ГБ в течение одного часа, оплачивается из расчета 0,01 доллара США за ГБ.
  • Почасовая квота переноса рассчитывается снова в начале следующего расчетного часа, чтобы автоматически отражать любые изменения развертывания в ваших облачных сервисах.



С Network Transfer Pool вы получите большую свободу в использовании квот передачи, включенных в ваши сервисы UpCloud. Кроме того, все переводы внутри частных сетей SDN и служебных сетей остаются безлимитными и бесплатными!

Новый сетевой пул передачи вступает в силу в 00:00 UTC 1 октября 2020 года! Подробнее читайте в объявлении о Network Transfer Pool.

upcloud.com/docs/networking/#network-transfer-pool

Скидки на всё до 30%!



Привет!

Мы запускаем одну из крупнейших распродаж в истории MskHost.
С сегодняшнего дня до 21.09 (понедельника, включительно) действуют скидки до 30% на заказ и продление всех услуг.

Полный список скидок
1) На заказ:
— Виртуальные серверы VPS/VDS 20%
— Выделенные серверы 10%
— Веб-хостинг 30%
— AntiDDoS-защита 30%

2) На продление:
— Виртуальные серверы VPS/VDS 10%
— Выделенные серверы 5%
— Веб-хостинг 15%
— AntiDDoS-защита 15%

Скидки уже активированы в личном кабинете, каких-либо промо-кодов вводить не требуется: my.msk.host
Добро пожаловать!

Scaleway расширяет свое присутствие в Европе за счет нового региона в Варшаве, Польша (WAW1)



17 сентября 2020 года мы открыли новый регион в Варшаве (WAW1), чтобы удовлетворить потребности местных пользователей, стартапов и мировых компаний. После Парижа, а затем Амстердама этот новый регион является важной вехой в нашем глобальном расширении и стимулировании инноваций по всей стране и Европе.

Имея глобальную клиентскую базу, охватывающую более 160 стран, мы знали, что нам нужно предлагать больше возможностей, приближаясь к нашим клиентам и их конечным пользователям. Этот новый регион помогает нам удовлетворить быстро растущую потребность в надежных, инновационных, многооблачных и конкурентоспособных решениях общедоступного облака в Польше и Восточной Европе — области, на которую не обращают внимания многие провайдеры облачных вычислений.

WAW1: ответ на мультиоблачную стратегию в быстро развивающихся экосистемах
Стратегическое расположение, обеспечивающее более высокую доступность для наших клиентов из Восточной, Западной и Центральной Европы в Россию.
Мы стремимся расширять присутствие наших клиентов в Европе, обеспечивая при этом более высокую устойчивость, доступность и надежность. Создав многорегиональную инфраструктуру, наши клиенты смогут повысить производительность и значительно сократить время ожидания.

Решение об открытии нового региона в Варшаве окажет положительное влияние на прилегающую территорию и ее техническую экосистему. Варшава стала центром технических услуг. Это центральное расположение было выбрано в первую очередь из-за его сетевых преимуществ и, несомненно, обеспечивает оптимальную задержку при соединении Восточной, Западной и Северной Европы. Таким образом, Варшава позволяет нам лучше обслуживать наших клиентов не только в Польше, но и в Чехии, Румынии, Восточной Германии и на Балканах, а также в Скандинавии, России и Украине.
объясняет Ян Лешель, наш генеральный директор.

Надежные и экономичные решения для публичного облака
Мы также стремимся всегда предоставлять нашим клиентам высокопроизводительные решения по разумной цене. Янн добавляет:
Региональная экосистема стартапов находится на переднем крае европейской технической сцены. Эти облачные компании уделяют все большее внимание потребности в эффективных европейских цифровых ресурсах, чтобы избежать привязки к поставщику и тем самым оптимизировать свои расходы. Риск привязки к поставщику стал решающим фактором в облачной стратегии многих компаний. В этом контексте наше предложение полностью актуально: наш набор мощных, экономичных и европейских продуктов позволяет клиентам добиться большей устойчивости и повышения производительности.

Углеродно-нейтральный след
Наконец, мы стремимся предоставить вам инновационные устойчивые решения для разумного облака. Действительно, WAW1 является углеродно-нейтральным (с углеродной компенсацией), что позволяет нам оставаться устойчивыми и гордиться своим подходом.

Цель — предоставить всю нашу экосистему публичного облака в Варшаве
В качестве первого шага в Варшаве мы решили предложить два наших основных продукта в этом регионе: виртуальные экземпляры (экземпляры для разработки и общего назначения) и класс Object Storage Standard. В следующие несколько недель мы сосредоточимся на том, чтобы остальная часть нашей экосистемы публичного облака также была доступна в Варшаве.

Вы уже можете запустить свои виртуальные экземпляры и сегменты объектного хранилища (стандартный класс) в Варшаве, выбрав регион WAW1 через консоль Scaleway или API.


www.scaleway.com/en/virtual-instances/development/
www.scaleway.com/en/virtual-instances/general-purpose/
www.scaleway.com/en/object-storage/

Бесплатная DDoS-защита для сайта



Уважаемые клиенты!

Акция до 17.09.2020 включительно — получите WEB-защиту для вашего сайта бесплатно на месяц.

Для подключения бесплатного периода необходимо всего лишь создать запрос в службу поддержки, указав IP сервера с сайтом и доменное имя.

Подробнее о тарифах удаленной защиты: msk.host/products/ddos-protection

Облачный провайдер Cloud4Y перешёл на SSD-накопители объёмом 30 ТБ



Клиенты компании получили самые новые накопители повышенной ёмкости. Скорость работы стала выше, а стоимость хранения данных осталась на прежнем уровне.

Объём информации, генерируемой и хранимой клиентами Cloud4Y, стремительно растёт. Этому способствует несколько факторов: повышенный интерес к технологиям удалённой работы, понимание ценности использования больших данных, доступность облачных решений, требования законодательства в области хранения персональных данных. Чтобы повысить комфорт работы с облачной платформой Cloud4Y и гарантировать корпоративным клиентам любое запрашиваемое количество ресурсов, было принято решение расширить ИТ-парк и заменить имеющиеся SSD на накопители повышенной ёмкости.

Ранее корпоративный облачный провайдер использовал SSD-накопители объёмом 7,5 ТБ. А осенью 2020 года перешёл на более современные и энергоэффективные носители объёмом 30 ТБ. Эти устройства предназначаются для корпоративных клиентов и дата-центров нового поколения. Их отличает высокая износостойкость, увеличенная по сравнению с предыдущими моделями производительность.

При более чем трёхкратном увеличении ёмкости Cloud4Y удалось снизить энергопотребление и оптимизировать использование свободного пространства в стойках. Поэтому можно сказать, что от обновления выиграли все. Провайдер смог более эффективно использовать стойки и места в полках, а клиенты — высокую скорость работы и возможность хранить базы данных любого объёма на прежних условиях.

Оценить качество услуг корпоративного облачного провайдера Cloud4Y можно, воспользовавшись бесплатным тестовым доступом. Для этого свяжитесь с менеджерами компании или отправьте запрос по email.

Новые мощные серверы по низкой цене



Мы приготовили для вас, пожалуй, лучшее на сегодня решение по аренде физических (выделенных) серверов. Новое, только что купленное, мощное железо на базе процессора Intel Xeon E-2244G. Такой сервер обеспечит высокую производительность и стабильную работу крупного проекта.

Преимущества:
  • ваш сервер будет располагаться в дата-центре, спроектированном в соответствии со стандартом надежности Tier3;
  • 3 независимых магистральных провайдера, пропускная способность каналов — до 25 Гб/с при гарантированных 100 Мб/с, неограниченный трафик;
  • лучшая цена на рынке, просто сравните!

А еще:
  • крутая техническая поддержка, среднее время ответа — 34 минуты;
  • скидки до 7% при оплате на длительный срок;
  • серверы в наличии, время сборки — от 2 часов до 3 дней;
  • панель управления, позволяющая менять параметры конфигурации;
  • домен .RU/.РФ и 3000 рублей на рекламу в Google в подарок.

www.majordomo.ru/arenda-servera

Yandex.Cloud. Эпизод 1. Скрытые возможности дата-центров

Как устроены дата-центры? Почему мы сами проектируем и собираем стойки? Как мы определяем SLA и принимаем решения, которые непосредственно формируют надёжность и отказоустойчивость облачных сервисов? Открываем серию статей, в которых подробно расскажем о внутреннем устройстве нашей облачной платформы — от ЦОДов до работы технической поддержки, — а вы узнаете какие вопросы нужно задавать и какие меры принимать, чтобы ваша компания всегда была онлайн.



Наши дата-центры: разработаны и построены Яндексом
Компании и люди по всему миру каждый день генерируют терабайты данных, которые как минимум нужно хранить, а как максимум — обрабатывать и анализировать. Для этого по всему миру строятся дата-центры —огромные, специально спроектированные, сложные инженерные сооружение, которые способны обеспечивать непрерывную работу мощных серверов.

Но мало построить ЦОД и наполнить его оборудованием, нужно предусмотреть бесперебойную работу множества главных и вспомогательных систем. В первую очередь это касается электричества и охлаждения. Понимая, что серверные мощности будут расти с каждым годом, ЦОДы уже сейчас строятся рядом с дешёвыми и надежными источниками электроэнергии.

Все современные технологические гиганты, такие, как Google, Facebook, Microsoft и, конечно Яндекс, стремясь добиться максимальной надёжности и энергоэффективности, возводят распределённые сети собственных дата-центров. Именно в них и «живут» облака.

Tier дата-центра: так ли важен этот сертификат?
Главные показатели надёжности любого дата-центра — его отказоустойчивость и количество резервных инженерных систем. Опираясь на эту концепцию, в мире используется международный стандарт TIA-942 и система классификации института Uptime. Согласно нему, все ЦОДы характеризуется уровнем Tier и оценивается по 4-балльной системе:
  • Tier 1 — начальный уровень. В таких ЦОД нет запасных ресурсов и резервирования критически важных элементов. Допустимое время простоя в год — 28,8 часа, и, соответственно, показатель доступности и устойчивости к отказам в процентном соотношении — 99,671%. Выход из строя любой системы приводит к остановке и нарушениям работы всего дата-центра.
  • Tier 2 — закладывается резервирование и запасные ресурсы. Устанавливаются современные системы охлаждения и энергосбережения. Ежегодный простой — 22 часа, доступность — 99,7%. При замене неисправного оборудования или во время плановых работ полностью или частично останавливается работа ЦОД.
  • Tier 3 — можно ремонтировать и обновлять дата-центр без остановки и прекращения работы. В течение одного года простой ЦОДа третьего уровня составляет всего 1,6 часа, а устойчивость к отказу — 99,9%.
  • Tier 4 — сохранность данных и бесперебойная работа даже при поломке конкретного элемента и при возникновении системных сбоев. Полное резервирование всех компонентов. В течение 12 месяцев ЦОД четвёртого уровня может останавливаться только на 0,4 часа, а уровень устойчивости к отказам таких объектов составляет практически 100 процентов.

Проблема с такой классификацией в том, что на всех уровнях учитываются в основном схемотехнические и инженерные особенности. Изначально стандарт создавался для определения отказоустойчивости коммерческих дата-центров. Более того, получение сертификата Tier никак не измеряет реальное значение доступности услуг. Что же остается за кадром? Например:
  • Реальная надежность поставщиков электроэнергии.
  • Особенности эксплуатации каждого устройства, включая режим, в котором оно будет использоваться, показатели его собственной надежности, условия сопряжения именно этого оборудования с другими элементами системы
  • Человеческий фактор.

Очевидно, что можно построить ЦОД, отвечающий самым высоким требованиям по схеме резервирования, который в реальной жизни не будет выдавать заявленные характеристики. Как говорят инженеры, «ток течет не по сертификатам, а по проводам».

Также, в современных реалиях необходимо включить в уравнение надёжность сетевой инфраструктуры и компонентов облачной платформы, используемой провайдером ЦОД.

Новый уровень надёжности — сертификация на операционную устойчивость
Следует заметить, что Uptime Institute учитывает приведенные выше факторы и предлагает коммерческим ЦОД пройти сертификацию на операционную устойчивость. Процедура сертификации сфокусирована не на проектном решении или его реализации, а на том, насколько команда эксплуатации способна профессионально его обслуживать и применять процессы, обеспечивающие максимальную надежность работы оборудования и минимум ошибок при выполнении всех видов обслуживания.

Проанализировав содержание и смысл такой сертификации, команда эксплуатации Яндекса пришла к выводу, что она применима не только для коммерческих, но, с небольшими коррективами, и для корпоративных ЦОД. Как результат, в 2018 году мы в качестве эксперимента прошли сертификацию M& O, убедившись, что принципы, которые мы используем для работы в наших ЦОД полностью соответствуют тем же высоким требованиям, что выдвигаются и к лучшим коммерческим ЦОД. На сегодняшний день в России только три ЦОД прошли такую сертификацию. Сравните эту цифру с полусотней обладателей сертификата Tier: uptimeinstitute.com/uptime-institute-awards/list.

SLA — уровень обслуживания, под которым мы подписались
Вместо подтверждения Tier, на данный момент, Яндекс предлагает соглашение об уровне обслуживания — SLA. Такой договор между клиентом и оператором дата-центра формализует и делает более прозрачным взаимодействие с потребителями услуг, и, конечно, гарантирует высокий уровень надёжности и бесперебойную работу в любых ситуациях. Это достигается за счет использования собственных инженерных решений, о которых будет рассказано ниже, соответствия процессов эксплуатации инженерной инфраструктуры лучшим практикам и применением современных подходов к обеспечению отказоустойчивости на уровне программных решений облачной инфраструктуры и сервисов.

Стоит сразу отметить, что фактические показали непрерывной работы дата-центров, которые использует Yandex.Cloud, за три последних года не опускались ниже 99,9996%, что фактически выше уровня Tier 3.

Мы сами разработали стойки, серверы и системы управления для экономии денег, времени и электричества
Яндекс построил и использует три основных дата-центра: Сасово, Владимир и Мытищи, соединённых между собой оптической кабельной сетью с очень высокой пропускной способностью — несколько терабит в секунду. Они образуют распределенную систему, которая позволяет балансировать нагрузку и резервировать не только отдельные инженерные системы на уровне каждого ЦОД, но и сами ЦОД.


Конечно, основная задача дата-центра — хранение данных и выполнение вычислений. В Яндексе устанавливаются сервера и серверные стойки, произведённые вендорами по нашей спецификации.

До 2011 года оборудование было чужое. Это приводило к тому, что серверы от различных производителей по-разному вели себя под одинаковой нагрузкой. Встречались даже ситуации, когда потребление воздуха у одних было в несколько раз больше, чем у других, и их нельзя было ставить рядом. Сильно потребляющие воздух сервера «отъедали» его у своих соседей, создавая зоны локального разряжения. Это приводило к появлению дисбаланса и необходимости ручного управления, словом, к потере времени, энергии и денег.

В 2011 году мы окончательно поняли, что нам нужны свои серверы и стойки. Под стойкой мы подразумеваем не просто металлический шкаф, в который устанавливаются серверы, а законченный модуль, в котором используются общие блоки питания, общее охлаждение и общее управление. В настоящее время используется уже третья версия стоек, а постоянно изменяющиеся требования заказчиков найдут свое отражение в новых версиях в ближайшее время.

Собирают стойки 3.0 на заводе в Китае, где налажена отдельная производственная линия. Во время сборки в систему управления стойки прошивается разработанное Яндексом программное обеспечение, основанное на проекте OpenBMC. Благодаря этому удалось реализовать алгоритм термостатирования температур процессоров — мы можем задавать их для каждой стойки (и даже для каждого сервера, но в этом обычно нет необходимости) с помощью внешнего интерфейса (API) системы управления.

Электричество в дата-центрах: прямое подключение и генераторы
Качественное железо, уникальные сервисы — всё это может пропасть в один момент, если правильно не спроектировать бесперебойное электроснабжение. Дата-центр может быть автономной структурой, но он всегда подключён к внешней электрической сети, а значит, не застрахован от форсмажоров. Однако, в зависимости от типа подключений и возраста оборудования можно достаточно достоверно спрогнозировать частоту проблем с электропитанием. Поэтому подход, избранный Яндексом — подключение по линиям высокого напряжения (110 кВ и выше) непосредственно к сетям национальных операторов со строительством собственных кабельных линий и подстанций.

Бесперебойность обычно обеспечивает классической схемой — комплексом «ИБП + дизель-генераторная установка (ДГУ)». Это классическая и отработанная годами схема работы для обеспечения бесперебойного питания в ДЦ. Она имеет массу плюсов — относительная простота, высокая надёжность, практически неограниченное время работы на дизелях. Но и свои минусы: как технические — необходимы достаточно большие площади для размещения оборудования, которые нужно обязательно оборудовать системами поддержания заданных климатических параметров, так и финансовые — при больших мощностях это решение получается достаточно дорогим.

В настоящее время Яндекс использует технологию ДРИБП — Дизельных Роторных Источников Бесперебойного Питания (DRUPS — Diesel Rotary Uninterruptible Power Supply). ДРИБП запасает не электрическую, а кинетическую энергию: внешнее электричество питает электромотор, который вращает огромный маховик и через дроссель вырабатывает «очищенное» питание. То есть ДРИБП выполняет функции стабилизатора и фильтра напряжения. Если внешнее напряжение пропадает, мотор превращается в генератор, вращение которого поддерживается вращающимся по инерции маховиком. В это время происходит запуск дизель-генератора.


В наших ЦОД используются ДРИБП разных производителей, отличающиеся в деталях реализации. Однако, в целом, такой вид ИБП показал свою жизнеспособность в условиях ЦОД. Конечно, как и всякое оборудование, эти сложные устройства требуют внимания и аккуратности при обслуживании. Поэтому внутри нашей команды эксплуатации организованы специальные группы специалистов по силовому оборудованию, обученные непосредственно производителями и способные решать большинство задач по обслуживанию ИБП без привлечения сторонних организаций.

Охладить и не прогореть. При чем тут фрикулинг?
Другая важнейшая проблема любого ЦОД — отвод тепла от стоек. Однако, в данном случае охлаждение это не просто вопрос количества охлаждающих элементов. Чем сложнее система кондиционирования, тем больше она потребляет электричества и тем чаще возникают различные поломки, которые могут даже останавливать работу всего дата-центра.

В качестве системы охлаждения Яндекс использует концепцию фрикулинга в самом прямом смысле этого слова. Его смысл заключается в том, что разработанное нами серверное оборудование способно работать при достаточно высоких температурах входящего воздуха. Поэтому охлаждать серверные стойки можно самым обычным уличным воздухом и зимой, и летом. Самое важное — специально продуманный дизайн серверного оборудования и всего дата-центра.

В дата-центре с фрикулингом весь процесс охлаждения устроен примерно так: приточные вентиляторы через фильтры нагнетают уличный воздух в холодный коридор, он проходит через серверные стойки, нагревается, из горячего коридора собирается в коллекторе, а дальше часть удаляется наружу вытяжными вентиляторами, а часть используется для смешивания с поступающим снаружи воздухом, чтобы поддерживать его температуру на стабильном уровне. Если температура на улице выше 20 градусов, то весь горячий воздух выводится наружу. Для того, чтобы воздушные массы двигались только в нужном направлении (холодный коридор, горячий коридор, горячий коллектор), между ними поддерживаются небольшие перепады давления. Это можно сделать, регулируя работу вентиляторов притока и вытяжки и настраивая балансировочные клапаны между горячими коридорами и горячим коллектором.

Главное достоинство такой системы — сравнительно низкое потребление энергии, которая нужна только для работы вентиляторов, и простота — здесь нет громоздкого и сложного холодильного оборудования, которое может сломаться и нарушить стабильность работы. Именно фрикулинг позволяет Яндексу гордиться энергоэффективностью своих дата-центров последнего поколения: в Сасово и Владимире мы добились показателя PUE — эффективности использования энергии — в пределах 1,05-1,07. При этом надежность системы охлаждения возросла, так как количество компонентов в ней существенно снизилось.



9 ответов про дата-центры, которые помогут оценить надёжность облака
Итак, мы разобрались, что в основе надёжности любой облачной платформы лежит дата-центр или система дата-центров. Это значит, что первым делом при выборе «облака» вы должны задать следующие вопросы:
  • Сколько дата-центров обслуживает «облако»?
  • Где они расположены?
  • Как они связаны между собой?
  • Как обеспечивается надёжность и отказоустойчивость ЦОДа?
  • Достаточно ли компетентна команда эксплуатации выбранного ЦОД?
  • Какой уровень SLA предоставляет облачный провайдер на каждый из своих сервисов?
  • Какие сервера используются в ЦОД?
  • Как они управляются и как быстро могут быть заменены в случае аварии?
  • Как обеспечивается безопасность ЦОД? Электричество? Охлаждение?

Однако, это далеко не все аспекты надёжности и безопасности облачной платформы, которые должны обеспечить бесперебойную работу вашего бизнеса. В следующей статье мы расскажем, как работаем со сбоями и инцидентами в работе платформы, объясним, чем отличаются эти события и какие меры принимаются Яндексом, чтобы клиенты их практически не замечали.