Announcing resource-based pricing for Google Compute Engine

Обещание и преимущество облака всегда были гибкостью, низкой стоимостью и оплатой за использование. С помощью Google Compute Engine пользовательские типы машин позволяют создавать экземпляры виртуальных машин любого размера и формы, и мы автоматически применяем скидки на использование и постоянное использование, чтобы снизить ваши затраты. Сегодня мы используем концепцию оплаты за использование в Compute Engine еще дальше с ценой на основе ресурсов.
Благодаря ценообразованию на основе ресурсов мы делаем несколько изменений за кулисами, которые выравнивают, как мы относимся к измерению пользовательских и предопределенных типов машин, а также к тому, как мы применяем скидки для скидок с постоянным использованием. Проще говоря, мы внесли изменения, чтобы автоматически предоставить вам больше сбережений и простой для понимания ежемесячный счет. Кто этого не любит?

Ценообразование на основе ресурсов рассматривает использование на гранулированном уровне. Вместо того, чтобы оценивать свое использование на основе используемых вами типов машин, он оценивает, сколько ресурсов вы потребляете за определенный период времени. Что это значит? Это означает, что ядро ​​является ядром, а ГБ ОЗУ — ГБ ОЗУ. Неважно, какая комбинация заданных типов машин вы используете. Теперь мы смотрим на них на уровне ресурсов — в совокупности. Это становится лучше, потому что скидки с постоянным использованием теперь рассчитываются на региональном уровне, а не только внутри зон. Это означает, что вы можете быстрее получать скидки на использование, поэтому вы можете экономить еще более автоматически.
Чтобы лучше понять эти изменения и получить представление о том, как вы можете сэкономить, давайте посмотрим, как работали сдержанные скидки на использование, и как они будут работать дальше.
Раньше, если вы использовали конкретный тип машины (например, n1-standard-4) с четырьмя vCPU в течение 50% месяца, вы получили эффективную скидку 10%. Если вы использовали его в течение 75% месяца, вы получили эффективную скидку в размере 20%. Если вы используете его в течение 100% месяца, вы получите эффективную скидку в размере 30%.

Хорошо. Теперь, что, если вы использовали разные типы машин?
Предположим, вы используете веб-сервис. Вы начали месяц с n1-standard-4 с четырьмя vCPU. На второй неделе пользовательский спрос на ваш сервис увеличился, и вы увеличили емкость. Вы начали запускать n1-standard-8 с восемью vCPU. Когда-либо растущий спрос заставлял вас снова увеличиваться. На третьей неделе вы начали запускать n1-standard-16 с шестнадцатью vCPU. Из-за вашего успеха вы снова закончили масштабирование, закончив месяц, когда n1-standard-32 с тридцатью двумя vCPU. В этом случае вы не получили бы скидку, потому что вы не запускали ни один из типов машин до 50% месяца.



С ценой на основе ресурсов мы больше не рассматриваем ваш тип машины, и вместо этого мы объединяем все ресурсы, которые вы используете на всех ваших компьютерах, в одну общую сумму, а затем применяете скидку. Вам не нужно предпринимать никаких действий. Вы автоматически сохраняете. Давайте снова рассмотрим пример масштабирования, но на этот раз с ценой на основе ресурсов.
Вы начали месяц, на котором было четыре vCPU, а затем были увеличены до восьми vCPU, шестнадцати vCPU и, наконец, тридцать два vCPU. Вы запускали четыре vCPU весь месяц или 100% времени, поэтому вы получаете 30% скидку на эти vCPU. Вы потратили еще четыре vCPU на 75% от месяца, так что вы получаете 20% скидку на эти vCPU. И, наконец, вы потратили еще восемь vCPU на половину месяца, так что вы получаете 10% скидку на эти vCPU. Шестнадцать vCPU выполнялись в течение одной недели, поэтому они не получили скидку. Давайте посмотрим, как это работает, чтобы укрепить то, что мы узнали.


И поскольку ценообразование на основе ресурсов применяется на региональном уровне, теперь вам будет легче пользоваться скидками на использование, независимо от типа используемой вами машины, или количеством зон в регионе, в котором вы работаете. В ближайшие месяцы вступит в силу ценовая политика на основе ресурсов. Посетите страницу ценообразования на основе ресурсов, чтобы узнать больше.

Drilling down into Stackdriver Service Monitoring

Если вы несете ответственность за производительность и доступность приложений, вы знаете, как трудно это увидеть глазами ваших клиентов и конечных пользователей. Мы думаем, что это действительно изменится после внедрения на прошлой неделе Stackdriver Service Monitoring, нового инструмента для мониторинга того, как ваши клиенты воспринимают ваши приложения, а затем позволяет вам перейти к базовой инфраструктуре, когда есть проблема.

Большинство инструментов ИТ-операций занимают мало внимания в отношении ИТ-систем: они смотрят на вычисления, хранилища и сетевые показатели, чтобы выявить опыт работы с клиентами. Средства управления эффективностью приложений (APM), такие как системы трассировки, отладчики и профилировщики, рассматривают приложение с уровня кода, но упускают из виду базовую инфраструктуру. Иногда решение аналитики журналов может обеспечить клей между этими двумя слоями, но часто с большими усилиями и расходами.

У ИТ-операторов отсутствует экономичный и простой в использовании инструмент общего назначения для мониторинга поведения своих приложений, ориентированного на клиента. Трудно понять, как конечные пользователи испытывают ваше программное обеспечение, и сложно стандартизовать службы и приложения. Персонал Ops рискует выгорать из всех ложных предупреждений. Результатом всего этого является то, что среднее время-разрешение (MTTR) больше, чем необходимо, и удовлетворенность клиентов ниже желаемого. Ситуация усугубляется с помощью микросервисных архитектур, где само приложение разбито на множество мелких кусочков, что затрудняет понимание того, как все части подходят друг другу и где начать расследование, когда есть проблема.
Все это происходит с выпуском Stackdriver Service Monitoring. Мониторинг сервисов использует сервисную, «укомплектованную» инфраструктуру, поэтому вы можете отслеживать, как конечные пользователи воспринимают ваши системы, позволяя вам, когда это необходимо, перейти на уровень инфраструктуры. Первоначально мы поддерживаем эту функциональность для Google App Engine и сервисов Istio, работающих в Google Kubernetes Engine. С течением времени мы будем расширяться до большего количества платформ.

С помощью Stackdriver Service Monitoring вы получаете ответы на следующие вопросы:
  • Каковы ваши услуги? Какую функциональность предоставляют эти услуги для внутренних и внешних клиентов?
  • Каковы ваши обещания и обязательства относительно доступности и эффективности этих услуг, а также ваши услуги, связанные с ними?
  • Что такое межсервисные зависимости для приложений на основе микросервисов? Как вы можете использовать эти знания для двойной проверки новых версий кода и проблем с сортировкой в ​​случае ухудшения обслуживания?
  • Можете ли вы посмотреть на все сигналы мониторинга для целостного сервиса, чтобы уменьшить MTTR?

Анатомия мониторинга службы стоп-приводов
Сервисный мониторинг состоит из трех частей: графика обслуживания, целей уровня обслуживания (SLO) и панелей мониторинга с несколькими сигналами. Вместе они дают вам список ваших услуг, визуально отображают зависимости между ними, позволяют устанавливать и оценивать возможности доступности и производительности, помогать вам устранять проблемы приложений, чтобы быстро найти основную причину и, наконец, помочь вам быстрее отлаживать сломанные услуги чем когда-либо. Давайте посмотрим на каждую часть по очереди.
Сервисный график: это представление о вашей инфраструктуре, относящееся к услугам. Он начинается с отображения верхнего уровня в реальном времени всех сервисов в сервисной сетке Istio и связей между ними. При выборе одной услуги отображаются графики с коэффициентами ошибок и метриками задержки. Двойной щелчок по сервису позволяет развернуть свою базовую инфраструктуру Kubernetes, обеспечивая длинную неуловимую связь между поведением приложения и инфраструктурой. Существует также ползунок времени, который позволяет вам видеть график в предыдущие моменты времени. Используя сервисный график, вы можете увидеть свою архитектуру приложения для справочных целей или для сортировки проблем. Вы можете изучить показатели поведения службы и определить, вызывает ли восходящий сервис проблемы с последующей службой. Наконец, вы можете сравнить график обслуживания в разные моменты времени, чтобы определить, было ли значительное архитектурное изменение прямо перед сообщением проблемы. Существует не более быстрый способ начать изучение и понимание сложных мультисервисных приложений.



SLO: внутренне в Google наша команда инженеров по надежности сайта (SRE) только предупреждает себя о проблемах, связанных с клиентами, и не во всех потенциальных причинах. Это лучше согласовывает их с интересами клиентов, снижает их трудность, освобождает их, чтобы делать надёжную инженерию с добавленной стоимостью и повышает удовлетворенность работой. Stackdriver Service Monitoring позволяет вам устанавливать, контролировать и предупреждать о SLO. Поскольку Istio и App Engine имеют укрупненный способ, мы точно знаем, что подсчет транзакций, количество ошибок и распределение задержек находятся между службами. Все, что вам нужно сделать, — установить целевые показатели доступности и производительности, и мы автоматически генерируем графики для индикаторов уровня обслуживания (SLI), соответствия вашим целям с течением времени и вашего оставшегося бюджета ошибок. Вы можете настроить максимально допустимую скорость снижения для бюджета ошибок; если эта ставка превышена, мы уведомляем вас и создаем инцидент, чтобы вы могли принять меры. Чтобы узнать больше о концепциях SLO, включая бюджет ошибок, мы рекомендуем вам прочитать главу SLO в книге SRE.



Service Dashboard: В какой-то момент вам нужно будет углубиться в сигналы службы. Возможно, вы получили оповещение SLO, и нет очевидной причины восходящего потока. Возможно, услуга связана с графиком обслуживания как возможная причина для оповещения SLO другого сервиса. Возможно, у вас есть жалоба клиента за пределами предупреждения SLO, которое вам нужно изучить. Или, может быть, вы хотите увидеть, как происходит развертывание новой версии кода.
Панель управления сервисов обеспечивает единый когерентный вывод всех сигналов для конкретной службы, причем все они привязаны к одному и тому же таймфрейму с одним элементом управления, предоставляя вам самый быстрый способ преодолеть проблему с вашим сервисом. Мониторинг сервиса позволяет вам глубоко погрузиться в поведение службы по всем сигналам, не отрываясь от разных продуктов, инструментов или веб-страниц для показателей, журналов и трасс. Панель управления дает вам представление о SLO на одной вкладке, показатели обслуживания (скорости транзакций, частоты ошибок и задержки) на второй вкладке, а также диагностику (трассировки, отчеты об ошибках и журналы) на третьей вкладке.



После того, как вы проверили отклонение бюджета на первой вкладке и изолированный аномальный трафик во второй вкладке, вы можете продолжить дальше на вкладке диагностики. Для проблем с производительностью вы можете развернуть длинные хвостовые следы, а оттуда легко попасть в Stackdriver Profiler, если ваше приложение приспособлено для этого. Для проблем с доступностью вы можете просматривать журналы и отчеты об ошибках, проверять трассировки стека и открывать отладчик Stackdriver, если приложение предназначено для этого.



Мониторинг служб Stackdriver дает вам совершенно новый способ просмотра архитектуры приложения, причины его поведения, ориентированного на клиента, и вникать в корень любых возникающих проблем. Он использует преимущества усовершенствования программного обеспечения в области инфраструктуры, которые Google отстаивает в мире с открытым исходным кодом, и использует трудно завоеванные знания наших команд SRE. Мы считаем, что это в корне преобразует опыт работы с операционными командами разработчиков облачных вычислений и микросервисов. Чтобы узнать больше, ознакомьтесь с презентацией и демонстрацией с Лабораториями Декарта на GCP. На прошлой неделе. Мы надеемся, что вы подпишетесь, чтобы попробовать и поделиться своими отзывами.

Организация инфраструктуры с помощью проектов



В начале года мы опубликовали наши планы на 2018 год и обязались постоянно совершенствовать опыт разработчиков с помощью DigitalOcean. Мы включили открытый призыв к разработчикам, которые хотели бы предоставить отзывы о новых функциях, направленных на упрощение управления всей инфраструктурой, необходимой для запуска приложений по шкале.

Пока в этом году вы узнали, что вы предоставили нам:
  • Панель инструментов
  • Сайт новой документации
  • Вход в Google
  • Поиск капель
  • Автоматическое форматирование хранения блоков и
  • Ряд улучшений пользовательского опыта
Один из последовательных отзывов, которые мы слышали, — это то, что вы хотели больше контролировать, как вы организовали свою инфраструктуру. Сегодня мы с гордостью объявляем о выпуске новых обновлений, включая новую навигацию и захватывающий набор функций, который мы называем проектами, которые расширяют возможности Dashboard, чтобы вы были организованы, даже когда ваши инфраструктурные потребности растут.

Почему проекты?
Мы создали DigitalOcean Projects, чтобы ваши системы были организованы и сфокусированы, чтобы сэкономить время на панели управления и согласовать с приложениями, средами, клиентами или проектами, которые вы используете для ведения бизнеса. Выпуск опыта Dashboard представил ваши капельки, балансировщики нагрузки, домены, плавающие IP-адреса и пространства в одном месте. Теперь с проектами мы поставили вас под контроль. Вы можете создавать структуры, которые имеют смысл для того, как вы и ваша команда работаете.

В этом новом выпуске все ваши существующие ресурсы начнутся в вашем проекте по умолчанию, который работает так же, как панель инструментов. По мере расширения вашей инфраструктуры из этого единого проекта вы сможете создавать больше проектов и свободно перемещать свои ресурсы между ними — во время создания, по одному или через опцию объемного перемещения. Вы можете быстро перемещаться между проектами через меню новых проектов, которое сортирует ваш проект по умолчанию вверху и ваши последние созданные проекты под ним. На вкладке «Настройки» вы можете вносить изменения в название, назначение и описание проекта или удалять неиспользуемые проекты.

Нет никаких ограничений на количество проектов, которые вы можете иметь, или количество ресурсов, которое вы можете иметь в них. Они масштабируются в соответствии с вашими потребностями.

Ознакомьтесь с нашей документацией для получения более подробной информации.


Это первая из многих итераций, которые мы планируем выпустить в этом году. В ближайшие месяцы мы будем расширять и использовать функциональность проектов в следующих направлениях:

Поддержка большего количества ресурсов, таких как Block Storage и предстоящие Kubernetes
API новых проектов для программного доступа и работы с вашими проектами
Использование биллинга для каждого проекта и
Улучшения удобства использования на основе ваших отзывов
дизайн
Как только вы войдете в систему, вы заметите некоторые изменения в дизайне. Нам нужно было внести изменения, чтобы поддерживать простой пользовательский опыт, который вы любите, тем более, что мы планируем добавить больше возможностей, таких как Kubernetes, DBaaS, VPC и Application Marketplace.

Наиболее очевидным изменением является обновленное главное меню панели управления. Новая левая навигация сосредоточена на ваших проектах. Ниже мы сохранили наши знакомые ссылки на Droplets, Spaces, Images, Networking, Monitoring и API, а также добавили данные вашей учетной записи — профиль или команды, биллинг и безопасность, чтобы они всегда были всего в одном клике. Наверху мы обеспечиваем быстрый доступ к вашим капелькам, делая поиск Droplet более заметным, и добавили использование вашего текущего месяца, чтобы вы могли следить за своими издержками с одного взгляда.


Для разработки и разработки проектов требовалось несколько итераций, частые тесты юзабилити и постоянная обратная связь с вами. Мы не могли бы сделать это без участия наших бета-добровольцев. Если вы хотите быть частью будущих исследовательских инициатив или бета-версий продуктов, см. Нашу страницу исследований и подпишитесь на исследовательскую программу. Мы с нетерпением ждем ваших отзывов, поскольку мы продолжаем совершенствовать панель управления.

Джош Виней, старший менеджер по продуктам, опыт разработчиков

Селия Маккуин, старший дизайнер продукции

Обновление службы OpenStack в BHS3

Операция технического обслуживания планируется на площади BHS3 22 августа 2018 года, между 03:00 и 08:00 UTC-4. Это не должно привести к любым вопросам обслуживания для ваших экземпляров, но некоторые из API-интерфейсов в этой области будут недоступны, пока операция проводятся.

Следующий оконечный API будет на обслуживании:
compute.bhs3.cloud.ovh.net/v2/
network.compute.bhs3.cloud.ovh.net/
volume.compute.bhs3.cloud.ovh.net/v1/
volume.compute.bhs3.cloud.ovh.net/v2/
image.compute.bhs3.cloud.ovh.net/

Другие области будут оставаться доступными через API, а также с помощью панели управления OVH.

Мы проводим эту операцию, чтобы подготовиться к будущему. С этим обновлением OpenStack версии, мы можем продолжать совершенствовать наши решения Public Cloud, предлагая новые возможности в течение ближайших нескольких месяцев.

API вызовы, которые вы используете, не изменится, и эта новая версия имеет обратную совместимость со старым.

Теперь домены ещё дешевле



Здравствуйте, уважаемые форумчане.

Теперь любой может зарегистрировать домен или сделать его трансфер к нам по цене 199 руб/год.
А если Вы наш клиент и пользуетесь любой платной услугой, то регистрация для Вас всего 149 руб/год!!!
Ссылка для регистрации домена — cp.hostiman.ru/cart.php?a=add&domain=register

Мы не РЕГРУ и не требуем с клиентов 899-1199 руб/год за продление.
Наша цена продления всего 249 руб/год!
Зачем переплачивать за идентичную услугу, если можно существенно экономить???

Напоминаем, что при оплате любого тарифа хостинга на 1 год Вы получите домен РУС, РФ или RU абсолютно БЕСПЛАТНО!

С уважением, Ваш HostiMan.

Hard Drive Stats for Q2 2018



По состоянию на 30 июня 2018 года в центрах обработки данных Backblaze было 100254 вращающихся жестких диска. Из этого числа было 1,989 загрузочных дисков и 98,265 дисков данных. В этом обзоре рассматриваются квартальные и пожизненные статистические данные для моделей данных, работающих в наших центрах обработки данных. Мы также рассмотрим сравнение корпоративных и потребительских дисков, сначала рассмотрим наши 14-тонные диски Toshiba и представим вам две новые характеристики SMART. По пути мы поделимся наблюдениями и представлениями о представленных данных, и мы с нетерпением ожидаем, что вы сделаете то же самое в комментариях.

Статистика надежности жестких дисков для Q2 2018
Из 98,265 жестких дисков, которые мы наблюдали в конце Q2 2018, мы исключили из рассмотрения те приводы, которые использовались для тестирования, и те модели накопителей, для которых у нас не было не менее 45 дисков. Это оставляет нам 98,184 жестких диска. Таблица ниже охватывает только Q2 2018.


Примечания и наблюдения
Если модель привода имеет частоту отказа 0%, это просто означает, что во время Q2 2018 не было сбоев привода этой модели.

Годовой показатель сбоя (AFR) для Q2 составляет всего 1,08%, что значительно ниже АФК Q1 2018 и является нашим самым низким квартальным AFR. Тем не менее, квартальные показатели отказов могут быть нестабильными, особенно для моделей с небольшим количеством дисков и / или небольшого количества Дней Drive.

Было 81 диск (98,265 минус 98,184), которые не были включены в список выше, потому что у нас не было, по крайней мере, 45 из данной модели привода. Мы используем 45 дисков той же модели, что и минимальное число, когда мы сообщаем статистику квартальных, ежегодных и пожизненных дисков. Использование 45 приводов носит исторический характер, так как это количество дисков в наших оригинальных накопителях.

Миграция жестких дисков продолжается
Квартальная диаграмма Q2 2018 выше была основана на 98184 жестких дисках. Это было всего лишь на 138 жестких дисков, чем на Q1 2018, который был основан на 98 046 дисках. Тем не менее, мы добавили около 40 PB облачного хранилища в течение первого квартала. Если бы мы попытались сохранить 40 PB на 138 дополнительных дисках, добавленных в Q2, то каждый новый жесткий диск должен был хранить около 300 ТБ данных. В то время как жесткие диски на 300 ТБ были бы потрясающими, менее опасная реальность заключается в том, что мы заменили более 4 600 приводов 4 ТБ с почти 4 800 приводов 12 ТБ.

Возраст заменяемых приводов 4 ТБ составлял от 3,5 до 4 лет. Во всех случаях их уровень отказов составлял 3% AFR (годовой показатель отказов) или меньше, поэтому зачем их удалять? Простая плотность приводов — в этом случае три раза хранится в одном и том же корпусе. Сегодня четыре года службы — это время, когда финансовый смысл заключается в замене существующих дисков и создании нового объекта с новыми стойками и т. Д. Хотя есть несколько факторов, которые принимают решение о переносе на накопители с более высокой плотностью, сохраняя жесткие диски за пределами этого переломного пункта означают, что мы будем использовать ценную недвижимость для центров обработки данных.

Диски Toshiba 14 ТБ и SMART Stats 23 и 24
Во втором квартале мы добавили к нашему миксу двадцать 14 ТБ Toshiba (модель: MG07ACA14TA) (этого недостаточно, чтобы быть включенными в наши диаграммы), но это изменится, поскольку мы заказали еще 1200 дисков, которые будут развернуты в Q3. Это 9-пластинные накопители с гелием, которые используют технологию записи CMR / PRM (не SMR).

В дополнение к тому, что для нас были новые диски, приводы Toshiba 14 ТБ также добавляют две новые пары SMART stat: SMART 23 (состояние гелия ниже) и SMART 24 (верхнее состояние гелия). Оба атрибута сообщают о нормальных и необработанных значениях, причем исходные значения в настоящее время равны 0, а нормализованные значения равны 100. Когда мы узнаем больше об этих значениях, мы сообщим вам об этом. Тем временем, те из вас, кто использует наши данные теста жесткого диска, должны будут обновить вашу схему данных и загрузить сценарии для чтения в новых атрибутах.

Кстати, ни один из 20 приводов Toshiba 14 ТБ не прошел через 3 недели на службе, но еще слишком рано делать какие-либо выводы.

Статистика надежности жестких дисков на весь срок службы
Хотя ежеквартальный график, представленный ранее, представляет большой интерес, реальный тест любой модели привода со временем. Ниже приведен график отказов по продолжительности жизни для всех моделей жестких дисков, работающих по состоянию на 30 июня 2018 года. Для каждой модели мы вычисляем ее надежность, начиная с того момента, когда она была впервые установлена


Примечания и наблюдения
Комбинированный AFR для всех более крупных приводов (8-, 10- и 12 ТБ) составляет всего 1,02%. Многие из этих дисков были развернуты в прошлом году, поэтому в данных есть некоторая волатильность, но мы ожидаем, что эта общая ставка несколько снизится в течение следующих нескольких лет.

Общая частота отказов для всех жестких дисков в обслуживании составляет 1,80%. Это самый низкий показатель, который мы когда-либо достигали, с предыдущим минимумом 1,84% с 1-го квартала 2018 года.

Корпоративные и потребительские жесткие диски
В нашем обзоре состояния жестких дисков Q3 2017 мы сравнили две модели жестких дисков Seagate 8 ТБ: один диск с потребительским классом (модель: ST8000DM002), а другой — диск корпоративного класса (модель: ST8000NM0055). Давайте сравним показатели годовых убытков в течение всего периода с 3-го квартала 2017 года и 2-го квартала 2018 года:

Пожизненная AFR по состоянию на 3 квартал 2017 года
  • 8 ТБ потребителей: 1,1% в год
  • 8 корпоративных корпоративных дисков: 1,2% в год
Пожизненная AFR по состоянию на 2 квартал 2018 года
  • 8 ТБ потребителей: 1.03% годовой нормы отказа
  • 8 корпоративных корпоративных дисков: 0,97%
Хммм, похоже, что корпоративные диски «выигрывают». Но прежде чем мы объявим победу, давайте заглянем в несколько деталей.

Начнем с дней диска, общее количество дней работы всех жестких дисков данной модели.
  • 8 ТБ потребителя (модель: ST8000DM002): 6 395 117 дней движения
  • Предприятие 8 ТБ (модель: ST8000NM0055): 5 279 564 дня
Обе модели имеют достаточное количество рабочих дней и достаточно близки по общему числу. Пока никаких изменений в нашем заключении.

Затем мы рассмотрим доверительные интервалы для каждой модели, чтобы увидеть диапазон возможностей в двух отклонениях.
  • 8 потребителей ТБ (модель: ST8000DM002): диапазон 0,9% до 1,2%
  • предприятие 8 ТБ (модель: ST8000NM0055): диапазон 0,8% до 1,1%
Диапазоны близки, но возможны множественные исходы. Например, потребительский диск может быть ниже 0,9%, а корпоративный диск может достигать 1,1%. Это не помогает или не нарушает наш вывод.

Наконец, мы будем смотреть на возраст диска — на самом деле средний возраст, чтобы быть точным. Это среднее время в оперативном обслуживании, в месяцах, всех приводов данной модели. Мы начнем с момента, когда каждый диск достигнет примерно текущего количества дисков. Таким образом, добавление новых дисков (без замены) будет иметь минимальный эффект.


Когда вы ограничиваете количество дисков и средний возраст, AFR (годовая частота отказов) корпоративного диска последовательно ниже, чем у потребительского диска для этих двух моделей накопителей — хотя и не так много.
Является ли каждая модель предприятия лучше, чем любая соответствующая потребительская модель, неизвестна, но ниже приведены несколько причин, по которым вы можете выбрать один класс диска над другим:


Известно, что Backblaze является «экономным» при покупке дисков. Когда вы покупаете 100 дисков за раз или сталкиваетесь с кризисом накопителя, имеет смысл приобретать потребительские приводы. Когда вы начинаете покупать жесткие диски на 100 петабайт за раз, ценовой разрыв между корпоративными и потребительскими дисками сжимается до такой степени, что другие факторы вступают в игру.

Жесткие диски по номерам
С апреля 2013 года Backblaze записывает и сохраняет ежедневную статистику жесткого диска с дисков в наших центрах обработки данных. Каждая запись состоит из даты, производителя, модели, серийного номера, статуса (операционного или неудачного) и всех атрибутов SMART, сообщаемых этим диском. В настоящее время более 100 миллионов записей. Полный набор данных, используемый для создания информации, представленной в этом обзоре, доступен на нашей странице данных на жестком диске. Вы можете бесплатно скачать и использовать эти данные для своей собственной цели. Все, что мы просим, ​​это три вещи: 1) вы цитируете Backblaze в качестве источника, если используете данные, 2) вы признаете, что несете единоличную ответственность за использование данных, и 3) вы не продаете эти данные никому. Это бесплатно.

Если вам просто нужны обобщенные данные, используемые для создания таблиц и диаграмм в этом сообщении в блоге, вы можете загрузить ZIP-файл, содержащий электронную таблицу MS Excel.

Удачи и сообщите нам, если вы найдете что-нибудь интересное в комментариях ниже или напрямую свяжитесь с нами.

Профилактические работы на сетевом оборудовании



В ночь с воскресенья на понедельник (30 июля) мы будем проводить профилактические работы на основном сетевом оборудовании.

Как это отразится на вашем сайте?
Почти никак!

В промежуток времени с 3 до 7 утра (МСК) произойдет 2 перерыва в сетевой доступности сайта. Каждый перерыв не более 1 минуты. В исключительном случае — 5 минут. Мы понимаем, насколько критична работа вашего сайта даже в ночное время, и поэтому приложим все силы, чтобы этот исключительный случай не наступил.

Важно понимать, что сами сайты и серверы будут работать без перебоев, но кратковременно будут недоступны в сети Интернет. Потому что работы проводятся на сетевом оборудовании.

Всей командой желаем вам хорошего дня!

С уважением, служба поддержки пользователей Timeweb.
www.timeweb.com
info@timeweb.ru

Ежедневное резервное копирование для VPS стало доступнее!

Мы постоянно развиваемся и совершенствуем наши технологии.
Это позволяет снижать стоимость и делать наши услуги доступнее не только для серьезных проектов, которые готовы платить за надежность, круглосуточный контроль, быстрое решение проблем и свое спокойствие, но и для начинающих проектов, которым все это не менее важно для быстрого роста и развития.

Мы знаем цену вашему времени и вашим данным.
И хотели бы объявить о снижении стоимости ежедневного резервного копирования для VPS почти в 2 раза!
Новая стоимость составляет всего 3$/месяц и это точно то, на чем вы не захотите экономить.

Бэкапов много не бывает.
К этому выводу приходят те клиенты, которые на практике ощутили все последствия потери данных в случае случайного/умышленного удаления важных файлов, баз данных или массового взлома и заражения вирусами.
Они не только заказывают ежедневное резервное копирование, но и дополнительно покупают аккаунт на нашем сервисе хранения данных.

Зачем это нужно?
Давайте разберем и посчитаем на конкретных ситуациях с которыми нам приходилось неоднократно сталкиваться.
Например, однажды потребовалось полностью восстанавливать базу данных клиента из резервной копии. После того, как клиент узнал, что последний бэкап делался 5 дней назад, он был очень огорчен. За эти 5 дней активной работы с сайтами было добавлено огромное количество статей и всю эту работу потребовалось повторить. Если бы вы оказались на его месте, что бы вы выбрали?
Заплатить 3$, чтобы избежать такой ситуации, или потратить 5 дней своего времени? Ответ очевиден.

Еще один пример: у вас крупный (или не очень) интернет магазин. Каждый час вы получаете N заказов на сумму XX-XXXX$
Случился форс-мажор и у вас есть резервная копия, которая была сделана 24 часа назад. Не сложно посчитать на какую сумму было потеряно заказов за 1-23 часа. Здесь на помощь приходит услуга хранения данных, куда вы можете оперативно бэкапить вашу базу данных хоть каждые 15 минут.
Небольшой инсайд: мы делаем резервные копии нашей биллинг системы каждые 30 минут. А все остальные файлы бэкапим раз в сутки.

Надеемся, наша новая ценовая политика позволит как можно большему количеству клиентов надежно защитить свои данные от возможной потери.

Дочитали до конца? По традиции дарим промо-код BACKUP99, дающий скидку 99% на первый месяц услуги хранения данных.
Используйте эту скидку сами либо делитесь с друзьями. Код не имеет срока действия.

inferno.name

Новости: розыгрыш Xbox One S, HTTP/2 и другое




www.jino.ru/actions/monthly/201808/

Поддержка HTTP/2
Последняя версия HTTP — HTTP/2, уже поддерживаемая большинством современных веб-браузеров, стала доступна и на «Джино». За счет значительного ускорения в некоторых случаях загрузки страниц HTTP/2 способен положительно влиять на позиции сайта в поисковой выдаче.
www.jino.ru/about/news/articles/http2/

Редирект на HTTPS в настройках домена
Пользователи «Джино» теперь могут включить принудительное перенаправление с HTTP на безопасный протокол HTTPS для всех доменов, использующих SSL-сертификат и привязанных к любому из сервисов.
www.jino.ru/about/news/articles/https/
Резервное копирование на «Джино.Лендинге»
Доступ к бэкапам ваших проектов на сервисе «Джино.Лендинг» позволит, не теряя времени, восстановить страницу, если ее работа была нарушена. Вы просто можете вернуться к предыдущей версии, чтобы избежать негативных последствий.
landing.jino.ru/about/news/articles/landing-backups/

Ubuntu 18.04 LTS на «Джино.VPS»
В списке версий гостевых ОС на «Джино.VPS» появилась еще одна — новейшая Ubuntu 18.04 с целым рядом усовершенствований и нововведений.
Эта версия также является LTS-релизом (релизом с длительной поддержкой), а значит обновления и патчи безопасности для нее будут поставляться в течение пяти лет, вместо стандартного одного года.

Инфографика «Как пользоваться доменом»
Новый наглядный материал познакомит вас с нюансами использования доменов и осветит актуальные вопросы. Здесь представлены все действия, которые производятся с доменными именами, начиная с поэтапного процесса регистрации и заканчивая привязкой к сервисам «Джино».
Инфографика расположена в одноименном разделе на нашем сайте.
www.jino.ru/help/infographic/

FirstVDS: С днём сисадмина

Хей!
Сегодня праздник у повелителей сетей, принтеров, серверов, роутеров и консоли.

От лица простых юзеров хотим сказать спасибо. Спасибо, что все работает! А когда не работает, вы приходите и чините.


От лица таких же админов сказать не можем (маркетологи же). Зато могут наши коллеги.

Поздравляшки от админов


«Каждый из нас по-своему админ.

Кто настраивает сеть в гигантском и важном гос.учреждении, кто меняет краску в принтере, кто ведёт сайт школы и блог о майнинге — все мы администраторы. А те, кто следил за временем в компьютерных клубах на заре интернета, были и навсегда останутся самыми уважаемыми админами.

От лица всего коллектива FirstVDS хочу пожелать простого человеческого счастья: большого аптайма, широкого канала, быстрых, как леопард, дисков, прямолинейных и понятных логов, красивых и ровных графиков нагрузки, приятных тарифов и лёгких способов осуществить задуманные идеи.

Чтобы звонить в поддержку пришлось только для поздравлений с праздниками, заходить на сервер только для установки новых проектов. И админский бубен в следующих наших конкурсах достался именно вам. С праздником, дорогие коллеги!»

Даня написал шуточный тест «Какой ты сисадмин!». Нам он сильно нравится. Шутки поймут даже не админы. Так что дерзайте и делитесь ссылкой с друзьями.
firstvds.ru/content/kakoy-ty-administrator


«Коллеги, поздравляю с профессиональным праздником. Желаю побольше терпения, 100% uptime, адекватных заказчиков и неломающегося железа.
И пусть Роскомнадзор вас не кусает. С праздником!»

Баклажан починки сервера
В прошлом году в этот день мы запилили баклажан починки сервера. Это традиционное сисадминское гадание, эффективность наравне с бубном. Наша гордость и отрада. Если у вас ещё нет админского бубна…

firstvds.ru/adminday
Вращайте баклажан!
Если вы не админ, но всё это прочитали — поздравьте вашего администратора. Если до сих пор с ним не знакомы, пришло самое время. Админы — тихие ребята, но очень важные сотрудники. Благодаря вашему коллеге, сайт работает и приносит деньги. Благодаря нашему пришла вот эта рассылка, но это мелочи.

С праздником всех-всех-всех админов в мире! Особенно 42 суперкрутых офигенных и просто невероятных представителей профессии в нашем офисе. И представительниц