Рейтинг
0.00

Backblaze Хостинг

2 читателя, 75 топиков

Институт Гладстона создает огненный шар Backblaze, издание XXXL

Здесь, в Backblaze, мы, как известно, поступаем немного иначе. Мы часто выбираем другой путь — от модулей хранения и хранилищ Backblaze до данных о сельском хозяйстве и жестких дисках. Поэтому неудивительно, что мы любим рассказы о людях, которые нестандартно мыслят, когда сталкиваются с проблемой. Это особенно верно, когда эта история связана с созданием сервера хранения mongo, почтенной Toyota 4Runner и парой ИТ-инженеров, одержимых целью получить 1,2 петабайта данных своей организации за пределами офиса. Давайте познакомимся с Алексом Акостой и Эндрю Дэвисом из Gladstone Institutes.

Данные в бегах
Охранник на стойке регистрации понимающе кивнул, когда Алекс и Эндрю катили три больших чемодана «Черепахи» через вестибюль и выходили из парадной двери Гладстонского института. Хорошо известные и широко уважаемые, два ИТ-инженера составляли в то время две трети персонала ИТ-операций, и у них был 25-летний опыт работы в Гладстоне. Как ни странно, что ИТ-персонал покидает безопасный объект в нерабочее время с тремя крупными делами, все было на подъеме.

В середине февраля были сумерки. Алекс и Эндрю приготовились к холоду, когда они вышли на почти пустую автостоянку, неся драгоценный груз в этих трех ящиках. 4Runner Эндрю был близок к этому, он прибыл рано в тот день — важный день, день переезда. Они осторожно затащили тяжелые чемоданы в 4Runner. Большую часть веса составляли сами корпуса, остальной частью был сервер хранения 4U, а в двух других — 36 жестких дисков. Незначительная часть веса, если вообще была, была причиной того, что они делали все это — 200 терабайт данных исследований Института Гладстона.

Они закрепили чемоданы, захлопнули дверь багажника, сели в 4Runner и привели колеса в движение для следующей части своего плана. Они свернули на шоссе 101 и направились на юг. Движение было ужасным, даже автострада; ужин будет поздно, как и многие предыдущие ужины.


Назад к началу
Было много других поздних ночей с тех пор, как они начали этот проект шесть месяцев назад. Проект Fireball XXXL, как в итоге назвали его Алекс и Эндрю, был продиктован их миссией по защите данных биомедицинских исследований Гладстона от неминуемой катастрофы. В неизвестный день середины лета Алекс и Эндрю находились в серверной в Гладстоне в окружении более 900 лент, которые выдавали себя за систему резервного копирования.

Эндрю размышлял: «Это могла быть программа-вымогатель, здание загорелось, кто-то случайно удалил наборы данных из-за записи в командной строке, может произойти любое количество вещей, которые все это уничтожат». Алекс, махнув рукой по постоянно расширяющейся ленточной библиотеке, добавил: «Мы больше не можем полагаться на это. Ленты громоздкие, грязные и портятся, даже если вы все делаете правильно. Мы тратим так много времени на устранение неполадок, и в 2020 году нам больше не придется заниматься устранением неполадок». Они решили найти лучший способ получить свои данные за пределами офиса.

Проверка в реальных условиях
Алекс и Эндрю перечислили цели своего проекта: получить 1,2 петабайта данных, которые в настоящее время хранятся на месте и в их ленточной библиотеке, безопасно за пределами площадки, иметь возможность добавлять 10–20 терабайт новых данных каждый день и иметь возможность удалять файлы по мере необходимости. Тот факт, что практически каждый байт рассматриваемых данных представляет собой исследование биомедицинских заболеваний, включая данные, непосредственно применимые к борьбе с глобальной пандемией, означал, что они должны были выполнить все вышеперечисленное с минимальным временем простоя и максимальной надежностью. Да, и все это им пришлось делать, не увеличивая свой бюджет. Оптимисты.

Поскольку облачное хранилище является наиболее многообещающим вариантом, они сначала подумали о создании собственного частного облака в удаленном центре обработки данных в пустыне. Они быстро отказались от этой идеи, поскольку первоначальные затраты были ошеломляющими, не говоря уже о текущих затратах на персонал и техническое обслуживание для управления удаленными системами.

Они решили, что лучший вариант — использовать облачное хранилище, и сравнили ведущих поставщиков. Алекс был знаком с Backblaze, много лет следил за блогом, особенно с сообщениями о статистике дисков и модулях хранения. Более того, облачное хранилище Backblaze B2 было простым и доступным. Кое-что он не мог сказать о других ведущих поставщиках облачных хранилищ.

Следующей проблемой была пропускная способность. Вы могли подумать, что соединения со скоростью 5 Гбит / с будет достаточно, но у них была организация, которая требовала много исследований и данных, и использовала это соединение. Они затачивали свои карандаши для пропускной способности и, с учетом институционального использования, подсчитали, что могут легко поддерживать загрузку 10–20 терабайт в день. Проблема была в том, что загрузить существующие 1,2 петабайта данных было бы совсем другим делом. Они связались со своим поставщиком пропускной способности и им сказали, что они могут удвоить свою текущую пропускную способность до 10 Гбит / с по многолетнему соглашению почти в два раза дороже, и, кстати, пройдет от нескольких месяцев до года, прежде чем они смогут начать работу. Ой.

Они обратились к Backblaze, который предложил свой сервис передачи данных Backblaze Fireball, который мог загружать около 70 терабайт за поездку. «Даже с Fireball нам потребуется 15, может быть, 20 поездок туда и обратно», — сетовал Эндрю во время очередного ночного сеанса просмотра резервных копий. «Я бы хотел, чтобы у них была коробка побольше», — сказал Алекс, на что Эндрю ответил: «Может, мы сможем построить такую».

Родился план: построить сервер хранения mongo, загрузить на него данные и отнести в Backblaze.


Спросите
Прежде чем они появились в центре обработки данных Backblaze со своим творением, они решили, что сначала должны спросить Backblaze. Алекс отметил: «В большинстве компаний, если вы скажете:« Эй, я хочу построить массивный файловый сервер, доставить его в ваш центр обработки данных и подключить. Разве вы мне не доверяете? »Они ответят:« Нет, 'и повесили трубку, но Backblaze этого не сделал, они прислушались».

После долгих размышлений Backblaze согласился разрешить персоналу Gladstone войти в ближайший центр обработки данных, который был точкой пиринга для сети Backblaze. В восторге от того, что они нашли родственных душ, у Алекса и Эндрю появился партнер в проекте Fireball XXXL. Хотя это сотрудничество было уникальной возможностью для обеих сторон, для Эндрю и Алекса это также означало бы больше поздних ночей и буррито в микроволновке. Теперь это не имело значения, они чувствовали, что у них есть отличный шанс реализовать свой проект.

Сборка
Алекс и Эндрю выделили некоторый бюджет на, казалось бы, несвязанный проект: построить собственный сервер хранения, который будет служить системой горячего резервирования для текущих активных лабораторных проектов. Таким образом, если в лаборатории что-то пойдет не так, они смогут при необходимости получить последнюю сохраненную версию данных. Используя эти средства, они поняли, что могут построить что-то, что будет использоваться в качестве их огромного Fireball XXXL, а затем, когда циклы передачи данных будут завершены, они могут перепрофилировать систему в качестве резервного сервера, на который они заложили бюджет.

Вдохновленные Backblaze Storage Pod с открытым исходным кодом, они работали с Backblaze над спецификациями для своего Fireball XXXL. Они пошли по пути нестандартной сборки, начав с шасси 4U и больших дисков, а затем добавили несколько мощных компонентов.

Огненный шар XXXL
  • Шасси: 4U Supermicro с 36 отсеками, 3,5-дюймовое дисковое шасси, построенное iXsystems.
  • Процессор: Двухъядерный Intel Xeon Gold 5217.
  • Оперативная память: 4 x 32 ГБ (128 ГБ).
  • Диски данных: 36 14 ТБ HE14 от Western Digital.
  • ЗИЛ: 120 ГБ NVMe SSD.
  • L2ARC: 512 ГБ SSD.
По сути, они построили систему RAID 1 + 0 на 200 терабайт с 36 отсеками для репликации данных с помощью rclone. Эндрю отметил: «Rclone требует больших ресурсов как в отношении ОЗУ, так и циклов ЦП. Когда мы определяли систему, нам нужно было убедиться, что у нас достаточно мощностей, чтобы rclone мог передавать данные со скоростью 10 Гбит / с. Это не просто чтение с дисководов; для этого нужна обработка".

Загрузка
Gladstone запускает TrueNAS в своих локальных производственных системах, поэтому имело смысл использовать его на недавно построенном сервере передачи данных. «Мы смогли отправить ZFS с наших внутренних серверов на то, что выглядело как гигантский внешний жесткий диск из-за отсутствия лучшего описания», — сказал Эндрю. «Это позволило нам выполнять репликацию на уровне блоков в сжатом виде, поэтому было намного выше производительность при копировании данных в эту систему».

Эндрю и Алекс ранее решили, что они начнут с четырех наборов данных размером более 40 терабайт каждый. Каждый набор данных представляет собой годы исследований в соответствующих лабораториях, помещая их в верхнюю часть очереди резервного копирования за пределами предприятия. В течение 10 дней они загрузили данные в Fireball XXXL. По завершении они выключили систему и удалили диски. Открыв чехлы Turtle с пенопластом, которые они приобрели ранее, они осторожно поместили шасси в один корпус, а 36 дисков — в два других. Они закрыли одеяла и направились в вестибюль Гладстона.

В дата-центре
В конце концов Алекс и Эндрю прибыли в центр обработки данных, где они нашли необходимую точку пиринга сети Backblaze. При входе последовали проверки, и хотя Backblaze поручился за ребят из Гладстона, процесс входа был трудным. Как и должно быть. Оказавшись в назначенной комнате, они подключили несколько кабелей, ввели несколько команд терминала, и данные начали загружаться в их учетную запись Backblaze B2. Fireball XXXL работал, как и ожидалось, с устойчивой скоростью передачи от 8 до 10 Гбит / с. На загрузку всех данных ушло чуть больше трех дней.

Через несколько недель они совершат еще одну поездку и запланировали еще два. С каждой поездкой все больше данных Gladstone надежно хранится за пределами площадки.

Институты Гладстона с более чем 40-летней историей и более 450 сотрудников являются мировым лидером в области биомедицинских исследований сердечно-сосудистых и неврологических заболеваний, геномной иммунологии и вирусологии, причем некоторые лаборатории недавно переключили свое внимание на SARS-CoV- 2, вирус, вызывающий COVID-19. Исследователи из Gladstone полагаются на свою ИТ-команду, чтобы защитить и защитить свои жизненно важные исследования.


Эпилог
Прежде чем вы загрузите свой 200-терабайтный медиа-сервер в заднюю часть внедорожника или пикапа и направитесь в центр обработки данных Backblaze — остановитесь. Хотя мы восхищаемся находчивостью Эндрю и Алекса, с нашей стороны процесс был трудным. Процедуры безопасности, связанные с ними документы и время, необходимое для того, чтобы наши герои Гладстона получили доступ к центру обработки данных и нашей сети с их Fireball XXXL, были «существенными». Тем не менее, мы рады, что сделали это. В ходе этого процесса мы многому научились, и, возможно, когда-нибудь мы предложим наш собственный Fireball XXXL. Если да, то мы знаем, где найти пару парней, которые умеют спроектировать одну систему ударов. Спасибо за поездку, господа.

Статистика жестких дисков Backblaze за третий квартал 2020



По состоянию на 30 сентября 2020 г. в нашей экосистеме облачного хранилища Backblaze было 153 727 вращающихся жестких дисков, распределенных по четырем центрам обработки данных. Из этого числа было 2780 загрузочных дисков и 150 947 дисков с данными. В этом обзоре рассматривается частота отказов жестких дисков в третьем квартале 2020 года и на протяжении всего срока службы моделей дисков с данными, которые в настоящее время используются в наших центрах обработки данных, а также содержится ряд аналитических данных и наблюдений на этом пути. Как всегда, ждем ваших комментариев.

Квартальная статистика отказов жестких дисков за третий квартал 2020 г.
В конце третьего квартала 2020 года Backblaze использовала 150 974 жестких диска для хранения данных клиентов. Для оценки мы исключаем из рассмотрения те модели накопителей, для которых у нас не было хотя бы 60 накопителей (об этом позже). В нашем обзоре осталось 150 757 жестких дисков. В таблице ниже показано, что произошло в третьем квартале 2020 года.



Наблюдения за статистикой за третий квартал
В квартале есть несколько моделей с нулевым количеством отказов дисков. Это здорово, но если немного углубиться, мы узнаем разные истории для каждого из двигателей.

Модель Seagate емкостью 18 ТБ (ST18000NM000J) рассчитана на 300 дней вождения и находится в эксплуатации около 12 дней. Необычных отказов не было, и это хорошее начало, но это все, что вы можете сказать.
Модель Seagate емкостью 16 ТБ (ST16000NM001G) имеет 5 428 дней вождения, что мало, но в среднем они существуют почти 10 месяцев. Тем не менее, я бы пока не пытался делать какие-либо выводы, но еще четверть или две таких, и нам, возможно, будет что сказать.
Модель Toshiba емкостью 4 ТБ (MD04ABA400V) имеет всего 9 108 дней вождения, но они ставят нули в течение семи кварталов подряд. Это должно что-то значить.
Модель Seagate емкостью 14 ТБ (ST14000NM001G) имеет 21 120 дней работы с 2400 дисками, но они проработали менее одного месяца. Следующий квартал даст нам лучшую картину.
4 ТБ HGST (модель: HMS5C4040ALE640) имеет 274 923 диско-дня без сбоев в этом квартале. Все остальное круто, но подождите, пока не кончитесь покупать один. Почему? Скорее всего, вы не получите новый, а если и получите, то ему действительно будет не менее трех лет, поскольку HGST / WDC не выпускает эти диски по крайней мере так долго. Если кто-то из HGST / WDC может подтвердить или опровергнуть это для нас в комментариях, это будет здорово. Есть истории, относящиеся к 2016 году, когда люди пытались заказать этот диск, а вместо этого получали отремонтированный диск. Если вы хотите попробовать отремонтированный диск, это нормально, но наши цифры основаны не на этом.
Годовая частота отказов (AFR) в третьем квартале 2020 года в 0,89% немного выше, чем в предыдущем квартале на уровне 0,81%, но значительно ниже, чем 2,07% год назад. Даже при более низком уровне отказов дисков специалисты нашего центра обработки данных не скучают. В этом квартале они добавили около 11000 новых дисков общим объемом более 150 ПБ, при этом все они работают по строгим протоколам Covid-19. Мы расскажем, как им это удалось, в одной из следующих статей, но давайте просто скажем, что они были заняты.

Остров несоответствующих дисков
190 приводов (150 947 минус 150 757) не были включены в квартальную диаграмму за 3 квартал 2020 года выше, потому что у нас не было как минимум 60 приводов данной модели. Вот разбивка:


Почти все эти приводы использовались в качестве запасных. Это происходит, когда данная модель привода больше не доступна для покупки, но многие из них уже работают, и нам нужна замена. Например, у нас все еще используются три диска WDC 6 ТБ; они установлены в трех разных модулях Storage Pod вместе с дисками емкостью 6 ТБ от Seagate и HGST. Большинство этих дисков были новыми, когда они были установлены, но иногда мы повторно используем диск, который был выведен из эксплуатации, обычно в результате миграции. Такие диски, конечно, переформатируются, стираются, а затем должны пройти наш процесс квалификации для повторной установки.

В нашем списке два «новых» диска. Это диски, которые подходят для использования в наших центрах обработки данных, но мы еще не развернули их в большом количестве. В случае диска HGST емкостью 10 ТБ доступность и квалификация нескольких моделей емкостью 12 ТБ снизили вероятность того, что мы будем использовать больше этой модели диска. Модель диска Toshiba емкостью 16 ТБ с большей вероятностью будет развернута в будущем, когда мы будем готовы к развертыванию следующей волны больших дисков.

Большие диски здесь
Когда мы впервые начали сбор данных с жестких дисков еще в 2013 году, большой диск был 4 ТБ, а диски на 5 и 6 ТБ только выходили на рынок. Сегодня мы будем определять большие диски как диски емкостью 14, 16 и 18 ТБ. В таблице ниже приведены сведения о текущем использовании этих дисков.


Общее количество 19878 представляет 13,2% наших рабочих дисков с данными. Хотя большинство из них — это диски Toshiba емкостью 14 ТБ, все вышеперечисленное было допущено к использованию в наших центрах обработки данных.

Для всех моделей накопителей, за исключением накопителя Toshiba 14 ТБ, количество дней, проведенных за рулем, по-прежнему слишком мало, чтобы делать какие-либо выводы, хотя модели Seagate 14 ТБ, модель Toshiba 16 ТБ и модель Seagate 18 ТБ на сегодняшний день не испытывали сбоев.

Мы продолжим добавлять эти большие диски в ближайшие кварталы и отслеживать их по пути. По состоянию на 3 квартал 2020 года AFR срока службы для этой группы накопителей составляет 1,04%, что, как мы увидим, ниже AFR срока службы для всех моделей приводов в эксплуатации.

Частота отказов жестких дисков за весь срок службы
В таблице ниже показан срок службы AFR для моделей жестких дисков, которые у нас были в эксплуатации по состоянию на 30 сентября 2020 г. Все перечисленные модели дисков находились в эксплуатации в течение этого периода.
AFR за весь срок службы по состоянию на третий квартал 2020 года составлял 1,58%, самый низкий показатель с момента начала отслеживания в 2013 году. Это ниже 1,73% год назад и 1,64% в прошлом квартале.


Мы вернули столбец среднего возраста как «Средний возраст». Он измеряется в месяцах и представляет собой средний возраст дисков, используемых для вычисления данных в таблице, основанный на количестве времени, в течение которого они находились в эксплуатации. Следует помнить, что наша среда очень динамична: диски добавляются, переносятся и удаляются на регулярной основе, и это может повлиять на средний возраст. Например, мы могли бы отказаться от Storage Pod с в основном более старыми дисками, и это могло бы снизить средний возраст оставшихся дисков этой модели, в то время как эти оставшиеся диски стали старше.

Если судить по среднему возрасту, диски Seagate емкостью 6 ТБ являются самой старой когортой: каждый из них прослужит в среднем почти пять с половиной лет. Эти диски действительно стали лучше за последние пару лет, и их текущий срок службы AFR составляет 1,0%.

Данные статистики жесткого диска
Полный набор данных, использованных для создания информации, использованной в этом обзоре, доступен на нашей веб-странице с данными тестирования жесткого диска. Вы можете бесплатно скачать и использовать эти данные в своих целях. Все, что мы просим, — это три вещи: 1) вы указываете Backblaze в качестве источника, если используете данные, 2) вы соглашаетесь с тем, что несете исключительную ответственность за то, как вы используете данные, и 3) вы никому не продаете эти данные — они это бесплатно.
www.backblaze.com/b2/hard-drive-test-data.html

Если вам просто нужны обобщенные данные, используемые для создания таблиц и диаграмм в этом сообщении в блоге, вы можете загрузить ZIP-файл, содержащий электронную таблицу MS Excel.
f001.backblazeb2.com/file/Backblaze_Blog/Q3_2020_Drive_Stats_Tables.zip

Удачи и дайте нам знать, если найдете что-нибудь интересное.

Backblaze Hard Drive Stats Q2 2020



По состоянию на 30 июня 2020 года в нашей экосистеме облачного хранилища Backblaze было 142630 вращающихся жестких дисков, распределенных по четырем центрам обработки данных. Из этого числа имелось 2271 загрузочный диск и 140 059 дисков с данными. В этом обзоре рассматривается частота отказов жестких дисков во втором квартале 2020 года и в течение всего срока службы моделей дисков с данными, которые в настоящее время используются в наших центрах обработки данных, и содержится ряд аналитических данных и наблюдений на этом пути. Как всегда, ждем ваших комментариев.

Квартальная статистика отказов жестких дисков за второй квартал 2020 г.
В конце второго квартала 2020 года Backblaze использовала 140 059 жестких дисков для хранения данных клиентов. Для нашей оценки мы исключаем из рассмотрения те модели накопителей, для которых у нас не было как минимум 60 накопителей (почему — см. Ниже). В нашем обзоре осталось 139 867 жестких дисков. В таблице ниже показано, что произошло во втором квартале 2020 года.


Примечания и наблюдения
Годовая частота отказов (AFR) во втором квартале 2020 года составила 0,81% по сравнению с первым кварталом 2020 года, который составлял 1,07%. Показатель AFR за 2 квартал — это самый низкий показатель AFR за любой квартал с тех пор, как мы начали отслеживать его в 2013 году. Кроме того, это первый раз, когда квартальный AFR оказался ниже 1%. Год назад (второй квартал 2019 года) квартальная AFR составляла 1,8%.

В течение этого квартала у трех моделей накопителей было 0 (ноль) отказов накопителей: Toshiba 4 ТБ (модель: MD04ABA400V), Seagate 6 ТБ (модель: ST6000DX000) и HGST 8 ТБ (модель: HUH728080ALE600). В то время как диски Toshiba емкостью 4 ТБ зафиксировали менее 10 000 дисковых дней, у нас не было сбоев дисков для этой модели с четвертого квартала 2018 года, или 54054 дисковых дня. При сравнении дисковых дней с диском Toshiba, диски Seagate 6 ТБ и HGST 8 ТБ выглядят столь же впечатляюще: в этом квартале не было сбоев, но во втором квартале 2020 года было зафиксировано 80 626 и 91 000 дисковых дней соответственно.

192 диска (140 059 минус 139 867) не были включены в приведенный выше список, потому что у нас не было как минимум 60 дисков данной модели. Например, у нас есть: 20 жестких дисков Toshiba 16 ТБ (модель: MG08ACA16TA), которые мы проходим через процесс сертификации. С другой стороны, у нас все еще есть 25 накопителей HGST емкостью 4 ТБ (модель: HDS5C4040ALE630), что позволяет использовать модули хранения. Внимательные читатели могут заметить номер модели этих дисководов HGST и понять, что они были последними из дисков, произведенных с номерами моделей Hitachi.

Напомним, когда мы публикуем квартальную, ежегодную статистику или статистику срока службы дисков, модели с менее чем 60 дисками не включаются в расчеты или графики. Мы используем как минимум 60 дисков, так как во всех недавно развернутых модулях хранилища 60 дисков. Примечание. Диск Seagate 16 ТБ (модель: ST16000NM001G) показывает 59 дисков и указан в отчете, поскольку один отказавший диск не был заменен на момент сбора данных для этого отчета.

Тем не менее, все данные со всех моделей дисков, включая загрузочные, включены в файлы, к которым можно получить доступ и загрузить на нашей веб-странице с данными тестирования жестких дисков.

Что мы развернули во втором квартале
Мы развернули 12063 новых диска и удалили 1960 дисков путем замены и миграции во втором квартале, в результате чего мы получили 10 103 дополнительных диска. Ниже представлена ​​таблица с развернутыми нами моделями накопителей.


Квартальные тенденции по производителям
Квартальные данные — это всего лишь данные за этот квартал. В начале каждого квартала мы стираем все предыдущие данные и начинаем собирать новую информацию. В конце квартала мы объединяем эти данные в единицу (коллекция, сумка, файл, что угодно) и называем ее; Например, второй квартал 2020 года. Это тот тип данных, на который вы смотрели, когда просматривали квартальный график за второй квартал 2020 года, показанный ранее в этом отчете. Мы также можем сравнивать результаты за данный квартал с результатами других кварталов, каждый из которых имеет свой уникальный набор данных. Этот тип сравнения может выявить тенденции, которые помогут нам определить то, что требует дальнейшего внимания.

На диаграмме ниже показана AFR по производителям с использованием квартальных данных за последние три года. За диаграммой следуют две таблицы. Первый — это данные, используемые для создания диаграммы. Второй — это подсчет количества жестких дисков, соответствующих каждому кварталу каждого производителя.



Ноты
1. Данные для каждого производителя включают все модели приводов в эксплуатации, которые использовались для хранения данных клиентов. Не было ни загрузочных дисков, ни тестовых дисков.
2. Значения 0,00% для дисков Toshiba с третьего квартала 2017 года по третий квартал 2018 года верны. За этот период отказов дисков Toshiba не было. Обратите внимание, что за тот же период одновременно эксплуатировалось не более 231 диска. Несмотря на то, что отсутствие отказов в течение пяти кварталов примечательно, количество дисков недостаточно велико, чтобы делать какие-либо выводы.
3. Значения «н / д» для дисков WDC со второго квартала 2019 года показывают, что в течение этого периода в нашей системе не использовалось ни одного диска WDC для данных клиентов. Это не относится к новым моделям приводов HGST под торговой маркой WDC, поскольку в настоящее время мы не используем ни одну из этих моделей.

Наблюдения
1. WDC: данные WDC демонстрируют, как слишком мало точек данных (т. Е. Жестких дисков) может привести к большим расхождениям между квартальными сравнениями.
2. Toshiba: как и данные WDC, количество жестких дисков Toshiba в течение большей части периода слишком мало, чтобы делать какие-либо достойные выводы, но начиная с четвертого квартала 2019 года это меняется, и с тех пор данные становятся более надежными.
3. Seagate: после неуклонного роста AFR последние два квартала были благоприятными для Seagate, причем последний квартал (AFR = 0,90%) стал лучшим из всех, что мы когда-либо видели у Seagate с тех пор, как мы начали вести статистику еще в 2013 году. Хорошие новости, заслуживающие более пристального внимания в ближайшие месяцы.
4. HGST: с AFR, колеблющимся от 0,36% до 0,61%, диски HGST выигрывают за предсказуемость. Скучно, да, но довольно скучно.

Совокупные тенденции по производителям
В отличие от квартальных данных, кумулятивные данные начинают собирать данные в заданной точке, и новые данные добавляются, пока вы не прекратите сбор. В то время как квартальные данные отражают события, произошедшие в течение определенного квартала, совокупные данные — это все, что касается нашей коллекции жестких дисков с течением времени. Используя кумулятивные данные, мы можем увидеть долгосрочные тенденции за период, как показано на диаграмме ниже и в следующей таблице данных.



Вниз и вправо
Для всех производителей вы можете увидеть тенденцию к снижению AFR с течением времени. Хотя это положительный момент, мы все же хотим понять, почему, и включить эти знания в наше общее понимание нашей среды — точно так же, как отказ диска, важно и его «безотказность». В процессе рассмотрения этих выводов, если у вас есть какие-либо мысли по этому поводу, дайте нам знать в комментариях. Может быть, вы думаете, что жесткие диски становятся лучше, или более вероятно, что мы добавили так много новых дисков за последние три года, что они доминируют в статистике, или это что-то еще? Дайте нам знать.

Частота отказов жестких дисков за весь срок службы
В таблице ниже показан срок службы AFR для моделей жестких дисков, которые были у нас в эксплуатации по состоянию на 30 июня 2020 г. Отчетный период с апреля 2013 г. по 30 июня 2020 г. Все перечисленные диски были установлены в течение этого периода.


Примечания и наблюдения
AFR за весь срок службы составил 1,64%, это самый низкий показатель с тех пор, как мы начали отслеживать в 2013 году. Кроме того, AFR за время существования упал с 1,86% во втором квартале 2018 года до текущего значения, даже несмотря на то, что мы прошли такие этапы, как эксабайт хранилища под управлением., открытие центра обработки данных в Амстердаме и увеличение размера компании почти вдвое. Два года напряженных.

Все диски Seagate 12 ТБ (модель: ST12000NM001G) были установлены во втором квартале, поэтому, хотя у нас есть разумный объем данных, как группа, эти диски все еще находятся на ранней стадии своего жизненного цикла. Хотя не все модели с возрастом следуют изгибу ванны, нам следует подождать еще пару кварталов, чтобы увидеть, как они работают в нашей среде.

Диски Seagate на 4 ТБ (модель: ST4000DM000) продолжают валяться. Их средний возраст составляет почти пять лет, поэтому гарантийный срок у них давно истек (один или два года в зависимости от того, когда они были приобретены). Говоря о возрасте, модель диска с самым высоким средним возрастом в таблице — это диск Seagate 6 ТБ с возрастом более 64 месяцев. У этой же модели во втором квартале 2020 года не было отказов, поэтому они, похоже, устаревают.

Данные статистики жесткого диска
Полный набор данных, использованных для создания информации, использованной в этом обзоре, доступен на нашей веб-странице с данными тестирования жесткого диска. Вы можете бесплатно скачать и использовать эти данные в своих целях. Все, что мы просим, ​​- это три вещи: 1) вы указываете Backblaze в качестве источника, если используете данные, 2) вы соглашаетесь с тем, что несете исключительную ответственность за то, как вы используете данные, и 3) вы никому не продаете эти данные — они это бесплатно.

Если вам просто нужны сводные данные, используемые для создания таблиц и диаграмм в этом сообщении в блоге, вы можете скачать ZIP-файл, содержащий электронную таблицу MS Excel.
f001.backblazeb2.com/file/Backblaze_Blog/Q2_2020_Drive_Stats_Chart_Data.zip
Удачи и дайте нам знать, если найдете что-нибудь интересное.

Backblaze Hard Drive Stats Q1 2020



На 31 марта 2020 года компания Backblaze имела 132 339 вращающихся жестких дисков в нашей экосистеме облачных хранилищ, распределенных по четырем центрам обработки данных. Из этого числа было 2380 загрузочных дисков и 129 959 дисков с данными. В этом обзоре рассматриваются показатели Q1 2020 и частоты отказов жестких дисков на моделях накопителей данных, которые в настоящее время используются в наших центрах обработки данных, а также приводится несколько примеров и наблюдений. Кроме того, ближе к концу поста мы рассмотрим несколько прогнозов на 2019 год, которые мы представили год назад. Как всегда, мы с нетерпением ждем ваших комментариев.

Статистика отказов жесткого диска за первый квартал 2020 года
В конце первого квартала 2020 года Backblaze использовала 129 959 жестких дисков для хранения данных клиентов. Для нашей оценки мы исключаем из рассмотрения те диски, которые использовались в целях тестирования, и модели, для которых у нас не было как минимум 60 дисков (см. Почему ниже). Это оставляет нам 129 764 жестких дисков. В таблице ниже показано, что произошло в первом квартале 2020 года.


Примечания и наблюдения
Годовой процент отказов (AFR) за первый квартал 2020 года составил 1,07%. Это самая низкая AFR за любой квартал с тех пор, как мы начали отслеживать в 2013 году. Кроме того, AFR за первый квартал 2020 года значительно ниже, чем AFR за первый квартал 2019 года, который составил 1,56%.

В течение этого квартала 4 (четыре) модели дисков от 3 (трех) производителей имели 0 (ноль) отказов дисков. Ни один из дисков Toshiba 4TB и Seagate 16TB не вышел из строя в первом квартале, но в течение квартала на обоих дисках было менее 10 000 дней. Как следствие, AFR может широко варьироваться от небольшого изменения отказов привода. Например, если вышел из строя только один накопитель Seagate 16 ТБ, AFR составит 7,25% за квартал. Точно так же AFR накопителя Toshiba 4TB составит 4,05% с одним провалом в квартале.

Напротив, оба накопителя HGST с 0 (нулевыми) отказами за квартал имеют разумное количество дней накопления, поэтому AFR менее изменчив. Если бы у модели 8 ТБ был 1 (один) сбой за квартал, AFR составила бы только 0,40%, а модель 12 ТБ имела бы AFR всего 0,26% с 1 (одним) отказом за квартал. В обоих случаях 0% AFR за квартал впечатляет.

Было 195 накопителей (129 959 минус 129 764), которые не были включены в приведенный выше список, поскольку они использовались в качестве тестовых накопителей или у нас не было как минимум 60 накопителей данной модели. Например, у нас есть: 20 накопителей Toshiba 16 ТБ (модель: MG08ACA16TA), 20 накопителей HGST 10 ТБ (модель: HUH721010ALE600) и 20 накопителей Toshiba 8 ТБ (модель: HDWF180). Когда мы публикуем квартальную, годовую или пожизненную статистику накопителей, модели с менее чем 60 накопителями не включаются в расчеты или графики. Мы используем как минимум 60 дисков, так как во всех вновь развернутых блоках хранения есть 60 дисков.

Тем не менее, все данные со всех моделей накопителей, включая загрузочные накопители, включены в файлы, к которым можно получить доступ и загрузить их на нашей веб-странице с данными испытаний накопителей.

Вычисление годовой частоты отказов
Во всех наших отчетах мы используем термин «Годовой процент отказов» (AFR). Слово «в годовом исчислении» здесь означает, что независимо от периода наблюдения (месяц, квартал) Частота отказов будет преобразована в годовой показатель. Для данной группы приводов (то есть модель, производитель) Мы рассчитываем AFR для периода наблюдения следующим образом:
  • Отказ дисков — это количество дисков, которые вышли из строя в течение периода наблюдения.
  • Дни привода — это количество дней, в течение которых все наблюдаемые диски работали в течение периода наблюдения.
  • В 2020 году 366 дней, очевидно, что в не високосные годы мы используем 365.
Пример: вычисление AFR для модели привода BB007 за последние шесть месяцев;
  • За период наблюдения (шесть месяцев) было 28 сбоев в работе.
  • В конце периода наблюдения было 6000 жестких дисков.
  • Общее количество дней работы всех накопителей модели BB007 за период наблюдения (6 месяцев) составило 878 400 дней.

За шесть месяцев модель накопителя BB007 имела годовой коэффициент отказов 1,17%.


Суммируя количество дней вождения, вы получаете 878 400, но количество дисков в конце периода наблюдения составляет 6000. Формула дней суток реагирует на изменение количества дисков за период наблюдения, в то время как формула количества дисков реагирует только на счет в конце.

Частота отказов в 0,93% по формуле количества дисков значительно ниже, что хорошо, если вы являетесь производителем дисков, но не соответствует тому, как диски фактически интегрированы и используются в нашей среде. Вот почему Backblaze выбирает метод «дни вождения», так как он лучше соответствует реальности нашего бизнеса.

Прогнозы на первый квартал 2019 года
В обзоре статистики жестких дисков за первый квартал 2019 года мы сделали несколько прогнозов относительно жестких дисков о том, что произойдет к концу 2019 года. Давайте посмотрим, как мы это сделали.

Прогноз: Backblaze продолжит переносить диски емкостью 4 ТБ, и к концу 2019 года их будет менее 15 000: у нас сейчас около 35 000.

Реальность: количество дисков 4 ТБ по состоянию на 31 декабря 2019 года: 34 908.
Обзор: мы были слишком заняты добавлением дисков для переноса любого из них.
Предсказание. Мы установим как минимум двадцать накопителей емкостью 20 ТБ для тестирования.

Реальность: у нас ноль 20ТБ накопителей.
Обзор. Нам не предлагалось тестировать диски емкостью 20 ТБ или иным образом.
Предсказание: Backblaze превысит один эксабайт (1000 петабайт) доступного облачного хранилища. В настоящее время мы имеем около 850 петабайт доступного хранилища.

Реальность: мы объявили один эксабайт в марте 2020 года, сразу после конца 2019 года.
Рецензия: Цитируя Максвелла Смарта, «так сильно скучал».
Прогноз. Для целей тестирования мы установим как минимум 1 накопитель на основе HAMR от Seagate и / или 1 накопитель MAMR от Western Digital.

Реальность: не нюхать диски HAMR или MAMR.
Обзор: Надеюсь, к концу 2020 года.
Подводя итог, я думаю, что вернусь к статистике жесткого диска и оставлю прогнозирование предсказателям и предсказателям.

Статистика срока службы жесткого диска
В приведенной ниже таблице показана частота отказов в течение срока службы моделей жестких дисков, которые мы эксплуатировали по состоянию на 31 марта 2020 года. Отчетный период — с апреля 2013 года по 31 декабря 2019 года. Все перечисленные диски были установлены в течение этого периода времени.

Но как насчет Drive Count?
Некоторым из вас может быть интересно, где «количество накопителей» вписывается в эту формулу? Это не так, и это беспокоит некоторых людей. В конце концов, было бы проще рассчитать AFR как:
AFR = (Отказы двигателя / Счетчик движения) * (366 дней в период наблюдения) * 100

Давайте вернемся к нашему примеру в предыдущем абзаце. В конце периода наблюдения было 6 000 жестких дисков; делать математику:
AFR = (28/6000) * (366/183) * 100 = (0,00467) * (2) * 100 = 0,93%

Используя метод подсчета накопителей, модель BB007 имела частоту отказов 0,93%. Причина различия заключается в том, что Backblaze постоянно добавляет и вычитает диски. Новые хранилища Backblaze появляются каждый месяц; новые функции, такие как совместимость с S3, быстро увеличивают спрос; миграция заменяет старые диски малой емкости на новые диски большей емкости; и иногда в смеси присутствуют клонированные и временные диски. Среда очень динамичная. Количество поездок в любой день в течение периода наблюдения будет варьироваться. При использовании метода подсчета накопителей частота отказов зависит от дня подсчета накопителей. В этом случае последний день периода наблюдения. При использовании метода дней привода частота отказов определяется на весь период наблюдения.

В нашем примере в следующей таблице показано количество накопителей по мере добавления накопителей за шестимесячный период наблюдения:


Данные о жестком диске
Полный набор данных, использованный для создания информации, использованной в этом обзоре, доступен на нашей веб-странице с данными испытаний жесткого диска. Вы можете скачать и использовать эти данные бесплатно в своих целях. Все, что мы просим, — это три вещи: 1) Вы цитируете Backblaze в качестве источника, если вы используете данные, 2) Вы соглашаетесь с тем, что несете единоличную ответственность за то, как вы используете данные, и 3) Вы не продаете эти данные кому-либо — это бесплатно.

Если вы просто хотите, чтобы сводные данные использовались для создания таблиц и диаграмм в этом сообщении в блоге, вы можете загрузить ZIP-файл, содержащий электронную таблицу MS Excel.
f001.backblazeb2.com/file/Backblaze_Blog/Q1_2020_Drive_Stats_Charts_Data.zip
Удачи и дайте нам знать, если найдете что-нибудь интересное.

NEW: S3 Совместимые интерфейсы для B2 Cloud Storage



Еще в 2015 году мы продолжали слышать один и тот же запрос. Это пошло что-то вроде: «Я люблю ваше обслуживание компьютера резервного копирования, но я также необходимо место для хранения данных по другим причинам-резервное копирование серверов, хостинг файлов, а также создания приложений. Можете ли вы дать мне прямой доступ к вашей памяти?» Мы слушали, и мы построили Backblaze B2 Cloud Storage.

Я горжусь и поражен ответом с тех пор. Только за последние два года, у нас были клиенты доверяют нам больше данных, чем они имели в целом наше первое десятилетие. Эти люди и компании используют B2 Cloud Storage в более чем 160 странах, и мы храним над Эксабайтом своих данных.

И сегодня я очень рад объявить о запуске нашей самой запрашиваемой функции: S3 Совместимые интерфейсы для B2 Cloud Storage. Он доступен сразу же, как публичная бета-версия.

Это означает, что теперь вы можете мгновенно использовать Backblaze B2 Cloud Storage, делая немного больше, чем указывать свои данные в новый пункт назначения. У нас есть ряд партнеров, запуск с нами сегодня, используя этот новый API (такие как IBM Aspera, Quantum, и Veeam). Используете ли вы один из этих инструментов или другой S3 Совместимого решения, нет необходимости писать новый код, никаких изменений в рабочем процессе, и без простоев.

Я написал сообщение в блоге, чтобы предоставить более подробную информацию о том, что это выпущенном сегодня. Будем надеяться, что мы можем помочь вам найти все, что «следующая правильная вещь» для вас.

www.backblaze.com/b2/cloud-storage-pricing.html

Backblaze Hard Drive Stats for 2019



Статистика жесткого диска на 2019 год
По состоянию на 31 декабря 2019 года у Backblaze было 124 956 вращающихся жестких дисков. Из этого числа было 2229 загрузочных дисков и 122 658 дисков с данными. В этом обзоре рассматривается частота отказов жесткого диска для моделей дисков данных, работающих в наших центрах обработки данных. Кроме того, мы посмотрим, как работают наши диски емкостью 12 и 14 ТБ, а также познакомимся с новыми дисками емкостью 16 ТБ, которые мы начали использовать в четвертом квартале. По пути мы будем делиться наблюдениями и взглядами на представленные данные, и мы надеемся, что вы сделаете то же самое в комментариях.

Показатели отказов жесткого диска 2019 года
В конце 2019 года компания Backblaze провела мониторинг 122 658 жестких дисков, используемых для хранения данных. Для нашей оценки мы исключаем из рассмотрения те накопители, которые использовались в целях тестирования, и те модели накопителей, для которых у нас не было как минимум 5000 рабочих дней в течение 4 квартала (см. Примечания и замечания, почему). Это оставляет нам 122 507 жестких дисков. В таблице ниже показано, что произошло в 2019 году.



Примечания и наблюдения
Было 151 диск (122 658 минус 122 507), которые не были включены в список выше. Эти накопители либо использовались для тестирования, либо не имели по крайней мере 5000 рабочих дней в четвертом квартале 2019 года. Ограничение в 5000 рабочих дней исключает те модели накопителей, в которых у нас ограниченное число дисков, работающих в течение ограниченного числа дней в течение периода. наблюдение. ПРИМЕЧАНИЕ. Данные обо всех дисках, дисках данных, загрузочных дисках и т. Д. Доступны для загрузки на веб-странице данных теста жесткого диска.

Единственной моделью накопителя, которая не имела сбоев в течение 2019 года, была модель Toshiba 4 ТБ, модель MD04ABA400V. Это очень хорошо, но выборка данных все еще немного мала. Например, если бы в течение года был только 1 (один) сбой диска, Годовая частота отказов (AFR) для этой модели Toshiba была бы 0,92% — все еще отлично, а не 0%.

Привод Toshiba 14 ТБ, модель MG07ACA14TA, работает очень хорошо при AFR 0,65%, что соответствует показателям, установленным накопителями HGST. Со своей стороны, накопители Seagate 6 ТБ и 10 ТБ продолжают показывать хорошие результаты с годовым уровнем отказов 0,96% и 1,00% соответственно.

AFR для 2019 года для всех моделей накопителей составлял 1,89%, что намного выше, чем в 2018. Об этом мы поговорим позже в этом обзоре.

Помимо графика 2019 года — «скрытые» модели дисков
Есть несколько моделей накопителей, которые не попали в таблицу 2019 года, потому что они не записали достаточное количество дней в эксплуатации. Мы хотели потратить несколько минут, чтобы пролить свет на эти модели накопителей и их направление в нашей среде.

Диски Seagate 16 TB
В четвертом квартале 2019 года мы начали квалификацию дисков Seagate на 16 ТБ, модель: ST16000NM001G. На конец 4-го квартала у нас было 40 (сорок) накопителей, что в общей сложности составляло 1440 рабочих дней, что значительно ниже порогового значения в 5000 дней для накопителя в 4-м квартале, поэтому они не составили график 2019 года. В Q4 было 0 (ноль) сбоев, что делает AFR 0%, хороший старт для любого привода. Предполагая, что они продолжают проходить наш процесс аттестации, они будут использованы в проекте миграции на 12 ТБ и при необходимости увеличат емкость в 2020 году.

Диски Toshiba 8 ТБ
В 4 квартале 2019 года было 20 (двадцать) накопителей Toshiba 8 ТБ, модель HDWF180. Эти диски были установлены в течение почти двух лет. В четвертом квартале у них было только 1840 рабочих дней, что ниже порогового значения для отчетов, но срок службы у них составляет 13 994 рабочих дня с отказом только одного диска, что дает нам AFR 2,6%. Нам нравятся эти диски, но к тому моменту, когда они были доступны нам в количестве, мы могли купить диски по 12 ТБ при той же цене за ТБ. Больше плотности, та же цена. Учитывая, что мы переходим на диски емкостью 16 ТБ и более, мы, скорее всего, не будем покупать эти диски в будущем.

Диски HGST 10 ТБ
В эксплуатации находится 20 (двадцать) накопителей HGST 10 ТБ, модель: HUH721010ALE600. Эти диски находились в эксплуатации чуть более года. Они находятся в том же хранилище Backblaze, что и диски Seagate 10 ТБ. За 4 квартала накопители HGST записали всего 1840 дней, а с момента установки — 8 042. Было 0 (ноль) сбоев. Как и в случае с Toshiba 8 ТБ, приобретение большего количества этих 10 ТБ накопителей маловероятно.

Диски Toshiba 16 ТБ
Вы не найдете их в статистике за четвертый квартал, но в первом квартале 2020 года мы добавили 20 (двадцать) дисков Toshiba объемом 16 ТБ, модель: MG08ACA16TA. Они записали в общей сложности 100 дней вождения, поэтому говорить о чем-либо кроме отчета в первом квартале 2020 года слишком рано.

Сравнение статистики жестких дисков на 2017, 2018 и 2019 гг.
В приведенной ниже таблице сравниваются годовые показатели отказов (AFR) для каждого из последних трех лет. Данные за каждый год включают только этот год и модели приводов, представленные в конце каждого года.



Восходящая АФР в 2019 году
Общий AFR за 2019 год значительно вырос в 2019 году. Около 75% различных моделей приводов испытали увеличение AFR с 2018 по 2019 год. За этим ростом стоят два основных фактора. Во-первых, кажется, что накопители на 8 ТБ как группа испытывают кризис среднего возраста по мере взросления, причем каждая модель демонстрирует наибольший зарегистрированный процент отказов. Хотя ни один из показателей не является причиной для беспокойства, они дают примерно одну четверть (1/4) рабочих дней в общем объеме, поэтому любое увеличение их частоты отказов повлияет на общее количество. Второй фактор — накопители Seagate на 12 ТБ, эта проблема активно решается в рамках проекта миграции на 12 ТБ, о котором сообщалось ранее.

Миграция замедляется, а рост — нет
В 2019 году мы добавили 17 729 новых сетевых дисков. В 2018 году большинство из 14 255 добавленных дисков были связаны с миграцией. В 2019 году менее половины новых накопителей предназначались для миграции, а остальные использовались для новых систем. В 2019 году мы сняли с эксплуатации 8 800 дисков на общую сумму 37 петабайт и заменили их на 8 800 дисков, все 12 ТБ, что составляет около 105 петабайт, а затем в 2019 году мы добавили еще 181 петабайт хранения с использованием дисков 12 и 14 ТБ.

Drive Разнообразие
Разнообразие производителей по маркам накопителей немного увеличилось в 2019 г. В 2018 г. накопители Seagate составляли 78,15% накопителей в эксплуатации, а к концу 2019 г. этот показатель снизился до 73,28%. HGST снизился с 20,77% в 2018 году до 23,69% в 2019 году, а Toshiba увеличилась с 1,34% в 2018 году до 3,03% в 2019 году. В 2019 году в центре обработки данных не было накопителей с фирменной символикой Western Digital, но по мере того, как WDC производил ребрендинг новых более крупных Емкость дисков HGST, мы скорректируем наши цифры соответственно.

Статистика срока службы жесткого диска
Хотя сравнение годовой частоты отказов жестких дисков в течение нескольких лет является отличным способом определения тенденций, мы также смотрим на годичные показатели отказов наших жестких дисков в течение всего срока службы. На приведенной ниже диаграмме показана годовая частота отказов всех моделей накопителей, находящихся в производстве по состоянию на 31.12.2009.



Данные о жестком диске
Полный набор данных, использованный для создания информации, использованной в этом обзоре, доступен на нашей странице «Тестовые данные жесткого диска». Вы можете скачать и использовать эти данные бесплатно в своих целях. Все, что мы просим, — это три вещи: 1) вы цитируете Backblaze в качестве источника, если вы используете данные, 2) вы соглашаетесь с тем, что несете полную ответственность за то, как вы используете данные, и 3) вы не продаете эти данные кому-либо; это бесплатно.

Если вы просто хотите, чтобы сводные данные использовались для создания таблиц и диаграмм в этом сообщении в блоге, вы можете загрузить ZIP-файл, содержащий файлы CSV для каждой диаграммы.

Удачи и дайте нам знать, если найдете что-нибудь интересное.

Backblaze Hard Drive Stats Q3 2019



По состоянию на 30 сентября 2019 года у Backblaze было 115 151 вращающихся жестких дисков, распределенных по четырем центрам обработки данных на двух континентах. Из этого числа было 2098 загрузочных дисков и 113 053 дисков с данными. Мы посмотрим на частоту отказов жестких дисков в течение срока службы моделей накопителей данных, которые в настоящее время работают в наших центрах обработки данных, но сначала мы рассмотрим события, которые произошли в Q3, которые потенциально повлияли на статистику накопителей за этот период. Как всегда, мы опубликуем данные, которые мы используем в этих отчетах, на нашей веб-странице с тестовыми данными жесткого диска, и мы с нетерпением ждем ваших комментариев.
www.backblaze.com/b2/hard-drive-test-data.html

Статистика жесткого диска за 3 квартал 2019 года
На этом этапе в предыдущих отчетах по статистике жестких дисков мы раскрывали квартальную таблицу статистики жестких дисков. На этот раз мы представим только таблицу Lifetime Hard Drive Failure, которую вы можете увидеть, если перейдете к концу этого отчета. Для таблицы Q3 данные, которые мы обычно используем для создания этого отчета, могли быть косвенно затронуты одной из наших служебных программ, которая выполняет проверки целостности данных. Хотя мы не верим, что долгосрочные данные будут затронуты, мы чувствовали, что вы должны знать. Ниже мы углубимся в подробности, пытаясь объяснить, что произошло в 3-м квартале и что, по нашему мнению, все это значит.

Что такое неисправность диска?
На протяжении многих лет мы заявляли, что сбой диска происходит, когда диск перестает вращаться, не остается участником RAID-массива или демонстрирует постоянное ухудшение со временем, о чем свидетельствует статистика SMART и другие системные проверки. Например, диск, который сообщает о быстро увеличивающемся или вопиющем количестве ошибок чтения носителя, является кандидатом на замену в качестве неисправного диска. Эти типы ошибок обычно видны в статистике SMART, которую мы записываем как ненулевые значения для SMART 197 и 198, которые регистрируют обнаружение и исправление поврежденных секторов диска, как правило, из-за ошибок носителя. Мы также отслеживаем другие статистические данные SMART, но эти два наиболее важны для этого обсуждения.

Что может быть неочевидным, так это то, что изменения некоторых атрибутов SMART происходят только при выполнении определенных действий. Снова используя SMART 197 и 198 в качестве примеров, на эти значения влияют только тогда, когда операция чтения или записи происходит в секторе диска, носитель которого поврежден или иным образом не позволяет выполнить операцию. Короче говоря, статистические данные SMART 197 и 198, имеющие сегодня нулевое значение, не изменятся, если во время нормальной работы диска не будет обнаружен плохой сектор. Эти две SMART-статистики не вызывают чтения и записи, они только регистрируют аномальное поведение от этих операций.

Защита сохраненных данных
Когда файл или группа файлов поступает в центр обработки данных Backblaze, файл делится на части, которые мы называем осколками. Для получения дополнительной информации о том, как создаются и используются сегменты в архитектуре Backblaze, обратитесь к сообщениям в блогах Backblaze Vault и Backblaze Erasure Coding. Для простоты, скажем, осколок — это блок данных, который находится на диске в нашей системе.

Поскольку каждый шард хранится на жестком диске, мы создаем и храним односторонний хэш содержимого. По причинам, варьирующимся от повреждения носителя до гниения и гамма-излучения, мы регулярно проверяем целостность этих сегментов, повторно вычисляя хэш и сравнивая его с сохраненным значением. Чтобы пересчитать хеш-значение сегмента, утилита, известная как проверка целостности сегмента, считывает данные в сегменте. Если между недавно вычисленными и сохраненными значениями хеша есть несоответствие, мы перестраиваем шард, используя другие шарды, как описано в сообщении в блоге Backblaze Vault.

Проверки целостности осколка
Утилита проверки целостности осколка запускается как служебная задача на каждом модуле хранения. В конце июня мы решили увеличить частоту проверок целостности сегментов в ферме данных, чтобы эти проверки выполнялись как можно чаще на данном диске, сохраняя при этом его производительность. Мы увеличили частоту проверок целостности сегментов, чтобы учесть растущее число дисков большой емкости, которые были развернуты в последнее время.

Последствия для статистики движения
Как только мы записываем данные на диск, эта часть диска остается неизменной до тех пор, пока пользователь не прочитает данные, данные не будут считаны процессом проверки целостности сегмента для повторного вычисления хэша, или данные не будут удалены и перезаписаны. Как следствие, нет обновлений, касающихся этого раздела диска, отправленного в статистику SMART, пока не произойдет одно из этих трех действий. Ускоряя частоту проверок целостности осколка на диске, диск читается чаще. Ошибки, обнаруженные во время операции чтения утилиты проверки целостности сегмента, фиксируются соответствующими атрибутами SMART. Собирая воедино кусочки, проблема, которая могла бы быть обнаружена в будущем — при нашей предыдущей каденции проверки целостности осколка — теперь будет отслеживаться статистикой SMART, когда процесс читает этот раздел диска сегодня.

Увеличивая частоту проверки целостности осколка, мы потенциально перенесли ошибки, которые должны были быть обнаружены в будущем, в Q3. Хотя обнаружение потенциальных проблем раньше — это хорошо, вполне возможно, что сбои жестких дисков, записанные в 3-м квартале, могут быть искусственно высокими, поскольку будущие сбои переносятся в квартал. Учитывая, что наши расчеты в годовом исчислении отказов основаны на днях вождения и сбоях в работе, возможное увеличение количества отказов в Q3 может вызвать искусственный скачок в годовом исчислении отказов Q3. Это то, что мы будем отслеживать в ближайшие кварталы.

Обратите внимание на несколько моментов, поскольку мы учитываем влияние ускоренных проверок целостности осколков на данные Q3 для Drive Stats:
  • Количество отказов дисков в течение срока службы данной модели дисков не должно увеличиваться. В лучшем случае мы просто немного отодвинули неудачи.
  • Вполне возможно, что проверки целостности осколка не сделали ничего, чтобы увеличить количество отказов дисков, которые произошли в Q3. Квартальные показатели отказов не сильно отличались от предыдущих кварталов, но мы не чувствовали себя комфортно публиковать их в настоящее время, учитывая обсуждение выше.

Срок службы жесткого диска Статистика до Q3 2019
Ниже приведены показатели отказов по сроку службы для всех моделей наших приводов, находящихся в эксплуатации по состоянию на 30 сентября 2019 года.


Срок службы отказов для моделей накопителей в производстве незначительно вырос с 1,70% в конце второго квартала до 1,73% в конце третьего квартала. Это тривиальное увеличение, по-видимому, указывает на то, что отмеченная выше потенциальная проблема с данными Q3 минимальна и находится в пределах нормального отклонения. Тем не менее, мы не удовлетворены тем, что это правда, и у нас есть план, чтобы убедиться, как мы увидим в следующем разделе.

Что дальше для Drive Stats?
Мы будем продолжать публиковать нашу статистику по жестким дискам каждый квартал, и в следующем квартале мы также планируем включить квартальный график (Q4). В обозримом будущем нам предстоит немного проделать внутреннюю работу, поскольку мы будем отслеживать две разные группы накопителей. Одной из групп будут диски, которые, так сказать, «прошли через червоточину», поскольку они присутствовали во время ускоренных проверок целостности осколка. Другая группа будет теми дисками, которые были запущены в производство после того, как настройка проверки целостности осколка была уменьшена. Мы сравним эти два набора данных, чтобы увидеть, действительно ли какое-либо влияние увеличенных проверок целостности осколков на частоту отказов жесткого диска Q3. Мы сообщим вам, что мы найдем в последующих отчетах по статистике дисков.

Данные о жестком диске
Полный набор данных, использованный для создания информации, использованной в этом обзоре, доступен на нашей веб-странице с данными испытаний жесткого диска. Вы можете скачать и использовать эти данные бесплатно в своих целях. Все, что мы просим, ​​- это три вещи: 1) вы цитируете Backblaze в качестве источника, если вы используете данные, 2) вы соглашаетесь с тем, что несете единоличную ответственность за то, как вы используете данные, и 3) вы не продаете эти данные кому-либо; это свободно. Удачи и дайте нам знать, что вы найдете.

Backblaze 7.0 - История версий и не только



Анонс Backblaze Cloud Backup 7.0: история версий и новые версии!
В этом выпуске для потребителей и предприятий добавлено одно из самых востребованных улучшений для нашей службы Backblaze Cloud Backup: возможность постоянно обновлять, изменять и даже удалять файлы в резервных копиях навсегда, расширяя историю версий. Кроме того, мы сделали наши приложения для Windows и Mac еще лучше, обновили нашу поддержку единого входа (SSO), добавили дополнительные параметры безопасности учетной записи, стали готовыми для Catalina и расширили функциональность наших мобильных приложений для iOS и Android. Эти изменения потрясающие, и мы уверены, что вы их полюбите!

Расширенная версия истории
Вы когда-нибудь удаляли файл по ошибке или случайно сохранили из-за важной работы? Backblaze всегда хранит 30-дневную историю версий ваших резервных копий, чтобы помочь в подобных ситуациях, но сегодня мы даем вам возможность продлить историю версий до одного года или навсегда. Эта новая функция доступна на странице обзора для резервного копирования компьютера и на странице управления группами, если вы используете Backblaze Groups! Backblaze v7.0 требуется для использования истории версий. Узнайте больше о версиях и расширении истории версий.


30-дневная история версий
Все учетные записи резервного копирования компьютера Backblaze имеют 30-дневную историю версий, включенную в их резервную копию. Это означает, что вы можете вернуться на 30 дней назад и восстановить старые версии ваших файлов или даже удаленных файлов.

1-летняя история версий
Продление истории версий с 30 дней до одного года означает, что все версии ваших файлов, для которых выполняется резервное копирование — независимо от того, были ли вы обновлены, изменены или полностью удалены с вашего компьютера — останутся в резервной копии Backblaze в течение одного года после изменения или удален с вашего устройства. Продление истории версий до одного года — это дополнительные 2 доллара в месяц, и плата взимается в зависимости от типа вашей лицензии (ежемесячная, годовая или 2-летняя). Как всегда, любые расходы будут пропорционально сопоставлены с датой продления лицензии.

История версий навсегда
Продление истории версий с 30 дней или одного года до бесконечности означает, что Backblaze никогда не удалит файлы из резервной копии Backblaze, независимо от того, обновили ли вы их, изменили или полностью удалили их со своего компьютера или нет. Продление истории версий навсегда аналогично одному году, за дополнительную плату в 2 доллара США в месяц (пропорционально типу вашего лицензионного плана) плюс 0,005 доллара США / ГБ в месяц за версии, измененные на вашем компьютере более года назад.



Это отличная новая функция для людей, которые хотят больше спокойствия. Чтобы узнать больше об истории версий, ценах и примерах восстановления, посетите FAQ по истории версий.
help.backblaze.com/hc/en-us/articles/360035247494

Обновления приложений MacOS и Windows
Более эффективная производительность для загрузки

Мы изменили способ, которым Backblaze передает большие файлы на ваш компьютер, переработав способ группировки и разделения файлов для загрузки. Максимальный размер пакета увеличен с 30 МБ до 100 МБ. Это позволяет приложению более эффективно передавать данные за счет лучшего использования потоков, что также сглаживает производительность загрузки, снижает чувствительность к задержкам и приводит к уменьшению структуры данных.

Обновления единого входа для групп Backblaze
Мы добавили поддержку Microsoft Office 365 в Backblaze Groups и сделали SSO-обновления для функции Inherit Backup State, чтобы она поддерживала учетные записи с поддержкой SSO. Это означает, что теперь вы можете войти в Backblaze, используя свои учетные данные Office 365, аналогично использованию единого входа Google.

Более высокое разрешение для более удобного просмотра информации
Мы обновили способ, которым наши установщики и приложения выглядят на дисплеях с более высоким разрешением, чтобы сделать просмотр более приятным!

Только для Windows
Проблема OpenSSL вызывала проблемы на чипсете Intel Apollo Lake, но мы разработали обходной путь. Apollo Lake — это чипсет более низкого уровня, поэтому не многие клиенты сталкивались с проблемами, но теперь компьютеры, использующие Apollo Lake, будут работать как положено.

Только MacOS
Мы добавили поддержку MacOS Catalina и улучшили некоторые системные сообщения MacOS. MacOS предоставляет несколько замечательных новых функций для Mac, и мы изменили некоторые из поведений нашего приложения, чтобы лучше соответствовать Catalina. В Каталине Apple теперь требует, чтобы приложения чаще запрашивали разрешение, а поскольку Backblaze является приложением для резервного копирования, нам требуется много разрешений. Таким образом, вы можете заметить больше системных сообщений при установке Backblaze на новую ОС.

Примечание: Backblaze восстанавливает
Чтобы реализовать функции истории версий, нам пришлось изменить способ обработки дат на странице восстановления. Это может показаться не таким уж большим делом, но у нас было выпадающее меню с датой, в котором вы могли выбрать временные рамки, из которых вы хотите восстановить данные. Что ж, если у вас есть история версий за 1 год или навсегда, у вас не может быть выпадающего меню с бесконечной прокруткой, поэтому мы реализовали средство выбора даты, чтобы помочь с выбором. Теперь вы можете легче выбирать даты и время, с которых вы хотите восстановить файлы.



Backblaze 7.0 Доступно: 8 октября 2019
Мы будем постепенно автоматически обновлять всех пользователей в ближайшие недели. Чтобы обновить сейчас:
Выполните проверку обновлений (щелкните правой кнопкой мыши значок Backblaze)
Скачать с www.backblaze.com/update.htm
Эта версия теперь является загрузкой по умолчанию на сайте www.backblaze.com

Петабайты на бюджете: 10 лет и счет



Этот пост предназначен для всех фанатов хранения, которые следили за приключениями Backblaze и наших модулей хранения на протяжении многих лет. Остальные из вас могут прийти на прогулку.

Прошло 10 лет с тех пор, как Backblaze представила миру наш накопитель. В сентябре 2009 года мы объявили о своем огромном, привлекательном красном сервере хранения 4U, оборудованном 45 жесткими дисками, обеспечивающими 67 терабайт хранилища всего за 7 867 долларов, что составляет около 0,11 доллара за гигабайт. В рамках этого объявления мы разработали дизайн для того, что мы назвали Storage Pod, и рассказали вам и всем, как вы, о том, как его создать, и многие из вас сделали.

Версия Backblaze Storage Pod 1 была анонсирована в нашем блоге с небольшой помпой. Мы подумали, что это будет интересно горстке людей — таких как ты. На самом деле, он даже не назывался версией 1, так как никто никогда не думал, что будет версия 2, а тем более версия 3, 4, 4.5, 5 или 6. Мы ошиблись. Модуль Backblaze Storage Pod покорил многих ИТ-специалистов и специалистов по хранению данных, которые были оскорблены необходимостью заплатить королевский выкуп за систему хранения высокой плотности. «Я могу построить это за десятую часть цены», — почти слышно, как они бормочут себе под нос. Бормоча или нет, мы думали то же самое, и версия 1 родилась.

Podfather
Тим, «Подфазер», как мы его знаем, был лидером Backblaze в создании первого хранилища. Он получил помощь в разработке от наших друзей из Protocase, которые создали первые три поколения модулей хранения для Backblaze, а также создали компанию под названием 45 Drives для продажи своих собственных версий модулей хранения — это открытый исходный код в лучшем виде. Прежде чем мы определились с дизайном версии 1, было несколько экспериментов:


Оригинальный стручок для хранения был создан по образцу деревянной или двух стручков. Нам нужно было протестировать программное обеспечение во время конструирования первых металлических модулей.

Octopod был быстрым и грязным ответом на неправильные кабели SATA — слишком длинные и светящиеся. Да, в нижней части стручка просверлены отверстия.


Оригинальная лицевая панель, показанная выше, использовалась на 10 бочках для хранения до 1.0. Он был обновлен до трех кругового дизайна непосредственно перед Storage Pod 1.0.

Почему стручки для хранения красного цвета? Когда мы построили первые, у производителя осталась партия красной краски, которую можно было использовать на наших капсулах, и она была бесплатной.

Еще в 2007 году, когда мы запустили Backblaze, не было большого количества доступных вариантов для хранения больших объемов данных. Нашей целью было взимать $ 5 / месяц за неограниченное хранение данных на одном компьютере. Мы решили создать наши собственные серверы хранения, когда стало очевидно, что, если бы нам пришлось использовать другие доступные решения, нам пришлось бы брать гораздо больше денег. Storage Pod 1.0 позволил нам хранить один петабайт данных примерно за 81 000 долларов. Сегодня мы снизили это до 35 000 долларов с помощью Storage Pod 6.0. Если принять во внимание, что средний объем данных на пользователя почти утроился за тот же период времени, и наша цена теперь составляет $ 6 / месяц за неограниченное хранилище, математика сегодня работает примерно так же, как и в 2009 году.

Мы должны были сделать что-то правильно
Модуль Backblaze Storage Pod — это больше, чем просто доступное хранилище данных. Версия 1.0 представила или популяризировала три фундаментальных изменения в дизайне хранилища: 1) Вы могли бы построить систему из обычных компонентов, и она работала бы, 2) Вы могли бы монтировать жесткие диски вертикально, и они все еще вращались бы, и 3) Вы могли бы использовать жесткий потребитель диски в системе. Трудно определить, какая из этих трех функций обидела и / или взволновала больше людей. Справедливо сказать, что через десять лет все пошло нам на пользу, поскольку в настоящее время у нас на платформе имеется около 900 петабайт хранилища.

За последние 10 лет люди подогрели наш дизайн или хотя бы элементы дизайна. Начиная с 45 накопителей, многие компании работали над созданием систем хранения высокой плотности, от 45 до 102 жестких дисков в корпусе 4U, и представили различные конструкции, поэтому сегодня список систем хранения высокой плотности, в которых используются вертикально установленные накопители, впечатляет:


Другой движущей силой в разработке некоторых из этих систем является Open Compute Project (OCP). Созданные в 2011 году, они собирают и обмениваются идеями и проектами для хранения данных, конструкций стоек и связанных с ними технологий. Группой управляет The Open Compute Project Foundation как 501 © (6), и в ее состав входят многие светилы отрасли в сфере хранения данных.

Что мы сделали в последнее время?
В технологической стране 10 лет чего-либо — это много. То, что было захватывающим тогда, ожидается сейчас. И то же самое произошло с нашим любимым хранилищем. В течение многих лет мы вводили обновления и обновления, скручивая обычные циферблаты: снижение стоимости, ускорение, увеличение емкости, снижение вибрации и так далее. Все хорошее. Но мы не можем обмануть вас, особенно если вы читали это далеко. Вы знаете, что Storage Pod 6.0 был представлен в апреле 2016 года, и, откровенно говоря, это были сверчки с тех пор, как он относится к Storage Pod.

Три с лишним года без инноваций. Почему?
  1. Если это не сломано, не исправляйте это. Storage Pod 6.0 построен в США компанией Equus Compute Solutions, нашим контрактным производителем, и он отлично работает. Затраты на производство понятны, производительность хороша, а новые диски более высокой плотности работают достаточно хорошо в корпусе 6.0.
  2. Дисковые миграции заставляли нас быть занятыми. Со второго квартала 2016 года по второй квартал 2019 года мы перенесли более 53 000 дисков. Мы заменили диски емкостью 2, 3 и 4 терабайта на диски емкостью 8, 10 и 12 терабайт, удвоив, утроив и иногда увеличивая в четыре раза плотность хранения модуля хранения.
  3. Модернизация стручка заставляла нас быть занятыми. Со второго квартала 2016 года по первый квартал 2019 года мы обновили наши старые модули хранения V2, V3 и V4.5 до V6.0. Затем мы раздавили несколько старых с помощью MegaBot и отдали больше. Сегодня уже нет автономных контейнеров для хранения; все они являются членами Хранилища Backblaze.
  4. Много данных занимало нас. Во втором квартале 2016 года у нас было 250 петабайт хранения данных в производстве. Сегодня у нас есть 900 петабайт. Это много данных, которые вы, ребята, дали нам (спасибо, кстати), и множество новых систем для развертывания. На приведенной ниже диаграмме показана проблема, с которой столкнулись наши специалисты ЦОД.

Другими словами, сотрудники нашего центра обработки данных были очень, очень заняты и не интересовались новинками. Теперь, когда мы наняли еще больше технических специалистов, давайте поговорим о том, что будет дальше.

Storage Pod Version 7.0 — Почти
Да, на чертежной доске есть Backblaze Storage Pod 7.0. Вот краткий список некоторых функций, которые мы рассматриваем:
  • Обновление материнской платы
  • Обновите процессор и рассмотрите возможность использования процессора AMD
  • Обновление блоков питания, возможно, переход на один блок
  • Обновление с 10Gbase-T до 10GbE SFP + оптическая сеть
  • Обновление карт SATA
  • Изменение конструкции крышки без инструментов
Сроки еще не определены, но самое подходящее время, чтобы спросить нас об этом, — начало 2020 года.

«Это хорошо», — говорите вы вслух, но на самом деле вы думаете: «Это так? Где Backblaze во всем этом? »И вот где вы входите.

Блок хранения Backblaze следующего поколения
Мы не из идей, но одна из вещей, которые мы поняли за эти годы, — то, что многие из вас действительно умны. С момента открытия проекта Storage Pod в 2009 году мы получили бесчисленное множество интересных, продуманных и иногда странных идей по улучшению дизайна. Когда мы смотрим в будущее, мы были бы глупы не спрашивать ваши мысли. Кроме того, вы все равно сообщите нам об этом в Reddit, HackerNews или о том, где вы читаете этот пост, так что давайте просто перейдем к поиску.

Построить или купить
Два основных варианта: мы проектируем и создаем свои собственные серверы хранения или покупаем их у кого-то другого. Вот некоторые из критериев, как мы думаем об этом:
  • Стоимость. Нам хотелось бы, чтобы стоимость сервера хранения составляла около 0,030–0,035 долл. На гигабайт хранилища (или меньше, конечно). Это включает в себя сервер и диски внутри. Например, использование готовых жестких дисков Seagate объемом 12 ТБ (модель: ST12000NM0007) в модуле хранения 6.0 стоит около 0,032–0,034 долл. / Гигабайт в зависимости от цены накопителей в данный день.
  • Международный: Теперь, когда у нас есть дата-центр в Амстердаме, мы должны иметь возможность доставлять эти серверы куда угодно.
  • Техническое обслуживание: все должно быть легко починить или заменить, особенно приводы.
  • Товарные части: везде, где это возможно, запчасти должны легко приобретаться, в идеале у нескольких поставщиков.
  • Стойки: Мы бы предпочли продолжать использовать 42-дюймовые шкафы, но придумали что-то более глубокое и рассмотрим это.
  • Возможно сегодня: нет ДНК-накопителей или других задумчивых технологий. Нам нужно хранить данные сегодня, а не в 2061 году.
  • Масштабирование. Ничто в решении не должно ограничивать возможности масштабирования систем. Например, мы должны быть в состоянии обновить диски до более высокой плотности в течение следующих 5-7 лет.

Кроме этого нет никаких ограничений. Любые из следующих аббревиатур, слов и фраз могут быть частью предложенного вами решения, и мы не будем обижаться: SAS, JBOD, IOPS, SSD, резервирование, вычислительный узел, шасси 2U, шасси 3U, горизонтальные жесткие диски, прямой провод, уровни кэширования, устройство, пограничные устройства хранения, PCIe, оптоволоконный канал, SDS и т. д.

Решение не обязательно должно быть Backblaze. Как видно из списка, приведенного ранее в этом посте, Dell, HP и многие другие делают платформы хранения высокой плотности, которые мы могли бы использовать. Сделайте хороший пример для любого из этих подразделений, или любого другого, который вам нравится, и мы рассмотрим.

Что мы будем делать со всем вашим вкладом?
Мы уже начали с запуска Backblaze Labs и провели несколько экспериментов. В ближайшие месяцы мы поделимся с вами тем, что происходит, по мере продвижения этого проекта. Может быть, мы представим Storage Pod X или возьмем некоторые из подделок Storage Pod за спин. В любом случае, мы будем держать вас в курсе. Заранее благодарим за ваши идеи и спасибо за вашу поддержку в течение последних десяти лет.

www.backblaze.com

Логистика поиска подходящего дата-центра: большие европейские



Неделя Европы в Backblaze! Во вторник мы объявили об открытии нашего первого европейского дата-центра. Вчера мы обсуждали процесс поиска источников данных. Сегодня мы сосредоточимся на том, как мы сузили список до небольшой группы финалистов. А завтра мы поделимся тем, как мы в конечном итоге выбрали нашего нового партнера.

Десять локаций, три страны, три дня. Даже самый трудолюбивый человек в шоу-бизнесе не справится с такими проблемами. Но для нашего главного операционного директора Джона Трана и генерального директора UpStack Криса Траппа именно это они и решили сделать.

Во вчерашнем сообщении мы обсудили путь получения 40 предложений от поставщиков, которые могли бы соответствовать нашим критериям для нашего нового европейского центра обработки данных (DC). Это было замечательное достижение само по себе, но все еще только часть пути к нашей цели фактического открытия DC. Нам нужно было сузить список.

С помощью UpStack мы начали фильтровать список на основе некоторых качественных характеристик: репутации вендора, ориентации на вендора и т. Д. Крис сумел привести нас к списку из 10. Сегодняшние чудеса технологий, такие как платформа UpStack, помогают люди получают больше информации и создают более широкие сети, чем когда-либо в истории человечества. Недостатком этого является то, что вы получаете много информации на бумаге, но это плохая замена тому, что вы можете собрать лично. Если вы ищете хорошего, долгосрочного партнера, то для того, чтобы найти правильное соответствие, необходимо понимать такие вещи, как то, как они работают и ДНК их компании. Итак, чтобы найти нашего нового партнера, нам нужно было отправиться в путешествие.

Крис взял на себя инициативу по бронированию встреч. Большая часть короткого списка сгруппирована в Нидерландах и Ирландии. Остальные были в Бельгии, и с помощью магии Google Maps можно было представить эффективную поездку во все три страны. Такое ощущение, что все это можно сделать всего за три дня в Европе. Войдя, они знали, что это будет сжатый график и что они будут в движении. Как опытные путешественники, они приносили небольшие сумки, которые легко помещались в накладные и подходящие адаптеры питания.

По дороге
23 июля 2018 года Джон покинул международный аэропорт Сан-Франциско (SFO) в 7:40 утра по безостановочному маршруту в Амстердам. Принимая во внимание 5448 миль между двумя городами и изменение времени, Джон приземлился в Амстердамском аэропорту Схипхол (AMS) в 7:35 утра 24 июля. Он приземлится домой 27 июля в 6:45 вечера.

Вторник (день первый)
Первый день официально начался, когда в 7:35 утра по местному времени в Амстердаме приземлился перевод Джона в Амстердам. К счастью, перелет Криса из нью-йоркской La Guardia также был вовремя. Благодаря обоим полетам вовремя они смогли встретиться в аэропорту: буквально, потому что никогда раньше не встречались.

Оба были перенесены в мужскую комнату аэропорта, чтобы переодеться в дорожную одежду и переодеться в костюм. В конце концов, выбор центра обработки данных — серьезное дело. В то время как изменения ванной комнаты аэропорта лучше всего оставить для шпионских романов, Джон и Крис быстро справились с этим и направились в зону проката автомобилей.

В тот день они закончили гастроли по четырем DC. Одним из самых больших результатов поездки было то, что посещение дата-центров похоже на дегустацию вин. В то время как некоторые из различий можно предугадать из спецификаций на бумаге, при попытке выяснить разницу между A и B очень полезно сравнивать бок о бок. Также как и дегустация вин, есть тонкая грань между пониманием нюансов между несколькими вещами, и все это начинает смешиваться. В обоих случаях, после полного рабочего дня, вы чувствуете, что, вероятно, вам не следует использовать тяжелую технику.

В первый день наша команда увидела широкий спектр вариантов. Физическое растение само по себе является одной из областей дифференциации. Несмотря на то, что у нас есть требования к таким параметрам, как мощность, пропускная способность и безопасность, все еще остается много возможностей для компромиссов между теми DC, которые превышают это требование. И это только физическое пространство. Первый этап успешного скрининга (обсуждаемый в нашем предыдущем посте) — это эффективная проверка неэмоциональных переменных решения — спецификации, цены, репутации — но не людей. Каждый ДЦ укомплектован людьми, и культурные связи важны для любого партнерства. В течение дня одним из самых больших отличий, которое мы заметили, была культура каждого конкретного ДК.

Третьей остановкой дня стал Interxion Amsterdam. Хотя мы не знали этого в то время, они в конечном итоге стали нашим партнером по выбору. На бумаге было ясно, что Interxion будет претендентом. Его впечатляющее оборудование отвечает всем нашим требованиям, и, случайно, у него есть доступная площадь, которая почти соответствует спецификации того, что мы искали. Во время нашего визита объект был впечатляющим, как и ожидалось. Но связь, которую мы чувствовали с командой, оказалась бы той вещью, которая в конечном счете имела бы значение.

Покинув последний тур DC около 19:00, наша команда поехала из Амстердама в Брюссель. Второй день станет еще одним утренним стартом, и после прибытия в Брюссель чуть позже 9 вечера они заработали немного отдыха!

Совет посвященного лица: Гран-Плас, Брюссель В начале своей карьеры Джон провел много времени в Европе и, в частности, в Брюсселе. Одним из его любимых мест является Grand Place (Центральный рынок Брюсселя). Если вы по соседству, он рекомендует вам пойти и насладиться бельгийским пивом, сидя в одном из ресторанов на рынке. Умный ход — принять совет. Крис, новичок в Брюсселе, дал туру Джона благоприятный рейтинг TripAdvisor.

Среда (день второй)
Получив заслуженную пару часов сна, день официально начался с встречи в 8:30 утра для первого DC дня. Крупные операторы постоянного тока, как правило, имеют несколько мест, а постоянные пять и шесть управляются компаниями, которые также управляют участками, посещенными в первый день. Культурно было замечательно сравнить команды и операционную изменчивость в разных местах. Даже внутри одной и той же компании команды в разных местах обладают уникальными личностями и стилями работы, и все это служит для того, чтобы усилить необходимость физического посещения ваших предполагаемых партнеров перед принятием решения.

После двух утренних визитов в округ Колумбия Джон и Крис отправились в аэропорт Брюсселя, чтобы успеть на рейс в Дублин. В какой-то момент во время поездки выяснилось, что билеты в Дублин на самом деле не были куплены. Смартфоны и связь преобразуют в таких поездках.

Сам полет прошел без происшествий. Когда они приземлились, они добрались до места проката, и их машина ждала их. О, кстати, мелкие детали, но руль оказался не с той стороны машины! Крис крепко согнулся, и у Джона всплыли воспоминания о водительском праве, так как он никогда не ехал по правой стороне автомобиля. Вскоре после выхода из аэропорта выяснилось, что в Ирландии также едут по левой стороне дороги. Смартфоны и подключение не были необходимы для этого открытия. К счастью, поездка прошла без происшествий, и до отеля можно было добраться без происшествий. После работы и семейных проверок, еще один день был записан на книги.

Бразенхед, Дублин
Наша команда зарегистрировалась в их отеле и направилась в Бразенхед на ужин. Старейший паб Ирландии стоит посетить. Именно здесь мы сталкиваемся с нашей, это действительно маленькая номинация мира для поездки. После разговора с соседями за ужином нашей команде спросили, что они делают в Дублине. Джон представился в качестве главного операционного директора Backblaze, и разговор, казалось, немного остыл. Видимо, их соседом был кто-то из другого крупного поставщика облачных хранилищ. Видимо, не всем компаниям нравится делиться информацией так же, как нам.

Четверг (день третий)
День снова начался с отъезда в 8:30 утра. Имейте в виду, что во время всего этого у Джона и Криса была своя дневная работа, и семьи возвращались домой, чтобы оставаться на связи. Сегодня будет четыре тура DC. Одно интересное замечание о поездке: для эксплуатации центра обработки данных требуется достаточное количество инфраструктуры. В идеальном мире мощность и пропускная способность поступают в разных местах от разных поставщиков. Это часто приводит к тому, что контроллеры домена объединяются вокруг узлов инфраструктуры. Первые два сегодняшних ДК были через дорогу друг от друга. Мы предполагаем, но не можем проверить, жесткое соперничество между компаниями по футболу.

Хотя прогулка по улице была интересной, в случае двух последних ДК они буквально делили одно и то же пространство; меньший провайдер субарендует пространство от большего. Здесь, опять же, действующие лица дифференцировали компании. Не обязательно, чтобы одно было хуже другого, вопрос в том, кого вы считаете лучшим партнерским партнером для вашего собственного стиля. В этом случае меньший из двух провайдеров выделялся из-за страсти и энтузиазма, которые мы испытывали от команды, и не повредило, что они давние энтузиасты Hard Drive Stats (лесть поможет вам везде!).

Хотя поездка и этот пост были сосредоточены на поиске нашего нового местоположения в Вашингтоне, открытие наших первых физических операций за пределами США имело ряд деловых последствий. Таким образом, Джон позаботился о том, чтобы зайти в местный офис нашей международной бухгалтерской фирмы, чтобы воспользоваться возможностью, чтобы узнать их.

Встреча завершилась как раз к тому времени, когда Крис и Джон добрались до фабрики Гиннеса к 6:15 вечера. По прибытии выяснилось, что последний вход на фабрику Гиннеса — 6 часов вечера. Смартфоны и связь действительно могут быть преобразующими в таких поездках. Все это говорит о том, что нашим бесстрашным путешественникам, не затрагивая каких-либо конкретных действующих лиц, удалось найти свой путь, и они могли подать домой отчет о том, что им удалось взять одну или две пинты в месте Сент-Джеймса.




Команда уезжала в свои дома рано утром следующего дня. Джон вернулся в Калифорнию как раз на поздний ужин со своей семьей и хорошо заработанные выходные.

После долгой продуктивной поездки у нас был список трех финалистов. Завтра мы обсудим, как мы сократили его с трех до одного. До тех пор, убей (ура)!