GalaxyData отмечает День сисадмина до 8 августа!



С Днем сисадмина! Подождите… что именно такое День сисадмина? О, это всего лишь одни из величайших 24 часов на планете… и, пожалуй, самый важный праздник…

Мы считаем, что этому дню нужно уделять больше внимания, и его определенно стоит отпраздновать!

Поэтому мы решили предоставить СКИДКУ 15% на виртуальные сервера любой конфигурации!

Тебе нужно успеть: использовать промокод GALAXYADMIN и заказать новые VDS с 15% скидкой можно только до 8 августа!
Как получить скидку 15%?
  • Выберите тариф и сделайте заказ.
  • В корзине примените промокод GALAXYADMIN.
  • Скидка активируется в течение трёх минут.
  • Оплатите сервер на четверть дешевле.
Обратите внимание: скидка сработает на любой срок заказа VDS при единовременной оплате за этот период (1, 3, 6 или 12 месяцев).
https://galaxydata.ru

Промо-тарифы в Германии по доступным ценам



Стараясь угодить всем нашим нынешним и потенциальным клиентам, HSHP предлагает Вам опробовать новые тарифы в Германии для низкобюджетных и нетребовательных задач.

Сервер под VPN, Proxy, личный бот в Telegram и многое другое — доступен от 99 рублей за конфигурацию 1 vCPU, 1 GB ОЗУ, 10 GB NVMe и 100 Мбит безлимитного трафика соответственно.

Все сервера оборудованы бесплатной базовой DDoS-защитой, возможностью установить любую нужную ОС, а так же — поддержкой 24/7, чтобы оперативно решить любые проблемы.

Спешите, ведь предложение и количество серверов ограничено! Заказывайте сейчас на my.hshp.host

Наш сайт с тарифами: https://hshp.host
Поддержка в Telegram: https://t.me/hshpsupport_bot

Прием зарубежных карт



Дорогие друзья! Мы нашли способ принимать платежи от владельцев зарубежных карт. Эта возможность стала доступна практически для всех карт зарубежных банков. Если у вас ранее возникали проблемы с оплатой наших услуг, то теперь стать нашими партнерами очень просто как и раньше.
https://serv-tech.ru

Серверные скидки августа

Здравствуйте, Виталий. Вот и начался последний месяц этого лета. Впереди еще 4 недели солнца и хорошего настроения. Но не стоит забывать, что можно и нужно еще многое успеть. Например, сэкономить. В этом письме рассказываем о серверных скидках уходящего лета. Осенью подобных предложений уже может не быть. Не откладывайте решение на потом.


Обновленный список выделенных серверов уже на сайте. Все конфигурации протестированы, собраны и готовы к работе. Не стесняйтесь спрашивать, мы можем улучшить или изменить комплектацию любого приведенного сервера в разделе «Распродажа». Указанные цены актуальны до конца этого месяца. Как всегда, количество позиций по специальному предложению ограничено.
  • В стоимость уже входит: установка, настройка, интернет 100 Мбит/сек, безлимитный трафик, 1 IPv4, IPMI на первые 3 дня, техподдержка 24х7.
  • Улучшим конфигурацию по запросу.
  • Количество серверов ограничено.
rackstore.ru/arenda-servera.html


Получите скидку на размещение сервера в дата-центрах RackStore. Переходите на сайт, крутите волшебное колесо и получайте промокоды на первое размещение оборудования в дата-центре Tier-3 или Tier-2+. Проверьте свою удачу и получите приятный бонус.
В услугу уже входит: инсталляция оборудования в стойку, интернет 100 Мбит/сек, безлимитный трафик, 1 IPv4, KVM over IP на первые 3 дня, бесперебойное питание, техподдержка 24х7.
rackstore.ru/colocation.html

Ваш Справочный центр меняется

Теперь доступна новая версия Справочного центра, переработанная с учетом ваших отзывов. Попробуйте его бета-версию прямо сейчас.
help-beta.ovhcloud.com/csm

Он имеет много новых функций, в том числе:
  • документация, доступная через фильтры, с возможностью подписки/отписки
  • сквозное управление заявками с опросом удовлетворенности
  • пользовательские сообщения
  • управляемый просмотр
  • новый графический график
Мы можем продолжить совместную работу над улучшением вашего Справочного центра. Поделитесь своим мнением, используя опрос, доступ к которому можно получить во время просмотра. Доступ к опросу можно получить в нижней правой части портала, нажав кнопку «Ваш отзыв».

Обратите внимание, что во время просмотра вы можете вернуться к устаревшему интерфейсу в любое время до официального запуска новой версии Справочного центра.

С наилучшими пожеланиями,
Команда OVHcloud

Выдающаяся производительность: новые выделенные серверы Hetzner с процессорами на базе ARM64



Мы рады сообщить вам о наших новых продуктах, функциях и новостях компании в
Август 2022 г. Мы надеемся, что вам понравится читать о темах этого информационного бюллетеня!

ВЫДЕЛЕННЫЕ СЕРВЕРЫ С 80-ЯДЕРНЫМИ ОБЛАЧНЫМИ ЦП НА БАЗЕ ARM AMPERE
С двумя моделями нашей новой линейки RX мы стали первым европейским хостером, предложившим
Выделенные серверы Ampere Altra на базе Arm. На этих серверах установлена ​​SoC Ampere Altra Q80-30 с архитектурой Arm64 — это означает, что вы получаете 80 однопоточных ядер и потрясающую производительность!

RX170 — меньшая модель из двух; он поставляется со 128 ГБ оперативной памяти DDR4 ECC.
и два твердотельных накопителя NVMe для центров обработки данных емкостью 960 ГБ по низкой цене 169 евро в месяц и 179 евро в месяц.
настроить плату.
Нужно больше ресурсов? RX220 включает впечатляющие 256 ГБ оперативной памяти DDR4 ECC и два твердотельных накопителя NVMe для центров обработки данных по 3,84 ТБ всего за 219 евро в месяц и плату за установку всего 229 евро.

На данный момент запасы ограничены, так что поторопитесь.
www.hetzner.com/dedicated-rootserver/matrix-rx

ОБЛАЧНЫЕ СЕРВЕРЫ С ГИБКОЙ СЕТЬЮ
Теперь у вас есть три сетевых варианта для ваших облачных серверов: получить IPv4 и IPv6.
адрес, получить только один из них или получить свой сервер без общедоступного IP-адреса. Когда вам нужно, вы можете добавить основные IP-адреса или удалить их, или вы можете переключить их на другой сервер. Облачные серверы без первичных IP-адресов не имеют общедоступной сети, что дает вам популярную возможность создания облачного сервера, который не является общедоступным из Интернета.
Ежемесячные цены на IPv4-адреса для облачных серверов прозрачны и дают вам больше гибкости.
Для них нет минимального срока контракта — вы можете платить почасово и удалять их в любое время.
www.hetzner.com/news/06-22-flexibles-networking/

ROCKY LINUX 9 ТЕПЕРЬ ДОСТУПНА ДЛЯ ОБЛАЧНЫХ СЕРВЕРОВ
Последняя версия дистрибутива Linux Rocky Linux теперь доступна для облачных серверов.
Примечания к выпуску этой версии содержат важную информацию, такие как известные проблемы и сведения об изменениях.
docs.rockylinux.org/release_notes/9_0/

НОВЫЕ ФУНКЦИИ SSH ДЛЯ ЯЩИКОВ ДЛЯ ХРАНЕНИЯ
Теперь проще, чем когда-либо, использовать службу SSH для Hetzner Storage Boxes и другие новые профессиональные функции.
Например, теперь есть поддержка режима только добавления Borg и других принудительных команд для ключей SSH.
Увеличилось количество полезных и экономящих время команд, а благодаря новой интерактивной оболочке стало еще проще выполнять действия прямо в Storage Box.
Кроме того, с помощью новой команды install-ssh-key вы можете быстро настроить ключи SSH. И последнее, но не менее важное: теперь также есть поддержка Restic и Rclone.
docs.hetzner.com/robot/storage-box/access/access-ssh-rsync-borg/

ОБЩАЯ ВНЕШНЯЯ ПРОПУСКНАЯ СПОСОБНОСТЬ ПОВЫШЕНА ДО 22,21 ТБИТ/С
Мы постоянно увеличиваем нашу общую внешнюю пропускную способность для вас. Недавно были увеличены или введены в эксплуатацию следующие восходящие потоки:
Транзит:
Люмен 400 Гбит/с (HEL)
Люмен 200 Гбит/с (NUE)
200 Гбит/с CBB (STO)
Точки пиринга:
2800 Гбит/с DE-CIX (FRA)
200 Гбит/с NetIX (FRA)
200 Гбит/с NL-IX (FRA)
200 Гбит/с Speed-IX (AMS)
100 Гбит/с IXPlay Global Peers (PAR)
100 Гбит/с MegaIX (ASH)
Частные пиринги:
100 Гбит/с Акамай (FRA)
100 Гбит/с Cloudflare (LON)
100 Гбит/с Комбахтон (FRA)
Edgecast 100 Гбит/с (FRA)
100 Гбит/с myLoc (FRA)
100 Гбит/с Яндекс (FRA)
20 Гбит/с Facebook (HEL)
10 Гбит/с UTG (FRA)
www.hetzner.com/unternehmen/rechenzentrum/

НАГРАДА BAYERNS BEST 50 ДЛЯ HETZNER ONLINE
Министерство экономики Баварии в пятый раз признало Hetzner Online одной из 50 ведущих компаний Баварии.
По этой причине 26 июля 2022 года представители Hetzner отправились в замок Schloss Schleißheim, чтобы получить награду от Хуберта Айвангера, министра экономики, регионального развития и энергетики Баварии. Айвангер подчеркнул, что лауреаты премии, такие как Хетцнер, служат примером баварского бизнеса, который процветает, несмотря на экономические трудности.
Ежегодная церемония награждения «Bayerns Best 50» приглашает и награждает компании
которые растут исключительно быстрыми темпами как с точки зрения количества сотрудников, так и с точки зрения общего дохода.
www.hetzner.com/unternehmen/auszeichnungen/

Конкурс для бизнеса

Расскажите, как хостинг SmartApe помог вам в развитии бизнеса.
Все истории мы разместим на страничках своих соцсетей, а самые интересные будут опубликованы в популярном интернет-журнале BroDude (более 2 000 000 просмотров в месяц).
Ваши истории могут быть размещены и в других популярных интернет-изданиях.
Для участия в конкурсе присылайте истории до 19.08.2022 по электронной почте info@smartape.ru с пометкой «конкурс» или в Директ в наших соцсетях с указанием электронной почты, на которую зарегистрирован аккаунт.
Результаты конкурса подведём до 26.08.2022.

Как мы создавали хостинг-провайдер с собственным ЦОД

Думаю, что моё повествование будет интересным и полезным тем, кто хочет заняться хостингом. Или тем, кто сомневается, стоит ли начинать своё дело, не имея большого стартового капитала. Раскрыть и показать проблемы, с которыми можно столкнуться и которым изначально не придаёшь значения, вследствие того, что не сталкивался с тем или иным.

История достаточно длинная. Хочу делиться ею поэтапно, начиная с предыстории, заканчивая тем, что мы имеем на сегодняшний день. Будем очень рады открытому общению, вы можете задавать любые вопросы и ни один из них не останется без внимания. Планируется еженедельная публикация, по одной главе, а между публикациями я буду отвечать на ваши вопросы. Возможно будут какие-либо предложения, пожелания, их мы будем обязательно учитывать и дополнительно подробнее раскрывать вне графика интересующие вас темы. По поводу того, как планирует публиковаться материал мы разобрались, теперь перейдём к хостингу.

Итак, что же такое хостинг в двух словах? Хостинг-это услуга по предоставлению ресурсов для размещения информации на сервере, постоянно находящемся в сети. Информация может быть разная, это и сайты, и почта, и базы данных, какие-то индивидуальные проекты. Для их корректной работы их размещают на своих серверах, либо обращаются к услугам хостинг-провайдеров, где за работоспособностью оборудования, в нашем случае круглосуточно, следят специалисты. Теперь перейдём непосредственно к истории.

Наш хостинг-провайдер существует с 2011 года по сей день и продолжает развиваться. Начинал я абсолютно один, но потом по мере развития одному становилось всё сложнее и сложнее — я понимал, что не смогу больше справляться и организовал службу круглосуточной технической поддержки.

Немного предыстории: Началось всё ещё давно, в начале 90-х, когда у меня, ученика 6-го класса, появился первый компьютер, благодаря моим родителям. Я очень долго мечтал о нём, и тут моя мечта сбылась. Для того времени это была невиданная роскошь. Как сейчас помню, что он стоил 1000 долларов и был на базе intel 486. Тогда я понял, что моя жизнь будет несомненно связана с компьютерами и интернет технологиями. Я очень увлечённо начал учиться создавать различные простенькие программки, потом посложнее. Пользовался различной литературой. В общем, был самоучкой. Ближе к 10 классу я решил создать свою локальную сеть, мою идею поддержали ребята из соседних домов, мы по крышам проводили кабель, один конец привязывался к палке, и палка перекидывалась на соседнюю крышу и так далее. Таким образом мы объединили несколько компьютеров, что позволило нам обмениваться файлами, общаться в своём чате и многое другое. Это сейчас никого не удивишь локальной сетью, а тогда, в середине девяностых это было ноу хау. В нашем достаточно большом городе в то время таких сетей было раз-два и обчёлся. Мою идею стали поддерживать многие и присоединялись к нам. Но рано или поздно всё заканчивается. Появились другие заботы, учёба в университете. За время учёбы мною было создано несколько проектов, но подробно на них останавливаться не будем.

Идея создания собственного дата-центра пришла ко мне еще задолго до того, как я начал делать первые шаги к его созданию. Я прекрасно понимал, что это очень затратное дело. Тогда в 2006 году рынок ещё не был перенасыщен подобными проектами. Мы сами пользовались услугами хостинга, так как развивали один IT-проект, услуги которого были доступны каждому и стоили недорого. И конечно же сталкивались с различного рода проблемами. Не хочу никого обидеть, но хотелось большего от технической поддержки. Никто особо не вникал в твои проблемы, а мы очень хотели, чтобы нам могли оперативно и качественно помочь. Сотрудничали с разными провайдерами. Но то что я хотел бы видеть, не встретил к сожалению. Вот и появилась мысль создать собственный хостинг и сделать одним из приоритетов качественную, оперативную, круглосуточную техподдержку, которая бы тщательно вникала в проблемы обратившихся и также тщательно и быстро помогала разрешить сложившиеся ситуации. Но это было только пока в мыслях. Прекрасно понимая, что, имея те ресурсы, которыми я обладал, я не смогу сразу предоставить качественные услуги, но это не повод отступать. Как и в любом деле всё проявится в процессе работы.

От нашего проекта, который мы продали, осталось около 20 серверов на базе INTEL, с совершенно разными возможностями и источник бесперебойного питания. Вот с них я и решил начать. Чтобы минимизировать затраты, я попросил своего знакомого, у которого было свободное место в офисе, разместиться на время у него. Всё моё оборудование занимало всего один квадратный метр. Я приступил к созданию простенького сайта, делал всё самостоятельно. Около двух недель я работал над сайтом, конечно же за это время я сделал лишь всё необходимое для того чтобы начать. Впоследствии сайт дорабатывался и добавлялся дополнительный функционал. Тогда собственного дата центра у меня не было, и я мог оперировать только двумя услугами. Разместил информацию на нескольких площадках, первые клиенты не заставили себя долго ждать. Кстати, многие из них и по сей день работают с нами, что не может не радовать. Мы им очень благодарны за это. Уже на второй месяц работы я стал окупать свои ежемесячные затраты. Нужно было двигаться дальше, ведь ничто не стоит на месте. Появилась возможность заказывать по 3-4 сервера ежемесячно. Но появились и первые проблемы. Так как кол-во серверов увеличивалось, температура повышалась и уровень шума тоже, всё это доставляло определённые неудобства моему приятелю и его сотрудникам. Я принял решение подобрать отдельное помещение и переехать. В этом же здании бизнес-центра мне предложили помещение площадью 8 кв. метров, и я согласился. Провёл туда электричество толстым кабелем. И нужно было постепенно заниматься повышением надёжности.

Изначально у меня стояла одна стойка и бытового кондиционера мощностью 2,5 кВт было достаточно. Но как я уже писал количество серверов увеличивалось и появилась необходимость приобрести специализированный промышленный кондиционер. При выборе руководствовался ценой, так как больших оборотных средств у меня не было. Остановился я на агрегате мощностью 14 кВт. Реально конечно он столько не вытягивал, но со своими обязанностями справлялся неплохо. На некоторое время о проблемах с перегревом можно было забыть. Потратил на охлаждение на этом этапе 80000 тыс. руб. сам кондиционер, 24000-установка и 3600-спецтехника. Теперь мне нужно было выбрать генератор, потому что бывают сбои с подачей электроэнергии, либо в самом бизнес центре происходят аварийные отключения и необходимо было место под его размещение. С местом мы определились быстро. В подвале бизнес-центра было множество различных помещений, они предложили мне поменять им общую дверь в подвал, а за это предоставят мне отдельное помещение под генератор. А вот с выбором генератора пришлось посложнее. Опять же выбирал основываясь на стоимость и мною не было учтено множества разных вещей, которые по моему представлению должны быть по умолчанию. Я коснусь этой темы подробнее, может кому пригодится. Лучше конечно пользоваться услугами хорошей проверенной компании, как сейчас мы и делаем, но тогда я не придал этому большого значения, а зря. Всё равно пришлось тратить немало дополнительных средств и времени.

Выбор свой я остановил на китайском генераторе за 180000 рублей мощностью до 20 кВт. Вернее, сам двигатель был немецкий, а навесное китайское. Это конечно что-то с чем-то. Организация, которая продавала, никакого сервиса по установке не предлагала. Как потом выяснилось инструкции по установке не было, не на русском, не на каких-либо других языках, масла нет, антифриза нет и так далее. Приходилось разбираться со всем самостоятельно и дорабатывать. Даже дорабатывались и исправлялись детали, которые входили в комплект. Плюс к тому, менеджер сказал, что вес его 250 кг, поэтому я пригласил 6 человек для разгрузки и транспортировки его в подвальное помещение. На самом деле оказалось, что вес его 750 кг. А грузчики берут только до 650. В общем транспортировка в подвальное помещение доставила уйму хлопот и причиной тому была простая неподготовленность к процессу. Опять же и отсутствие опыта данного рода мероприятий. Ещё плюс узкий длинный проход и несколько так называемых карманов на пути добавили сложности. В общем это я к тому, что обращайте внимание на любые мелочи при покупке оборудования. Через 4 часа генератор был на своём месте.
Это тот самый первый генератор.


А в целях противопожарной безопасности к нему прилагался модуль порошкового пожаротушения отечественного производства. Такие модули широко используются во многих сферах деятельности, благодаря удобному расположению, так как он монтируется на потолок, эстетичному внешнему виду, а также возможностью запуска как принудительного, так и самостоятельного в режиме срабатывания во время пожара. Нам к великому счастью применить его не удалось. Опять же никаких инструкций не прилагалось, разбирались сами, но там достаточно всё просто. Монтируется по типу люстры, срабатывает от повышения температуры. Ну а для принудительного приведение в действие от него идут контакты, на которые необходимо подать напряжение в 12 В. Вот его фото.



Для введения в работу генератора был необходим Автоматический Ввод Резерва, в дальнейшем АВР, который был приобретён. Итак, что же такое АВР? Автоматический Ввод Резерва-это способ обеспечения резервным электроснабжением нагрузок, подключённых к системе электроснабжения, имеющей не менее двух питающих вводов и направленный на повышение надёжности системы электроснабжения. Заключается в автоматическом подключении к нагрузкам резервных источников питания в случае потери основного. Как всегда, руководствовались ценой.

В поисковике нашли организацию, это не составило большого труда, выбрали первую попавшуюся, сейчас объясню почему. Написал я нескольким сразу, но мне очень нравится и для меня важно, когда быстро отвечают и называют цену. Поэтому тот, кто первый ответил и разложил всё по полочкам, с тем мы и начали работать. АВР мы выбрали трёхфазный, по 100 Ампер на каждую фазу, сразу с запасом на будущее, так как цена его была приемлема -17000 рублей плюс доставка в наш город, около 1000 рублей. Если покупать с меньшими характеристиками, то по деньгам выходит почти тоже самое. Размер шкафа тот же, доставка такая же. Можно было установить его самим, но решили прибегнуть к помощи знакомого электрика и установить его.

Заплатили за монтаж мы очень недорого, я не помню сколько, но символически. Эксплуатируется он и по сей день. Минус в том, что организации, занимающиеся реализацией подобного оборудования, не были обременены инструкциями по эксплуатации и это конечно принесло определённые проблемы, но мы учились на своих ошибках и самостоятельно изучали все возникающие вопросы.

АВР анализирует несколько параметров электроснабжения. Так, например, при возникающих перепадах напряжения выше или ниже минимума АВР отключал электричество, а особенность мониторинга у ДГУ это не учитывало, так мониторинг был подключен до АВР. Также был случай, когда изменилось чередование фаз.

Для исключения подобных неудобств, был установлен мониторинг напряжения, мониторинг состоянии ИБП, что позволяло при нестандартных проблемах отреагировать вручную.

Потом я раскрою подробности в изменении схемы подключения, когда дойдёт очередь. И ещё немного о недостатках. У данного АВР есть неудобство для нас, мы его не учли. На фото видно, что нет защитных колодок на клеммах, а так как дата центр постоянно видоизменяется, увеличивается количество стоек, хотелось бы подключать новые стойки не отключая электричество. Это потом было исправлено и об этом в дальнейших публикациях, когда дойдём хронологически до покупки ещё одного АВР.


Теперь об подробнее об Источнике Бесперебойного Питания, в дальнейшем ИБП, англоязычная форма UPS (Uninterruptible Power Supply) — источник электропитания, который необходим при кратковременном отключении основного электропитания и защиты от перепадов напряжения. Его задача в непрерывности подачи электричества. Он включается при аварийных отключениях электроэнергии до введения в работу запасного источника питания, в нашем случае ДГУ, либо устранения недостатков аварийного отключения основного источника. Выбранный нами иностранного производства, бывший в употреблении у одного из отечественных дата центров и у них же приобретённый, мощностью 18 кВт. Входное напряжение 380 В, искажения входного тока примерно 5%, частота входного напряжения 45-65 Гц. Выходное напряжение- 380 В, КПД- 92 %, рабочая температура 0 — 45°С. Стоимость его была 120000 рублей плюс доставка до нашего города 5000 и 5000 от транспортной компании по городу. Вес его около 400 кг с батареями. Установка и настройка была также самостоятельно произведена, так как наш электрик сказал, что не сталкивался с таким оборудованием.

На тот момент наш маленький ЦОД размещался в бизнес-центре на площади 8 кв. м. и располагались в нём четыре стойки и порядка сорока серверов. Теперь коснёмся заданного мне вопроса по форме собственности. Это было Общество с ограниченной ответственностью, помещение в аренде, стоимость аренды 5000 руб., оплата электроэнергии по счётчику, примерно 15000-20000 рублей ежемесячно. Учёт услуг был рукописным и основывался на собственное мнение и дорабатывался в процессе развития. Что касается бухгалтерии не знаю, что можно написать, бухгалтерия само собой была. Была получена лицензия на телематические услуги. Эта очень простая в получении лицензия, доступная любому желающему. Здесь нет никаких подводных камней.

Мы переехали в помещение площадью 8 кв.м.

Уже ощущался некий рост, увеличивалось кол-во клиентов. Причём для этого мы как-то по началу ничего и не делали. Разместились на одном из специализированных сайтов и поучаствовали в обсуждении на каком-то форуме. Вот и всё. Информация расходилась за счёт сарафанного радио. Наши клиенты делились со своими друзьями и партнёрами. Сыграло большую роль, как мне кажется, внимательное и отзывчивое отношение и быстрая реакция на входящие обращения любого характера.

С момента запуска проекта до переезда в помещение 8 кв.м. прошло два месяца. В этом помещении мы проработали ровно год. Закупалось серверное оборудование, за этот год финансовый оборот вырос в четыре раза. Напомню, что уже в первый месяц доходы начали преобладать над расходами. За этот год никаких существенных перебоев в работе не было, разве что с кондиционером. Была утечка фреона, забегая вперёд, скажу, что устранить её так и не удалось. Очень дорогостоящая процедура монтажа-демонтажа и доставки до сервисного центра. Это ложилось на наши плечи и в услуги по гарантии не входило. Необходимо было привлечение спецтехники. Всё же неоднократно мы возили его в организацию, которая нам его продала, на ремонт, к сожалению, безуспешно. А новые размещать было негде, так как эти 8 квадратов и так были напичканы оборудованием. Так и жили, периодически (примерно раз в месяц) заправляя фреон.

По-хорошему конечно всё делается совсем по-другому, но для этого нужен огромный бюджет. А я таковым не располагал. Поэтому всё делалось по ходу. В связи с увеличением объёмов продаж наших услуг нам были необходимы дополнительные мощности. Места уже практически не было, все стойки были переполнены, охлаждать становилось всё сложнее.

И электроснабжение здания оставляло желать лучшего, частые отключения, трансформаторные подстанции были очень старые. Я начал задумываться о подборе отдельного здания для ЦОД большей площади. Вообще по нашему опыту за весь период работы, больше всего проблем и отключений было связано с энергоснабжением. В дальнейшем мы не экономили уже в этом направлении. Нужно было помещение с большей мощностью по электроэнергии, большей площадью и достаточно удалённое от жилых и офисных помещений, дабы никому не мешать когда заводится генератор. Обзванивали объявления по сдаче в аренду подходящих помещений. Больше всего интересовали площади с мощностями на заводах. Где-то две недели я потратил на подбор места для нашего уже более крупного ЦОДа. Нашёл помещение 70 кв.м. на территории одного из бывших заводов-гигантов советской эпохи и мощностью 100 кВт. Самое интересное, что цена аренды была всего 6000 рублей за всю площадь. Для сравнения напоминаю, что за 8 кв.м. я платил 5000 рублей. Помещение, конечно, требовало конкретного ремонта. Оно располагалось так, что, что вход был с территории завода, нужно было проходить и проезжать через проходную, а часть здания с окнами выходила за территорию. Когда мы завозили стройматериалы и прочее имущество, необходимо было подать заявку на ввоз- вывоз, что очень затрудняло и занимало время. Заявку эту нужно было подавать заранее, чтобы обязательно стояла подпись начальника охраны, которого очень трудно было застать на рабочем месте. Когда делаешь ремонт и мотаешься туда-сюда, то одно привезёшь, то другое, то вывезти мусор нужно, на всё это составлялись заявки. Промучавшись так некоторое время, я предложил арендодателю вариант из окна, которое выходит за пределы завода, сделать дверь и тогда уже не нужно было никаких заявок. Окно это выходило на закрытую парковку машин эдак на 50-60. Очень удобный подъезд, можно и материал подвозить и оборудование. Вполне комфортно мог подъехать длинномер. Само здание было буквой Г, с третьей стороны примыкал высокий забор вплотную и через проезд четвёртой гранью было ещё одно сооружение. Получился такой надёжный, закрытый со всех сторон подъезд и плюс удобная парковка. У нас, да наверное как и везде сейчас, проблема с парковками. Но у нас эта проблема особенно остро стоит, так как город очень большой. Предстояло распланировать помещение и сделать ремонт, почти капитальный.



На эту площадку покупалось уже всё новое. ИБП (источник бесперебойного питания) держал теперь не 20 минут, как предыдущий, а полтора часа, обошёлся он нам в 550000 рублей вместе с установкой. Кондиционер, о котором я писал выше, починили временно, его хватило на год работы всего. В итоге купили у одного из самых известных банков два б/у кондиционера. Такие новые стоили по 500000 каждый, а нам они достались за 120000 рублей два, плюс 100000 потратили на новые внутренние блоки, которых не хватало и 150000 установка. Энергопотребление по 15 кВт. Максимальная мощность каждого 36 кВт. Было приобретено ещё шесть стоек, в каждой из которых размещалось примерно 30 машин. Всего уже было 10 стоек, в четырёх из них 120 машин. Ещё были сделаны четыре стеллажа, на каждом из которых располагались по 20 десктопных серверов. Теперь нужно было приобрести второй генератор. В нашем, одном из крупнейших городов России, существовала и существует по сей день организация, занимающаяся сборкой ДГУ ( дизель генераторная установка) Туда обращаться мы не стали, так как воспользовавшись поисковиком, нашли вдвое дешевле, правда в 2000 км от нас, это ещё с доставкой.

Точно не помню, по-моему обошлось всё это дело нам в 840000 рублей. Кстати, сразу уточнил, есть ли инструкция на русском языке, так как мы уже сталкивались с подобной проблемой. Сам дизель был отечественный.


А генератор и контроллер французского производства.

В комплект ещё входил контейнер, типа «север» утеплённый.


Доставка была до места, что не могло не радовать, а монтаж мы производили самостоятельно. Тосол и масло было в комплекте. Особенно запомнилось, как я возил 20 л канистрой дизельное топливо, чтобы наполнить бак в 400 л.

Коснёмся планировки нового ЦОД, настройки сети и серверов, каналов связи и их организации на территории завода, а также изменения, которые мы внесли в конструкцию ДГУ.


На наведение порядка, вывоз мусора, ремонт своими силами, ушло где-то три месяца. Вначале я делал один из серверных залов, чтобы перенести часть оборудования туда и так как имел ограниченный бюджет, делал всё сам, одновременно работая с клиентами. Всё это конечно наложило определённый след на сроки переезда. Уже после, сделав один из залов, я перевёз туда оборудование, настроил его и приступал постепенно к дальнейшему ремонту. Вот так, в течении трёх месяцев, я привёл всё в порядок.
Итак, из каких помещений состоял наш новый ЦОД? Распланировать наше помещение мы решили следующим образом: на 70 кв. м. располагались два серверных зала 20 и 25 кв. м. В одном из залов находились стойки с оборудованием, в другом размещалась техподдержка. Также отвели помещение для одного из наших генераторов, менее мощного. Кондиционеры и второй генератор находились за пределами ЦОД, но на нашей территории. Вот в принципе и всё, что мы могли себе позволить разместить на 70 кв. м. В последствии, благодаря договорённостям мы добавили ещё 15 кв. м., освободили вторую серверную и техподдержка переехала именно в эту комнату 15 кв. м., освободив место для расширения. Так через некоторое время второй зал был занят оборудованием. Мы не всё фотографировали, потому что в тот момент ещё не было мыслей что-то рассказывать о нас, даже не представлял, что это можно вот так сделать. Но вот выложу что есть, чтобы примерно имелось представление как было до и становилось после.




Как я уже писал, на новую площадку закупали всё новое. Со средствами пожаротушения мудрить ничего не стали, решили пока остановиться на противопожарных модулях, о которых было написано в прошлых публикациях. Это потом, впоследствии, мы уже стали использовать другую противопожарную систему, об этом позже и вы поймёте почему очень скоро. Про ИБП, ДГУ и кондиционеры я писал тоже в прошлой публикации, а вот про АВР ни слова. Учитывая ошибки прошлых лет, к этому вопросу мы подошли более серьёзно. На этот раз воспользовались услугами компании из нашего города и нам собрали АВР по нашему проекту. Потрачено было около 40000 рублей. Вот его фото.


Также мы добавили аварийное освещение. Не смотря на гарантированное энергоснабжение, мы решили приобрести светильники аварийного освещения. Мало ли что… Такой светильник является автономным, в случае прекращения подачи электроэнергии светильник переходит на работу от встроенного аккумулятора. Так не разу не пришлось воспользоваться ни аварийным освещением, ни противопожарной системой.
Для переезда на новую площадку нам было необходимо приобрести другой маршрутизатор, достаточно профессиональный. Опять же в целях экономии купили бывший в употреблении, потратив около 100000 рублей. Новый такой стоил порядка 1000000 рублей. Чувствуется разница, правда?

Нужно было его настроить, с этим пришлось повозиться. Необходимо было сбросить старый пароль. Двое специалистов пытались это сделать, но ничего не вышло. Я так и не понял почему, видимо не работали с подобным железом. Пришлось разбираться самому. Оказалось, ничего сложного, поработал с поисковиком, нашёл решение и сбросил пароль. А вот для дальнейшей настройки пришлось пригласить посвященного человека, так как я объективно смотрел на вещи и не надеялся на свои возможности в данном случае. Он-то всё и сделал. Для того чтобы начать перенос виртуальных серверов мы между площадками проложили волокно, точнее взяли в аренду на время. Нужно было чтобы они взаимодействовали. Я такое не разу не делал, забегая вперед скажу, что с какими-либо трудностями столкнуться не пришлось. Работали два маршрутизатора, виртуальные сервера мы перенесли по сети, и клиенты даже не заметили этого. А физические приходилось отключать и перевозить. С каждым клиентом индивидуально договаривались, учитывая, когда ему будет удобно отключиться. Иногда получалось объединять в один временной промежуток по 10 серверов. Перевозил на своём легковом автомобиле. В среднем время отключения на каждого клиента занимало около двух часов, благо площадки, в рамках нашего города, находились недалеко друг от друга, на расстоянии 5 км. Переезжали где-то около месяца, так как повторюсь, учитывали время и возможности клиентов. В основном всё это происходило ночью. По настройке серверов сказать особо нечего. Так как оборудование б/у, если чего не знали, смотрели в интернете рекомендации и делали самостоятельно. Теперь что касаемо интернета… По интернет- провайдерам, завод предлагал своих операторов по совсем уж заоблачным ценам. Мы обращались к конкурсному управляющему, который отвечал за эти вопросы. Аудиенцию у него очень было сложно получить, в итоге мы с ним так и не встретились. IT-отдел отказывался, чтобы мы подключали своего оператора. В конце концов наше упорство было поощрено, и мы воспользовались услугами оператора с предыдущей серверной и завод взял лишь деньги за крепление кабеля к объектам.
Теперь по генератору. В ДГУ нам пришлось внести незначительные изменения в конструкции, для удобства обслуживания и работы, сейчас расскажу почему и что было сделано. При включении аварийного энергоснабжения и запуске ДГУ двигатель не заводился самостоятельно. По всей вероятности, причиной этого было попадание воздуха в систему. Приходилось вручную подкачивать топливо, а помпа ручной подкачки находилась в очень неудобном месте, плюс шаг был ну очень маленьким, всего 1 см. Не понятно, почему так неудобно было всё сделано. Это нас не устраивало, да и ненадёжно как-то. Пообщались с людьми, который сталкиваются по роду своей работы с дизелями и пришли к выводу, что нужно поменять помпу ручной подкачки, а также перенести её в другое, более удобное место.На фото как раз видно где располагается старая, фабричная помпа

Мы решили не экономить и приобрели помпу иностранного производства, а также заменили топливные шланги на прозрачные, чтобы можно было наблюдать наличие топлива. На фото как раз видно новую помпу и общий вид, где располагалась старая и где теперь новая.

Стрелочками как раз указано-вверху расположение фабричной помпы, внизу новая.

Ну и конечно решили увеличить время запуска зажигания до 15 секунд. Это оказалось очень удобным решением. С проблемой мы справились, ДГУ заводится с пол оборота и по сей день, при необходимости. Но эта необходимость возникает крайне-крайне редко.

Статистика Backblaze Drive за второй квартал 2022 года



На конец второго квартала 2022 года Backblaze отслеживала 219 444 жестких диска и твердотельных накопителя в наших центрах обработки данных по всему миру. Из этого числа 4020 — загрузочные диски, 2558 — твердотельные накопители и 1462 — жесткие диски. Позднее в этом квартале мы пересмотрим нашу коллекцию твердотельных накопителей. Сегодня мы сосредоточимся на 215 424 дисках с данными, находящихся под управлением, и проанализируем их ежеквартальную и пожизненную частоту отказов по состоянию на конец второго квартала 2022 года., мы надеемся, что вы сделаете то же самое в разделе комментариев в конце поста.

Частота отказов жестких дисков за весь срок службы
В этом отчете мы немного изменим ситуацию и начнем с частоты отказов за весь срок службы. Мы рассмотрим данные за второй квартал позже в этом посте. По состоянию на 30 июня 2022 года Backblaze отслеживала 215 424 жестких диска, используемых для хранения данных. Для нашей оценки мы исключили из рассмотрения 413 накопителей, поскольку они использовались для целей тестирования или моделей накопителей, в которых не было по крайней мере 60 дисков. Таким образом, у нас остается 215 011 жестких дисков, сгруппированных по 27 различным моделям, для анализа отчета о сроке службы.



Примечания и наблюдения о статистике жизни
Годовая частота отказов за весь срок службы для всех перечисленных выше дисков составляет 1,39%. Это то же самое, что и в прошлом квартале, и меньше, чем 1,45% год назад (30.06.2021).

Беглый взгляд вниз по столбцу годовой частоты отказов (AFR) позволяет определить три диска с самой высокой частотой отказов:
  • HGST 8 ТБ (модель: HUH728080ALE604) — 6,26%.
  • Seagate 14 ТБ (модель: ST14000NM0138) — 4,86%.
  • Toshiba 16 ТБ (модель: MG08ACA16TA на 3,57%).
Что общего между этими тремя моделями? Размер выборки, в нашем случае количество дней вождения, слишком мал, и в этих трех случаях это приводит к широкому диапазону между низкими и высокими значениями доверительного интервала. Чем шире разрыв, тем меньше мы уверены в AFR.

В таблице выше мы перечисляем все модели для полноты, но это делает диаграмму более сложной. Нам нравится упрощать, поэтому давайте удалим те модели накопителей, которые имеют широкие доверительные интервалы, и включим только общедоступные модели накопителей. Мы установим следующие параметры: разрыв 95% доверительного интервала 0,5% или меньше, минимальное значение дней вождения равное одному миллиону, чтобы обеспечить достаточно большой размер выборки, и модели дисков размером 8 ТБ или более. Упрощенная схема приведена ниже.


Подводя итог, можно сказать, что в нашей среде мы на 95 % уверены, что значение AFR, указанное для каждой модели привода, находится между значениями нижнего и верхнего доверительного интервала.

Вычисление годовой частоты отказов
Мы используем термин годовая частота отказов, или AFR, в наших отчетах Drive Stats. Давайте потратим минуту, чтобы объяснить, как мы рассчитываем значение AFR и почему мы делаем это именно так. Формула для данной когорты драйвов:
AFR = (диск_ошибок/(драйв_дней/365)) * 100
Определим используемые термины:
  • Когорта дисков: выбранный набор дисков (обычно по моделям) за определенный период времени (квартал, год, срок службы).
  • AFR: годовая частота отказов, которая применяется к выбранной группе дисков.
  • drive_failures: количество отказавших дисков для выбранной когорты дисков.
  • drive_days: количество дней, в течение которых все диски в выбранной когорте работают в течение определенного периода времени когорты (т. е. квартал, год, срок службы).
Например, для диска Seagate емкостью 16 ТБ в приведенной выше таблице мы подсчитали, что за время жизни этой конкретной когорты дисков произошло 117 отказов дисков и 4 117 553 дня работы. AFR рассчитывается следующим образом:
AFR = (117 / (4 117 553 / 365)) * 100 = 1,04%
Почему мы не используем счетчик дисков?
Наша среда очень динамична, когда речь идет о входе и выходе дисков из системы; диск HGST на 12 ТБ выходит из строя и заменяется Seagate на 12 ТБ, добавляется новое хранилище Backblaze Vault и добавляются 1200 новых дисков Toshiba на 14 ТБ, хранилище дисков Backblaze Vault на 4 ТБ выводится из эксплуатации и т. д. Использование подсчета приводов проблематично, поскольку предполагает стабильное количество приводов в когорте в течение периода наблюдения. Да, мы признаем, что с достаточным количеством математики вы можете сделать эту работу, но вместо того, чтобы возвращаться к колледжу, мы делаем это проще и используем дни поездок, поскольку они учитывают потенциальное изменение количества поездок в течение периода наблюдения и распределяют каждый вклад привода соответственно.

Для полноты картины давайте рассчитаем AFR для диска Seagate емкостью 16 ТБ, используя формулу, основанную на подсчете дисков, учитывая, что было 16 860 дисков и 117 отказов.
Количество дисков AFR = (117 / 16 860) * 100 = 0,69%
Хотя количество дисков AFR намного ниже, предположение о том, что все 16 860 дисков присутствовали в течение всего периода наблюдения (срок службы), неверно. За последний квартал мы добавили 3 601 новый диск, а за последний год добавили 12 003 новых диска. Тем не менее, все они были засчитаны, как если бы они были установлены в первый день. Другими словами, использование AFR для подсчета дисков в нашем случае искажает частоту отказов дисков в нашей среде.

Как мы определяем неисправность диска
Сегодня мы разделяем отказы дисков на две категории: реактивные и упреждающие. Реактивные сбои — это когда диск вышел из строя и не может или не может взаимодействовать с нашей системой. Упреждающие сбои — это когда сбой неизбежен на основании ошибок, о которых сообщает диск, которые подтверждаются проверкой статистики SMART диска. В этом случае диск извлекается до того, как он полностью выйдет из строя.

За последние несколько лет исследователи данных использовали собранные нами статистические данные SMART, чтобы выяснить, могут ли они предсказать отказ диска с использованием различных статистических методологий, а в последнее время — методов искусственного интеллекта и машинного обучения. Способность точно предсказать отказ диска с минимальным количеством ложных срабатываний оптимизирует наши операционные возможности по мере масштабирования нашей платформы хранения.

СМАРТ-статистика
SMART означает технологию самоконтроля, анализа и отчетности и представляет собой систему мониторинга, включенную в жесткие диски, которая сообщает о различных атрибутах состояния данного диска. Каждый день Backblaze записывает и сохраняет статистику SMART с жестких дисков в наших центрах обработки данных. Прочтите этот пост, чтобы узнать больше о статистике SMART и о том, как мы ее используем.

Частота отказов жестких дисков за второй квартал 2022 г.
Для ежеквартального отчета за второй квартал 2022 года мы отследили 215 011 жестких дисков с разбивкой по моделям дисков на 27 различных групп, используя только данные за второй квартал. В таблице ниже перечислены данные для каждой из этих моделей дисков.



Примечания и наблюдения по статистике за второй квартал 2022 года
Срочные новости, OG спотыкается: диски Seagate емкостью 6 ТБ (модель: ST6000DX000) наконец-то потерпели неудачу в этом квартале — на самом деле, две поломки. Учитывая, что это самая старая модель привода в нашем автопарке со средним возрастом 86,7 месяца эксплуатации, ожидается одна-две поломки. Тем не менее, это был первый сбой этой модели накопителя с третьего квартала прошлого года. Мы можем ожидать, что в какой-то момент в будущем эти накопители будут выведены из эксплуатации, но их показатель AFR за весь срок службы составляет всего 0,87%, поэтому они не являются первыми в очереди.

Еще один ноль для следующей OG: следующая старейшая когорта дисков в нашей коллекции, диски Toshiba емкостью 4 ТБ (модель: MD04ABA400V) за 85,3 месяца, не имела ни одного сбоя во втором квартале. Последний сбой был зарегистрирован год назад, во втором квартале 2021 года. Их AFR за время жизни составляет всего 0,79%, хотя разрыв их доверительного интервала за время жизни составляет 1,3%, что, как мы видели, означает, что нам не хватает данных, чтобы быть по-настоящему уверенными в числе AFR.. Тем не менее, при одном сбое в год они могли бы прослужить еще 97 лет — скорее всего, нет.

Больше нулей во втором квартале: в этом квартале три других накопителя не имели сбоев: HGST 8 ТБ (модель: HUH728080ALE604), Toshiba 14 ТБ (модель: MG07ACA14TEY) и Toshiba 16 ТБ (модель: MG08ACA16TA). Как и в случае с Toshiba емкостью 4 ТБ, упомянутой выше, эти диски имеют очень большие разрывы доверительного интервала, обусловленные ограниченным количеством точек данных. Например, у Toshiba емкостью 16 ТБ было больше всех дней работы — 32 064 — среди всех этих моделей накопителей. Нам потребуется не менее 500 000 дней вождения в квартале, чтобы получить доверительный интервал 95%. Тем не менее, вполне возможно, что какой-либо из этих дисков или все они продолжат показывать отличные результаты в ближайшие кварталы, просто мы пока не уверены на 95%.

Работает на выхлопе: диски Seagate емкостью 4 ТБ (модель: ST4000DM000) начинают показывать свой возраст, в среднем 80,3 месяца. Их ежеквартальная частота отказов увеличивалась в каждом из последних четырех кварталов до 3,42% в этом квартале. Мы развернули нашу программу клонирования для этих дисков в рамках нашей программы обеспечения надежности данных, и в течение следующих нескольких месяцев эти диски будут выведены из эксплуатации. Они хорошо послужили нам, но, похоже, они устали после почти семи лет постоянного вращения.

AFR снова увеличивается: во втором квартале AFR увеличился до 1,46% для всех моделей дисков вместе взятых. Это на 1,22% больше, чем в первом квартале 2022 года, и на 1,01% год назад, во втором квартале 2021 года. Стареющие диски Seagate емкостью 4 ТБ являются частью увеличения, но частота отказов дисков Toshiba и HGST также увеличилась за последнее время. год. По-видимому, это связано со старением всего парка приводов, и мы ожидаем, что это число уменьшится по мере вывода из эксплуатации старых приводов в течение следующего года.

Четыре тысячи серверов хранения
В первом абзаце мы отметили наличие 4020 загрузочных дисков. Что может быть неочевидным, так это то, что это соответствует 4020 серверам хранения. Это серверы 4U с 45 или 60 дисками в каждом с дисками размером от 4 ТБ до 16 ТБ. Наименьший размер составляет 180 ТБ (45 дисков по 4 ТБ), а самый большой — 960 ТБ (60 дисков по 16 ТБ). Эти серверы представляют собой сочетание модулей хранения Backblaze и сторонних серверов хранения. Прошло много времени с момента нашего последнего обновления Storage Pod, так что ищите что-нибудь в конце третьего или начале четвертого квартала.

Статистика привода на DEFCON
Если вы будете на DEFCON 30 в Лас-Вегасе, я буду выступать в прямом эфире в Data Duplication Village (DDV) в 13:00. в пятницу, 12 августа. Полностью волонтерский DDV расположен на нижнем уровне административного конференц-центра отеля Flamingo. Мы будем говорить о статистике дисков, твердотельных накопителях, ожидаемом сроке службы дисков, статистике SMART и многом другом. Я надеюсь увидеть вас там.

Данные статистики жесткого диска
Полный набор данных, использованных для создания информации, используемой в этом обзоре, доступен на нашей странице данных тестирования жесткого диска. Вы можете скачать и использовать эти данные бесплатно в своих целях. Все, что мы просим, это три вещи: 1) вы указываете Backblaze в качестве источника, если вы используете данные, 2) вы соглашаетесь с тем, что вы несете единоличную ответственность за то, как вы используете данные, и 3) вы никому не продаете эти данные; это свободно.

Если вам нужны таблицы и диаграммы, используемые в этом отчете, вы можете загрузить файл .zip из облачного хранилища Backblaze B2, который содержит файлы .jpg и/или .xlsx, если применимо.
Удачи и дайте нам знать, если вы найдете что-нибудь интересное.

Открываем для вас Швецию



Двадцать второй страной, в которой вы можете заказать идеальный хостинг, стала Швеция. Дата-центр расположен в столице страны – Стокгольме. Принадлежит он компании Glesys, одному из лидеров Скандинавского региона в сфере облачных технологий и IT-инфраструктуры.

Дата-центр разбит на две зоны, в каждой – своя автономная резервная UPS (120 кВА в меньшей зоне, 750 кВА – в большей). Общий резервный генератор – 800 кВА. За климат-контроль отвечает система Emerson Network Power Liebert HPC-S, противопожарную безопасность обеспечивает VESDA с автоматической системой пожаротушения Novec 1230.

Дата-центр обладает прямыми WDM-каналами с Мальмё, Готенбургом, Фалькенбергом и другими городами Европы.

Помещение строго охраняется, стеллажи закрыты, и доступ к ним есть лишь у владельцев. Системы видеонаблюдения и сигнализации работают круглые сутки.