Рейтинг
0.00

Miran Дата-центры

3 читателя, 50 топиков

Черная пятница: Кэшбэк 50% при аренде выделенного сервера

Кэшбэк 50% при аренде выделенного сервера

Вернем на карту 50% от стоимости месячной аренды при заказе выделенного сервера в период с 27 ноября по 4 декабря


Серверы в наличии, установка за 5 минут после оплаты.

В стоимость аренды включено
— Безлимитный интернет от 100 Мбит/с до 10 Гбит/с
— Выдаем IP v4 и v6 адреса
— Автоматическая установка ОС и восстановление
— Удаленное управление сервером из личного кабинета
— Круглосуточная техническая поддержка
— Доступность услуги 100%

Список серверов в наличии

Условия проведения
Перевод кэшбэка на карту производится единоразово и только после оплаты аренды выделенного сервера на срок 3 месяца. В случае помесячной оплаты начисление кэшбэка будет произведено после оплаты третьего месяца аренды. В рамках акции возвращается 50% стоимости за один месяц аренды. Возврат производится только за серверы из наличия или по согласованию с менеджером.

Возврат на карту производится через сервис solar-staff.com либо, по желанию, путем начисления на личный счет. Для получения кэшбэка на карту необходимо будет принять приглашение и бесплатно зарегистрироваться в solar-staff.com


Это начало очередной ценовой войны

AMD вынуждает Intel снижать цены не только на новые, но и на старые модели CPU. Это начало очередной ценовой войны.


AMD официально подтвердила, что высокопроизводительные процессоры Ryzen Threadripper 3-го поколения выйдут в ноябре 2019 года, но сохранила в секрете детали. В то же время Intel сообщила торговым партнёрам, что готова потратить на ценовую войну три миллиарда долларов. Intel подчёркивает, что чистая прибыль AMD за прошлый год составила всего $300 млн, и она не выдержит демпинга. Intel также оперативно выпустила семейство относительно дешёвых серверных процессоров семейства W-2200 (см. под катом) и относительно дешёвых игровых процессоров Core i9 10-го поколения.

В то же время планы AMD становятся яснее благодаря «мастер-плану», который компания случайно (или «случайно») выложила в открытый доступ (документ уже удалён, вот копия, интерес представляют страницы 550/558).

Планы AMD
На днях на сайте AMD был случайно опубликован Master Product Document с некоторой предварительной информацией о процессорах, которые могут выйти на рынок. Мастер-план датирован сентябрём 2019 года.

В списке перечислены процессоры для массового рынка, серверные CPU и OEM, в том числе несколько моделей, о которых раньше не сообщалось.

Ryzen 7 3750X


Например, в плане упоминается восьмиядерный Ryzen 7 3750X с TDP 105 Вт, который располагается между восьмиядерными Ryzen 7 3800X и Ryzen 7 3700X. Между этими двумя процессорами небольшая разница в тактовой частоте (300 МГц), но сильно отличается энергопотребление: всего 65 Вт у младшей модели и 105 Вт у старшей. Наблюдатели делают вывод, что AMD стремится максимально расширить последнее семейство Ryzen (Matisse), охватывая рынки десктопов, ноутбуков и OEM.

На данный момент эта линейка выглядит следующим образом:


В мастер-плане для каждого продукта указаны коды деталей OPN, а также US ECCN, HTS и CCATS, необходимые для экспорта в США. Есть вероятность, что некоторые компоненты будут производиться по прямым договорам эксклюзивно для определённых заказчиков.

Семейство Ryzen Threadripper 3000


В документе также перечислен ряд высокопроизводительных процессоров семейства AMD Ryzen Threadripper 3000, ориентированных на серверный рынок.

Раньше AMD официально заявила, что первыми на рынок выйдут 24-ядерные CPU. Согласно плану, семейство AMD Ryzen Threadripper 3000 включит в себя 16-ядерные, 24-ядерные и 32-ядерные процессоры с TDP до 280 Вт в самых мощных моделях. Это немного больше, чем у самого производительного 32-ядерного CPU текущего поколения 2000-series (250 Вт).

Новый технологический процесс вместе с улучшенным теплоотведением и повышенной мощностью, вкупе с плюсами микроархитектуры Zen 2, должны означать значительное повышение производительности, пишет AnandTech.

В документе указано, что процессоры третьего поколения используют новый вариант сокета SP3 под названием SP3r3, то возникают сомнения, что они будут совместимы с материнскими платами предыдущего поколения. Однако AMD готовит новые чипсеты для процессоров Ryzen Threadripper следующего поколения, и была заявлена совместимость сокетов.

Как и с процессорами для массового рынка, следует иметь в виду, что это внутренний технический документ для отдела продаж. Отдельные модели могут производиться по прямым контрактам и не выйти на массовый рынок.

Так или иначе, но в данный момент список моделей AMD Ryzen Threadripper третьего поколения выглядит следующим образом (стр. 550 в мастер-плане):
  • CPK Consumer 16C 32T 140W
  • CPK Consumer 16C 32T 140W DVT
  • CPK DT Ryzen Threadripper 16C 280W SP3R3
  • DT Ryzen Threadripper 280W SP3R3 DVT
  • CPK DT Ryzen Threadripper 280W SP3R3 EVT
  • DT Ryzen Threadripper 2E24 280W SP3R EVT
  • CPK DT Ryzen Threadripper 32C 280W SP3r3
  • DT Ryzen Threadripper 280W SP3r3 DVT
  • DT Ryzen Threadripper 32C 280W SP3r3 EVT
  • CPK DT Ryzen Threadripper 280W SP3r3 EVT
  • DT RyzenThreadripper 2E32 280W SP3r3 EVT
  • DT RyzenThreadripper 2832 280W SP3r3 EVT
  • DT RyzenThreadripper 2E32 280W SP3r3 EVT

Планы Intel

Хотя AMD не объявляла цены на Ryzen Threadripper 3000-series, компания Intel заранее предприняла меры, чтобы представить достойную конкуренцию этим процессорам. В начале октября компания представила несколько процессоров новой линейки Intel Xeon W-2200 (вчера опубликован официальный анонс в корпоративном блоге на Хабре): «Процессоры Intel Xeon W-2200 выполнены в том же сокете, что и Core X, имеют соответственно одинаковые рабочие частоты и TDP, а также то же количество ядер и каналов памяти. Отличия от Core X: поддержка памяти ЕСС, больших объемов памяти, технологий vPro, VROC и некоторых других — явный кивок в сторону корпоративного сегмента. Собственно, линейка и позиционируется как HEDT для служебных нужд, однако схожесть здесь заканчивается на характеристиках: чипсет для Xeon W используется серверный, и совместимость по материнским платам отсутствует».

При изучении таблицы сразу бросается в глаза, что по сравнению с W-2100 новые процессоры дешевле почти на 50% — думаю, нет смысла объяснять, в чём тут причина.

Дальнейшее снижение цен неизбежно?

После объявления цен оказалось, что новое семейство Xeon стоит примерно в два раза дешевле прошлогоднего W-3200, которое считается старшим семейством. Эти процессоры в сокете Xeon Scalable (LGA3647) поддерживают больше каналов памяти (6) и линий PCI Express (64). Количество ядер и потоков примерно вдвое больше, чем у соответствующей модели W-2200.


У W-3200 вдвое больше ядер и потоков, чем у W-2200, поэтому разница в цене объяснима, хотя она и кажется слишком большой.

Игровые процессоры


Другая ситуация сложилась с игровыми CPU. Чтобы выдержать конкуренцию, Intel выпустила процессоры Core i9 десятого поколения на базе архитектуры Cascade Lake-X c более высокими тактовыми частотами, поддержкой Turbo Boost 3.0, большего числа линий PCIe и большего объёма системной памяти с более высокими частотами. При этом Core i9 десятого поколения примерно вдвое дешевле, чем девятого (Skylake-X).

Некоторые аналитики говорят, что такого серьёзного падения цены на CPU никогда не было в истории Intel.

Например, цена флагманского 18-ядерного Core i9-10908XE с тактовой частотой 3 ГГц и до 4,8 ГГц в турборежиме, заявлена на уровне $979. Для сравнения, прошлогодний флагманский 18-ядерный Core i9-9980XE на момент выпуска предлагался по $1990, а сейчас на сайте Intel его цена объявлена «от $1699,00».

В сети появились слухи, что снижение цен на старшую линейку практически неизбежно. Немецкое издание ComputerBase отмечает, что некоторые продавцы уже начали снижать цены. Оно также приводит вероятные окончательные значения, на которых может остановиться рынок, исходя из нынешних тенденций. Снижение цен уже де-факто почти достигло целевых значений:

Сравнение цен Cascade Lake-X (ix-10000X) и Skylake-X Refresh (ix-9000X)
(в колонке «Новая цена» указана официальная цена 10-го поколения и целевое значение для 9-го поколения)


Вероятно, такие действия Intel можно назвать демпингом, на что намекает и опубликованный выше слайд из презентации.

Как и в 90-е годы, если между AMD и Intel начнётся полномасштабная ценовая война, то у неё точно будет один победитель — покупатели.

Впрочем, в 90-е годы в этой ценовой войне был ещё один участник — Cyrix. Он тоже иногда выпускал чипы дешевле и производительнее, чем у Intel, например, модель Cyrix 6x86. Так, производительность 6x86 при более низкой тактовой частоте превышала производительность Pentium, работающего на более высокой частоте.


Например, 6x86 на 133 МГц был быстрее Pentium 166 МГц, и в результате Cyrix предлагала чип 133 МГц в качестве равноценной альтернативы Pentium 166 (и по более низкой цене).

Но в конце концов фирма не выдержала конкуренции и вышла из бизнеса. В итоге её купила тайваньская компания VIA Technologies.

Будем надеяться, что на фоне демпинга мощного конкурента у AMD хватит ресурсов и она не повторит судьбу Cyrix.

miran.ru

Немецкая полиция взяла штурмом военный бункер, в котором разместился объявивший независимость дата-центр



CyberBunker.com — пионер анонимного хостинга, который начал работу в 1998 году. Компания разместила серверы в одном из самых необычных мест: внутри бывшего подземного комплекса НАТО, построенного в 1955 году как защищённый бункер на случай ядерной войны.

Клиенты становились в очередь: все серверы обычно были заняты, несмотря на завышенные цены: VPS стоил от €100 до €200 в месяц, без учёта платы за установку, при этом планы VPS не поддерживали Windows. Зато хостер успешно игнорировал любые жалобы DMCA из США, принимал биткоины и не требовал от клиентов никакой личной информации, кроме адреса электронной почты.

Но теперь «анонимному беспределу» пришёл конец. Ночью 26 сентября 2019 года бойцы немецкого спецназа и полиции штурмом взяли защищённый и охраняемый бункер. Захват произведён под предлогом борьбы с детской порнографией.

Штурм дался непросто, поскольку бункер находится в труднодоступном месте в лесном массиве, а сам дата-центр расположен на нескольких уровнях под землёй.
В операции приняли участие около 650 человек, включая сотрудников правоохранительные органов, спасательные службы, пожарных, медицинский персонал, операторов дронов и т.д.


Вход в бункер можно рассмотреть рядом с тремя зданиями в левой верхней части фотографии. По центру — вышка связи. Справа — второе здание дата-центра. Фото сделано с полицейского дрона


Спутниковая карта этого района
www.google.com/maps/@49.9664317,7.1207858,660m/data=!3m1!1e3


Полиция перед входом в бункер после начала операции

Захваченный объект находится около городка Трабен-Трарбах в юго-западной части Германии (земля Рейнланд-Пфальц, столица Майнц). Четыре подземных этажа бункера уходят в глубину на 25 метров.


Прокурор Юрген Бауэр (Juergen Bauer) рассказал журналистам, что расследование деятельности анонимного хостинга велось несколько лет. Операция тщательно готовилось. Одновременно со штурмом задержано семь человек в ресторане Трабен-Трарбаха и в городе Швальбах, недалеко от Франкфурта. Главным подозреваемым является 59-летний голландец. Задержаны он и трое его соотечественников (49, 33 и 24 года), один немец (23 года), болгарин и единственная женщина (немка, 52 года).

Обыски проведены также в Польше, Нидерландах и Люксембурге. Всего конфисковано около 200 серверов, бумажные документы, многочисленные носители данных, мобильные телефоны и большая сумма наличных денег (примерно 41 млн долларов в эквиваленте). Следователи говорят, что анализ улик займёт несколько лет.


В ходе рейда немецкие власти также захватили по крайней мере два домена, в том числе домен голландской компании ZYZTM Research (zyztm[.]com) и cb3rob[.]org.

По информации властей, вышеупомянутый голландец приобрёл бывший военный бункер в 2013 году — и превратил его в большой и хорошо защищённый центр обработки данных, «чтобы сделать его доступным для клиентов, согласно нашим расследованиям, исключительно в незаконных целях», — добавил Бауэр.

В Германии хостера нельзя привлечь к ответственности за размещение незаконных веб-сайтов, если не будет доказано, что он знал и поддерживал незаконную деятельность.

Бывший объект НАТО был куплен у геоинформационного подразделения Бундесвера. Пресс-релизы в то время описывают его как многоэтажное защитное сооружение площадью 5500 м². У него два смежных офисных здания площадью 4300 м², общая территория построек занимает 13 гектаров земли.


Начальник региональной уголовной полиции Йоханнес Кунц (Johannes Kunz) добавил, что подозреваемый «связан с организованной преступностью» и большую часть своего времени проводил в этом районе, хотя подал документы на переезд в Сингапур. Вместо эмиграции владелец дата-центра, предположительно, жил прямо в подземном бункере.

Всего под следствием находятся тринадцать человек в возрасте от 20 до 59 лет, в том числе трое граждан Германии и семь граждан Нидерландов, сообщил Брауэр.

Семерых взяли под арест, потому что есть вероятность их бегства из страны. Их подозревают в участии в преступной организации, налоговых нарушениях, а также в соучастии в «сотнях тысяч преступлений», связанных с наркотиками, отмыванием денег и поддельными документами, а также в пособничестве распространению детской порнографии. Власти не назвали ни одного имени.

Следователи описали дата-центр как «пуленепробиваемый хостинг», предназначенный для сокрытия незаконной деятельности от глаз властей.

«Я думаю, что это огромный успех… что мы вообще смогли ввести полицейские силы в бункерный комплекс, который защищён на самом высоком военном уровне, — сказал Кунц. — Мы должны были преодолеть не только реальную или аналоговую защиты, но и взломать цифровую защиту центра обработки данных».


Среди незаконных услуг, предположительно размещённых в немецком дата-центре, были Cannabis Road, Flight Vamp 2.0, Orange Chemicals и вторая в мире по размеру платформа для продажи наркотиков Wall Street Market.

Например, на площадке Cannabis Road было зарегистрировано 87 продавцов нелегальных наркотиков. В целом, платформа обработала как минимум несколько тысяч продаж продуктов из каннабиса.

Платформа Wall Street Market обработала около 250 000 сделок по незаконному обороту наркотиков с объёмом продаж более 41 миллиона евро.

Flight Vamp считается крупнейшей в Швеции площадкой для незаконной продажи наркотиков. Розыск её операторов ведут шведские следственные органы. По данным следствия, там отметились 600 продавцов и около 10 000 покупателей.

Через Orange Chemicals по всей Европе распространялись синтетические наркотики разного вида.

Вероятно, теперь всем перечисленным магазинам придётся переехать на другой хостинг в даркнете.

По словам Бауэра, ботнет-атака на немецкую телекоммуникационную компанию Deutsche Telekom в конце 2016 года, которая вывела из строя около 1 миллиона маршрутизаторов клиентов, также велась с серверов в Кибербункере.

Когда бункер купили в 2013 году, покупатель сразу не назвал себя, но сказал, что связан с CyberBunker, оператором аналогичного голландского дата-центра, расположенного в другом бункере времён холодной войны. Это один из старейших анонимных хостингов в мире. Он декларировал независимость так называемой «Республики Кибербункер» и готовность размещать любой сайт, кроме детской порнографии и всего, что связано с терроризмом. В настоящее время сайт недоступен. На главной странице красуется гордая надпись от правоохранительных органов: «Сервер конфискован» (DIESE SERVER WURDE BESCHLAGNAHMT).


Согласно историческим записям whois, Zyztm.com первоначально был зарегистрирован на имя Германа Йохана Ксеннта (Herman Johan Xennt) из Нидерландов. Домен Cb3rob.org принадлежал организации, которая хостилась в CyberBunker и была зарегистрирована на Свена Олафа Кампхейса, самопровозглашённого анархиста, осуждённого несколько лет назад за участие в вышеупомянутой крупномасштабной атаке, которая ненадолго нарушила работу интернета в некоторых местах.

Предполагаемый владелец и оператор кибербункеров Герман Йохан Ксеннт. Изображение: The Sunday World, 26 июля 2015 года

59-летний Ксеннт и Кампхейс вместе работали над предыдущим проектом «пуленепробиваемого» хостинга CyberBunker, который размещался внутри военного бункера в Нидерландах, пишет исследователь в области информационной безопасности Брайан Кребс.

По словам директора компании Disaster-Proof Solutions Гвидо Блаау (Guido Blaauw), он купил у Ксеннта голландский бункер площадью 1800 м² в 2011 году за $700 тыс. Вероятно, после этого Ксеннт нашёл похожий объект в Германии.

Гвидо Блаау утверждает, что после пожара 2002 года, когда в голландском бункере среди серверов нашли лабораторию по производству экстази, там не размещалось ни одного сервера: «В течение 11 лет они рассказывали всем об этом ультра-безопасном бункере, но [их серверы] размещались в Амстердаме, и в течение 11 лет они обманывали всех своих клиентов».


Аккумуляторы в дата-центре CyberBunker 2.0

Тем не менее, «Республику Кибербункер» возродили в 2013 году на немецкой территории, и предприниматели начали предлагать многие из тех же услуг, и тем же клиентам, что и раньше: «Они известны тем, что принимают мошенников, педофилов, фишеров, всех, — сказал Блаау. — Это то, что они делали в течение многих лет, и они известны этим».

CyberBunker входил в топ хостеров для аниме. К ним предъявляются специфические требования, в том числе гарантия анонимности клиентов. Хотя Кибербункера больше нет, но другие защищённые и анонимные хостеры продолжают работать. Они обычно физически размещены за пределами американской юрисдикции, в офшорных зонах, и декларируют максимальную приватность. Ниже сервисы расположены по позициям в рейтинге сайта любителей аниме:
  • Anonymously.io
  • Aruba.it
  • ShinJiru.com
  • CCIHosting.com
  • HostingFlame.org
  • CyberBunker.com
  • DarazHost.com
  • SecureHost.com

Анонимный хостинг в литературе

Бывшая фотография из профиля в Facebook Свена Олафа Кампхейса. После ареста в 2013 году он грубо разговаривал с властями и заявлял о независимости Республики Кибербункер

История с Республикой Кибербункер и другими офшорными хостингами чем-то напоминает вымышленное государство Кинакута из романа «Криптономикон» Нила Стивенсона. Роман написан в жанре «альтернативная история» и показывает, в каком направлении могло пойти развитие человечества при небольшом изменении входных параметров или в результате случайности.

Султанат Кинакута — маленький островок в углу моря Сулу, в середине пролива между Калимантаном и филиппинским островом под названием Палаван. Во время Второй мировой войны японцы использовали Кинакуту как плацдарм для нападения на голландскую Ост-Индию и Филиппины. Там была база ВМФ и аэродром. После войны Кинакута вновь обрела независимость, в том числе финансовую, благодаря запасам нефти.

По какой-то причине султан Кинакуты решил сделать из своего государства «информационный рай». Был принят закон, который касается всех телекоммуникаций, идущих через территорию Кинакуты: «Я отказываюсь от всякой административной власти над информационными потоками внутри страны и через её границы, — объявил правитель. — Ни при каких обстоятельствах правительство не будет совать нос в информационные потоки или использовать свою власть для ограничения этих потоков. Таков новый закон Кинакуты». После этого на территории Кинакуты было создано виртуальное государство Крипта:
Крипта. «Реальная» столица Сети. Рай хакеров. Кошмар корпораций и банков. «Враг номер один» ВСЕХ мировых правительств. В сети нет ни стран, ни национальностей. Есть только СВОБОДНЫЕ люди, готовые сражаться за свою свободу!..
Нил Стивенсон. «Криптономикон»

В преломлении на современные реалии офшорные анонимные хостинги представляют собой некое подобие Крипты — независимой платформы, которая не подконтрольна мировым правительствам. В романе описан даже дата-центр в искусственной пещере (информационное «сердце» Крипты), который немного похож на немецкий Кибербункер:
В стене есть ещё отверстие — видимо, от этой пещеры ответвляются несколько боковых. Том ведет Рэнди туда и почти сразу предостерегающе берёт за локоть: впереди пятиметровый колодец, вниз уходит деревянная лестница.

— То, что ты сейчас видел, — главная коммутаторная, — говорит Том.

— Когда её закончат, получится самый большой маршрутизатор в мире. В соседних комнатах мы разместим компьютеры и систему хранения. По сути — самый большой в мире RAID с большим пребольшим кешем.

RAID означает избыточный массив недорогих дисков — способ надёжно и дёшево хранить большое количество информации. Как раз то, что нужно для информационного рая.

— Мы пока ещё расширяем соседние помещения, — продолжает Том, — и кое на что там наткнулись. Думаю, тебе будет интересно. — Он поворачивается и начинает спускаться по лестнице. — Ты знаешь, что в войну у японцев здесь было бомбоубежище?

У Рэнди в кармане — отксеренная карта из книги. Он вынимает её и подносит к лампочке. Разумеется, высоко в горах отмечен «ВХОД В БОМБОУБЕЖИЩЕ И КОМАНДНЫЙ ПУНКТ».
Нил Стивенсон. «Криптономикон»

Крипта заняла ту же экологическую нишу, какую в реальном финансовом мире занимает Швейцария.

В реальности организовать такой «информационный рай» не так просто, как в литературе. Впрочем, в некоторых аспектах альтернативная история Стивенсона начинает постепенно сбываться. Например, сегодня значительная часть международной коммуникационной инфраструктуры, в том числе подводные кабели, принадлежит уже не правительствам, а частным корпорациям.

Хватит думать, что SLA вас спасет. Оно нужно, чтобы успокоить и создать ложное чувство безопасности



SLA, оно же «service-level agreement» —соглашение-гарантия между заказчиком и поставщиком услуг о том, что получит клиент в плане обслуживания. Также в нем оговариваются компенсации в случае простоев по вине поставщика и так далее. По сути SLA — это верительная грамота, с помощью которой дата-центр или хостинг-провайдер убеждает потенциального клиента в том, что он будет всячески обласкан и вообще. Вопрос в том, что в SLA можно написать все что угодно, да и события, прописанные в этом документе, наступают не слишком часто. SLA — это далеко не ориентир в подборе дата-центра и надеяться на него уж точно не стоит.

Все мы привыкли подписывать какие-то договоры, которые возлагают определенные обязательства. Не исключением является и SLA — обычно самый оторванный от реалий документ, который можно вообразить. Более бесполезен, наверное, только NDA в юрисдикциях, где понятия «коммерческой тайны» толком не существует. А вся проблема в том, что SLA никак не помогает клиенту в правильном выборе поставщика, а только пускает пыль в глаза.

Что чаще всего пишут в публичной версии SLA хостеры, которую показывают публике? Ну, первой строкой идет такой термин, как «надежность» хостера — это обычно цифры от 98 до 99,999%. По сути, эти цифры — лишь красивая выдумка маркетологов. Когда-то, когда хостинг был молодым и дорогим, а облака только снились специалистам (как и широкополосный доступ для всех и каждого), показатель аптайма хостинга был крайне и крайне важен. Сейчас же, когда все поставщики используют плюс-минус одно и тоже оборудование, сидят на один и тех же магистральных сетях и предлагают одни и те же пакеты услуг, показатель аптайма абсолютно непоказателен.

Бывает ли вообще «правильный» SLA
Конечно существуют и идеальные версии SLA, но все они являются нетиповыми документами и прописываются и заключаются между клиентом и поставщиком в ручном режиме. При этом именно этот тип SLA чаще всего касается каких-то подрядных работ, нежели услуг.

Что должно быть в хорошем SLA? Если дать TLDR, то хороший SLA — это регулирующий отношения двух субъектов документ, который дает одной из сторон (заказчику) максимум контроля над процессом. То есть, как это работает в реальном мире: есть документ, который описывает глобальные процессы взаимодействия и регулирует взаимоотношения сторон. Он устанавливает границы, правила и сам по себе становится рычагом воздействия, которым могут пользоваться обе стороны в полной мере. Так, благодаря правильному SLA заказчик просто может заставить исполнителя работать так, как договаривались, а исполнителю — помогает отбиваться от необоснованных договором «хотелок» слишком уж активного клиента. Выглядит так: «У нас в SLA написано так и так, идите отсюда, мы все делаем как оговорено».

То есть «правильный SLA» = «адекватный договор на оказание услуг» и дает контроль над ситуацией. А возможно это только при работе «на равных».

То, что пишут на сайте и то, что ждет в реальности — разные вещи
Вообще, все, что мы будем обсуждать дальше — типичные маркетинговые уловки и проверка на внимательность.

Если взять популярных отечественных хостеров, то одно предложение краше другого: поддержка 25/8, аптайм серверов 99,9999999% времени, куча своих дата-центров минимум по России. Запомните, пожалуйста, момент про дата-центры, мы к нему вернемся чуть позже. А пока поговорим про идеальную статистику отказоустойчивости и с чем сталкивается человек, когда его сервер все же попадает в «0,0000001% падений».

При показателях от 98% и выше, любое падение — событие на грани статистической погрешности. Рабочее оборудование и коннект либо есть, либо их нет. Вы можете годами пользоваться хостером с показателем «надежности» в 50% (согласно его же SLA) без единой проблемы или «падать» раз в месяц на пару дней у ребят, где заявлено 99,99%.

Когда момент падения все же настает (а падают, напоминаем, когда-нибудь все), то тут клиент сталкивается с внутренней корпоративной машиной под названием «поддержка», а на свет достается договор на оказание услуг и SLA. Что это значит:
  • скорее всего, за первые четыре часа простоя вы вообще ничего предъявить не сможете, хотя некоторые хостеры начинают пересчет тарифа (выплату компенсации) с момента падения.
  • Если сервер недоступен большее время, возможно, вы сможете подать требование на пересчет тарифа.
  • И это при условии, что проблема возникла по вине поставщика.
  • Если ваша проблема возникла по причине третьей стороны (на магистрали), то вроде как «никто не виноват» и когда решится проблема — вопрос вашей удачливости.

При этом важно понимать, что вы никогда не получаете доступ к инженерной команде, чаще всего вас останавливает первая линия поддержки, которая ведет с вами переписку, пока настоящие инженеры пытаются исправить ситуацию. Знакомый сценарий?

Тут многие надеются на SLA, которое, вроде как, должно защищать вас от подобных ситуаций. Но, по факту, компании редко когда выходят за границы своего собственного документа либо умеют повернуть ситуацию так, чтобы минимизировать собственные расходы. Первоочередная задача SLA — усыпить бдительность и убедить, что даже в случае непредвиденной ситуации «все будет хорошо». Вторая задача SLA — проговорить основные критические моменты и дать поставщику услуг пространство для маневра, то есть возможность списать сбой на что-нибудь, за что поставщик «не несет ответственности».

При этом крупным клиентам, по факту, вообще плевать на компенсации в рамках SLA. «Компенсация по SLA» — это возврат денег в рамках тарифа пропорционально простою оборудования, которая никогда не покроет даже 1% потенциальных денежных и репутационных потерь. В этом случае клиенту намного важнее, чтобы неполадки были устранены в кратчайшие сроки, нежели какой-то там «пересчет тарифа».

«Множество дата-центров по всему миру» — повод для беспокойства
Ситуацию с большим количеством дата-центров у поставщика услуг мы вынесли в отдельную категорию, потому что кроме очевидных вышеописанных проблем с коммуникацией всплывают проблемы и неочевидные. Например, ваш поставщик услуг не имеет доступа к «своим» дата-центрам.

В нашей прошлой статье мы писали о видах партнерских программ и упомянули модель «White Label», суть которой заключается в перепродаже чужих мощностей под своей вывеской. Подавляющее большинство современных хостеров, которые заявляют о наличии «своих дата-центров» во множестве регионов, являются перекупщиками по модели White Label. То есть, физически они не имеют никакого отношения к условному дата-центру в Швейцарии, Германии или Нидерландах.

Тут возникают крайне интересные коллизии. Ваше SLA с поставщиком услуг все еще работает и является действующим, но как-то кардинально повлиять на ситуацию в случае аварии поставщик не способен. Он сам находится в зависимом положении от своего собственного поставщика — дата-центра, у которого и были куплены стойки-мощности для перепродажи.

Таким образом, если вам важны не только красивые формулировки в договоре и SLA о надежности и сервисе, но и способность поставщика услуг оперативно решать проблемы — стоит напрямую работать с владельцем мощностей. На самом деле, это подразумевает прямое взаимодействие непосредственно с дата-центром.

Почему мы не рассматриваем варианты, когда множество ДЦ на самом деле может принадлежать одной компании? Ну, таких компаний очень и очень немного. Один, два, три небольших дата-центра или один крупный — это реально. Но десяток ДЦ, половина из которых в РФ, а вторая на территории Европы — практически невозможно. А это значит, что компаний-перекупщиков намного больше, чем можно себе представить. Вот простой пример:


Оцените количество дата-центров сервиса Google Cloud. В Европе их всего шесть. В Лондоне, Амстердаме, Брюсселе, Хельсинки, Франкфурте и Цюрихе. То есть на всех основных магистральных точках. Потому что дата-центр — это дорого, сложно и очень большой проект. А теперь вспомните хостинговые компании откуда-то из Москвы с «десятком дата-центров по всей России и Европе».

Нет, конечно, хороших поставщиков, имеющих партнеров по программе White Label, достаточно, и они оказывают услуги по высшему разряду. Они дают возможность арендовать мощности в ЕС и РФ одновременно через одно и то же окно браузера, принимают оплату в рублях, а не в валюте, и так далее. Но при наступлении случаев, описанных в SLA, они становятся точно такими же заложниками ситуации, как и вы.

Это еще раз напоминает нам, что SLA бесполезен, если вы не имеете понятия о структуре организации и мощностей поставщика.

Что в итоге
Падение серверов — это всегда неприятное событие и случиться оно может с кем угодно и где угодно. Вопрос в том, какую степень контроля за ситуацией вы хотите. Сейчас на рынке не слишком много прямых поставщиков мощностей, а если говорить о крупных игроках, то им принадлежит, условно, только один ДЦ где-нибудь в Москве из десятка по всей Европе, к которым вы можете получить доступ.

Тут каждый клиент должен сам для себя решать: я выбираю комфорт прямо сейчас или трачу время и силы на поиск дата-центра в приемлемой точке России или Европы, где смогу разместить свое оборудование или купить мощности. В первом случае подойдут стандартные решения, которые сейчас есть на рынке. Во втором — придется попотеть.

В первую очередь нужно выявить, является ли продавец услуг непосредственным владельцем мощностей/дата-центра. Очень многие перекупщики по модели White Label изо всех сил маскируют свой статус и в этом случае надо смотреть на какие-то косвенные признаки. Например, если «их европейские ДЦ» имеют какие-то специфические названия и логотипы, отличающиеся от названия компании-поставщика. Или если где-то мелькает слово «партнеры». Партнеры = White Label в 95% случаев.

Далее необходимо ознакомиться с самой структурой компании, а лучше вживую посмотреть на оборудование. Среди дата-центров не нова практика экскурсий или как минимум экскурсионных статей на собственном сайте или в блоге (мы такие писали, раз и два), где они рассказывают о своем дата-центре с фотографиями и подробными описаниями.

Со многими дата-центрами можно договориться о личном визите в офис и мини-экскурсии в сам ДЦ. Там можно оценить степень порядка, возможно, удастся пообщаться с кем-нибудь из инженеров. Понятно, что никто не будет устраивать вам экскурс на производство, если вам нужен один сервер за 300 RUB/месяц, но если вам требуются серьезные мощности, то отдел продаж вполне может пойти вам на встречу. Мы, например, такие экскурсии проводим.

В любом случае следует руководствоваться здравым смыслом и потребностями бизнеса. Например, при необходимости распределенной инфраструктуры (часть серверов в РФ, вторая — в ЕС), проще и выгоднее будет воспользоваться услугами хостеров, имеющих партнерские отношения с европейскими ДЦ по модели White Label. Если же вся ваша инфраструктура будет сконцентрирована в одной точке, то есть в одном дата-центре, то стоит уделить вопросу поиска поставщика некоторое время.

Потому что типовое SLA вам, скорее всего, не поможет. А вот работа с собственником мощностей, а не перекупщиком — значительно ускорит решение возможных проблем.



https://miran.ru

Скидка 10% или Windows Server бесплатно для серверов Xeon E3

Серверы Xeon E3-1230v6 со скидкой 10% или аренда лицензий Windows Server Standard бесплатно.

Тарифы со скидкой:

Xeon E3-1230v6 3.4GHz / 16GB DDR3 / 2 * 3TB SATA — 4943 рублей в месяц
Xeon E3-1230v6 3.4GHz / 16GB DDR3 / 2 * 256GB SSD — 5217 рублей в месяц
Xeon E3-1230v6 3.4GHz / 32GB DDR3 / 2 * 3TB SATA — 6681 рублей в месяц
Xeon E3-1230v6 3.4GHz / 32GB DDR3 / 2 * 256GB SSD — 5766 рублей в месяц

или вместо скидки аренда лицензий Windows Server Standard бесплатно

  • автоматическая установка ОС (CentOS, Debian, Ubuntu, MS Windows Server)
  • установка из собственного ISO образа
  • размещение в дата-центрах МИРАН
  • доступ к серверу по IPMI из личного кабинета
  • гарантированный канал Интернет 100 Мбит/сек
  • локальная сеть 1 Гбит/с между серверами
  • круглосуточная техническая поддержка
  • возможность прямого подключения к любому из 50 операторов связи
  • возможность подключить USB-ключи

Тарифы на сайте miran.ru

Заказать со скидкой возможно до 20 июня 2019 года.
Скидка и действие бесплатный лицензий до 31.12.2019г

Скидки 25% на аренду серверов Intel Xeon E5v4

Серверы Xeon E5-2620v4 со скидкой 25% от 9032 рублей в месяц.

Тарифы со скидкой:

Xeon E5-2620v4 2.1GHz / 32GB DDR4 / 2 * 3TB SATA — 9 032 рублей в месяц
Xeon E5-2620v4 2.1GHz / 32GB DDR4 / 2 * 512GB SSD — 9 000 рублей в месяц
Xeon E5-2620v4 2.1GHz / 64GB DDR4 / 2 * 256GB SSD + 2 * 3TB SATA — 11 015 рублей в месяц

2 * Xeon E5-2620v4 2.1GHz / 64GB DDR4 / 4 * 3TB SATA — 12 890 рублей в месяц
2 * Xeon E5-2620v4 2.1GHz / 64GB DDR4 / 2 * 512GB SSD + 2 * 3TB SATA — 13 837 рублей в месяц
2 * Xeon E5-2620v4 2.1GHz / 128GB DDR4 / 4 * 512TB SSD — 15 667 рублей в месяц

  • автоматическая установка ОС (CentOS, Debian, Ubuntu, MS Windows Server)
  • установка из собственного ISO образа
  • размещение в дата-центрах МИРАН
  • доступ к серверу по IPMI из личного кабинета
  • гарантированный канал Интернет 100 Мбит/сек
  • локальная сеть 1 Гбит/с между серверами
  • круглосуточная техническая поддержка
  • возможность прямого подключения к любому из 50 операторов связи
  • возможность подключить USB-ключи

Все тарифы на miran.ru

Заказать со скидкой возможно до 20 июня 2019 года.
Скидка будет действовать до 31.12.2019 года.

Открываем продажи выделенных серверов на Intel Silver 4114 и Intel Gold 6140

Аренда серверов на процессорах Intel Silver и Gold со скидкой 10%

Миран открывает предзаказ выделенных серверов на процессорах Intel Silver 4114 и Intel Gold 6140. При заказе сервера до 28 декабря 2018 года, мы предоставим скидку 10% до конца 2019 года.

2 × Intel Xeon Silver 4114 2.2 ГГц, 20 ядер, 96 Гб, 2 * 480 ГБ SSD + 2 * 3 ТБ SATA = 21500 руб.
2 × Intel Xeon Silver 4114 2.2 ГГц, 20 ядер, 192 Гб, 2 * 480 ГБ SSD = 26000 руб.
2 × Intel Xeon Silver 4114 2.2 ГГц, 20 ядер, 384 Гб, 2 * 480 ГБ SSD = 38000 руб.

2 × Intel Xeon Gold 6140 2.3 ГГц, 36 ядер, 96 Гб, 2 * 480 ГБ SSD + 2 * 3 ТБ SATA = 26000 руб.
2 × Intel Xeon Gold 6140 2.3 ГГц, 36 ядер, 192 Гб, 2 * 480 ГБ SSD = 32000 руб.
2 × Intel Xeon Gold 6140 2.3 ГГц, 36 ядер, 384 Гб, 2 * 960 ГБ SSD = 49500 руб.

Тарифы выше указаны без учета скидки.

Посмотреть цены по скидками

— выдача серверов после 18 января 2019 года;
— гарантированный доступ в Интернет 100 Мбит/с;
— увеличение скорости доступа до 1 Гбит/с — 7000 руб.
— резервирование блоков питания;
— замена вышедших из строя комплектующих и серверов;
— удаленное управление серверами через IPMI;
— подключаем USB ключи;
— локальная сеть 1 Гбит/с между любым оборудованием внутри дата-центра — 200 рублей за порт;
— возможность прямой кроссировки до любого оператора в дата-центре — от 590 рублей;

Плановые работы по замене ПО маршрутизаторов

Информируем Вас о проведении плановых работ по обновлению ПО на оборудовании компании Миран.
Работы будут проведены в ночь с 26-го на 27-е Июля с 01 часа до 03 часов ночи.
Перерыв связи для услуги Интернет составит не более 15 минут.
Приносим извинения за доставленные неудобства.

Техническая поддержка: support@miran.ru т.490-70-91

Инженерные системы наших дата-центров, часть 2

Trace Mode и с чем его едят
Повторюсь, изначально в в первом дата-центре выраженного мониторинга не было, а необходимость в нем была. И воплощать эту потребность решили сперва на базе уже строящегося «Миран-2», который планировался еще и модульным. Проектировщики и интеграторы предложили в качестве SCADA использовать отечественный Trace Mode. Данный продукт на тот момент мог удовлетворить все хотелки в плане мониторинга, был относительно простым в дальнейшей разработке (ежели бы такая необходимость возникла… и она-таки возникла) и стоил вроде бы не очень больших денег. В общем, неплохой вариант для простой системы.

АРМ дежурного ЦОД «Миран-2».


Trace Mode являет собой вполне классической образчик SCADA, имеет в себе ядро-сервер, опрашивающий циклично все необходимые железки по сети и клиент-консоли на АРМах дежурных, которые всю жизненную информацию от сервера и выводят, в виде различных мнемосхем. Такой вариант исполнения был использован для мониторинга «Миран-2» в целом. Для модульных ЦОД внутри (их пока у нас два) — был использован вариант с «тонкими» клиентами (java-апплет в браузере).

Фото панели с «тонким» клиентом в браузере и панели с клиент-консолью.


Кратко расскажу о внутренней структуре проектов. Есть условно два уровня:
  • нижний уровень, опрос устройств. Осуществляется «Источниками/Приемниками» — некие структурные шаблоны, которые определяют различные протоколы, технологии и интерфейсы (Modbus RTU/TCP-IP, SNMP, DDE, OPC etc.), содержат настройки связи. В общем, являются софтварным отражением периферии.
  • верхний уровень, тэги. В Trace Mode они называются «Каналами». Эти шаблоны уже определяют тип параметра, получаемого от «Источников» (дискретный/аналоговый), задают для него масштабирование, аварийные/предаварийные пределы (для аналоговых сигналов), назначают привязку к словарям аварийных сообщений, наконец, «каналы» же устанавливают будет ли данный параметр архивироваться или нет. Соответственно, к различным графическим элементам на мнемосхемах эти «каналы» можно привязать для оперативного мониторинга.

Trace Mode IDE. «Источники/Приемники».


Trace Mode IDE. «Каналы».


Это и есть ядро SCADA.
Конечно же в Trace Mode есть также возможность писать подпрограммы на общепринятых промышленных языках (ST, LD, FBD), создавать отчеты, рассылать SMS и E-mail.
На заметку.
Все продукты в семействе Trace Mode защищены HASP-ключами. Для работы в IDE требуется свой ключ, лимитирующий в проекте количество источников данных (e.g. лицензия на 128, 256, 512… N устройств). Для работы МРВ требуется свой ключ. Он лимитирует максимальное количество «каналов» в скомпилированном проекте; в подмножество каналов, помимо самих каналов, входят и вызовы программ, шаблонов экранов. Также ключ определяет доступность некоторых технологий, у нас, в частности, возможность запуска OPC-сервера Trace Mode. Для клиент-консолей, которые используются в АРМах, ключ лимитирует число экранов (в проекте дюжина мнемосхем, а ключ на десять? Два экрана перестанут вызываться). «Тонкие» клиенты? Ну вы поняли, ограничения на кол-во одновременных подключений, шаблонов документов...

Изначально, мониторинг от интегратора был довольно прост. Самый минимум: данные о состоянии вводных и вспомогательных автоматов, данные по энергопотреблению, показания температурных датчиков и датчиков влажности, состояние кондиционеров и ИБП, а также (один из важнейших параметров) — по-стоечный расчет энергопотребления.

Т.к. система, конечно же, была неидеальна и страдала от всяческих недоработок, ее нужно было поддерживать и совершенствовать. Здесь на сцене и появляется ваш покорный слуга. Основной моей задачей стало свести количество ошибок в системе к минимуму, а в последующей перспективе — добавить новых глюков фич, которые должны облегчить эксплуатацию всей инженерной инфраструктуры наших дата-центров.

Перво-наперво, система мониторинга была «причесана и вылизана», а именно: исправлены всяческие «очепятки», приведены в соответствие порядок чисел (200 градусов Цельсия в холодном коридоре превращаются в 20,0), найден консенсус, в чем же мы меряем потребление в стойках — в кВт или все-таки в кВА. Спойлер!

Вторым эшелоном шли исправления стратегические. Например, в первоначальной версии проекта первого модульного ЦОД не было никакой индикации о состоянии его ИБП, в норме ли они или уже отключились в аварийном состоянии из-за поломки. Был расширен список возможных аварийных ситуаций и сообщений о многих узлах ЦОД. Мнемосхемы обрастали различными значками, индикаторами и дополнительными параметрами, в общем, всем, что должно было помочь понять — здоров или нет дата-центр.

Основная мнемосхема ЦОД «Миран-2»


Основная мнемосхема ЦОД «Миран-1»


Мнемосхема состояния ИБП узла связи «Миран-2»


Мнемосхема ДГУ-1 «Миран-2»


Всплывающая мнемосхема модульного ЦОД «Модуль-2»


Огромные панели с мигающими мнемосхемами — это очень круто и хорошо, но дежурный все же человек, которому свойственно уставать, забывать и не замечать. Системы мобильных ЦОД не имеют, к сожалению, журнала тревог, поэтому было решено реализовать рассылку аварийных писем, как службе главного инженера, так и в тикетную систему нашей тех.поддержки. В последствии, к этому еще добавилась и оповещающая сирена.

Крутые метрики и все-все-все
После года шлифовки проектов Trace Mode, был достигнут некий удобоваримый компромисс между «хотим красиво, современно и круто» и «реализовали как смогли и как получилось». В целом, система справлялась с мониторингом и оповещением по текущему состоянию, но хотелось иметь и возможность простейшего анализа климатики и энергопотребления.

Т.к. системы модульных ЦОД были оснащены только лишь «тонкими» клиентами и графиков и трендов они не поддерживали (опять же), хоть какой-то анализ был выполнен в виде суточных отчетов на E-mail`ы службы главного инженера (с простейшими табличками, заполненных мин/максами значений по датчикам температур и энергопотребления стоек). Наглядность, впрочем, все равно оставляла желать лучшего. Ко всему прочему, еще одним камнем преткновения стала нестабильная работа собственных архивов Trace Mode, из которых эти данные извлекались.

Перебрав несколько вариантов решения всего этого безобразия, было решено остановиться на варианте с отгрузкой данных из Trace Mode во внешнюю БД для дальнейшей обработки.

Когда я уже хотел приступать к реализации вышеозначенного варианта, наш главный инженер наткнулся на просторах интернета на сайт grafana. Дружно повздыхав над красотой графиков, мы сошлись на том, что-де реализовать подобное под наши нужды на текущей платформе — затруднительно. Тем не менее, grafana крепко засела у меня в голове и я стал искать любые гайды с описанием реализованных решений с ее участием. Переломными стали несколько статей на хабре: 1 и 2 (Хабр окрыляет помогает!) с упоминанием демона collectd и его плагинов.

Теперь уже вполне себе вызрела идея как все это реализовать под наши нужды.


Под все это дело был выделен скучающий от низкой нагрузки blade-сервер и развернута тестовая Ubuntu со всем необходимым набором софта. После этого настал черед заполнить конфиг collectd на предмет что и как ему опрашивать. Ниже некоторые выдержки из конфига. Ничего особенного, все строго в соответствии с документацией по демону и плагинам:

Содержимое файла конфигурации для collectd
# Config file for collectd(1).
#
# Some plugins need additional configuration and are disabled by default.
# Please read collectd.conf(5) for details.
#
# You should also read /usr/share/doc/collectd-core/README.Debian.plugins
# before enabling any more plugins.

Hostname "graphite"
FQDNLookup true
#BaseDir "/var/lib/collectd"
#PluginDir "/usr/lib/collectd"
TypesDB "/usr/share/collectd/types.db" "/etc/collectd/my_types.db"
Interval 10
#Interval 60
#Timeout 2
#ReadThreads 5

LoadPlugin logfile
LoadPlugin cpu
LoadPlugin disk
LoadPlugin memory
LoadPlugin modbus  //тот самый плагин
LoadPlugin snmp
LoadPlugin write_graphite

#LoadPlugin email
#LoadPlugin sensors
#LoadPlugin serial

<Plugin logfile>
    LogLevel "info"
    File STDOUT
    Timestamp true
    PrintSeverity true
</Plugin>

<Plugin modbus>

#DC2 VRU Data -------------------------------------------------

 <Data "VRU-QF1-Status">
   RegisterBase 380
   RegisterType int16
   Type word
   Instance "VRU-QF1-Status"
 </Data>

 <Data "VRU-QF2-Status">
   RegisterBase 381
   RegisterType int16
   Type word
   Instance "VRU-QF2-Status"
 </Data>
…
 <Data "VRU1-U-AN">
   RegisterBase 300
   RegisterType int16
   Type voltage
   Instance "VRU1-U-AN"
 </Data>

 <Data "VRU1-U-BN">
   RegisterBase 301
   RegisterType int16
   Type voltage
   Instance "VRU1-U-BN"
 </Data>

 <Data "VRU1-U-CN">
   RegisterBase 302
   RegisterType int16
   Type voltage
   Instance "VRU1-U-CN"
 </Data>

 <Host "DC2_PLC">
   Address "XXX.XXX.XXX.XXX"
   Port    "502"
   Interval 5
   
   <Slave 1>
    Instance "Vars"
    Collect  "VRU-QF1-Status"
    Collect  "VRU-QF2-Status"
...
    Collect  "VRU1-U-AN"
    Collect  "VRU1-U-BN"
    Collect  "VRU1-U-CN"
...
   </Slave>
 </Host>

<Plugin snmp>
# DC2_Module1_UPS1 -------------------------------------------------
 <Data "UPS1_load_A">
  Type "percent"
  Table false
  Instance "Load_A"
  Values ".1.3.6.1.2.1.33.1.4.4.1.5.1"
 </Data>

 <Data "UPS1_load_B">
  Type "percent"
  Table false
  Instance "Load_B"
  Values ".1.3.6.1.2.1.33.1.4.4.1.5.2"
 </Data>

 <Data "UPS1_load_C">
  Type "percent"
  Table false
  Instance "Load_C"
  Values ".1.3.6.1.2.1.33.1.4.4.1.5.3"
 </Data>
...
 <Host "DC2_Module1_UPS1">
   Address "XXX.XXX.XXX.XXX"
   Version 1
   Community "public"
   Collect "UPS1_load_A"
   Collect "UPS1_load_B"
   Collect "UPS1_load_C"
...
   Interval 5
 </Host>

<Plugin write_graphite>
	<Carbon>
		Host "localhost"
#		Port "2003"
		Prefix "collectd."
		Protocol "tcp"
#		Postfix "collectd"
#		StoreRates false
#		AlwaysAppendDS false
#		EscapeCharacter "_"
	</Carbon>
</Plugin>

Include "/etc/collectd/collectd.conf.d/*.conf"


Дашборд главного ВРУ «Миран-2».


Дашборд с наиболее важными параметрами «Модуль-2».


Дашборд с климатическими трендами «Модуль-2».


Дашборд с трендами по потреблению стоек «Модуль-1».


Подводя итоги
Итак, текущие плюсы решения на collectd + graphite + grafana в сравнении с Trace Mode:
  • Бесплатно (финдир вытирает скупую мужскую слезу счастья).
  • Open Source. Можно теоретически добавить недостающую фичу, написав ее самому.
  • Доступность. По сути, это страничка в браузере для конечного пользователя, а, следовательно, есть у каждого в гаджете в кармане. В Trace Mode поддержки для гаджетов толком нет.
  • Простота и удобство расширения. Достаточно при первоначальной настройке collectd + graphite «скормить» им все необходимые данные — и последующие получившиеся метрики можно редактировать и преобразовывать на лету прямо в grafana. Скажем «Нет!» компиляциям МРВ и клиент-консолей в Trace Mode!
  • Очень неплохие возможности по отображению и анализу графиков «из коробки». Trace Mode в этом плане крайне, хм, консервативен.
  • Есть оповещения и уведомления об аварийных ситуациях во всех новомодных чатиках, по почте etc. Trace Mode же может рассылать E-mail`ы и за отдельную денежку — SMS (если у вас есть необходимое железо).

Минусы:
  • Полновесную SCADA подобной связкой не заменить. Никакого управления тех.процессом. Если, конечно, управление Вам необходимо.
  • Open Source. Ваш покорный слуга не имеет надлежащей квалификации для дописания хотелок, а посему смиренно ждет и/или просит более умных товарищей в git-сообществе.
  • Набор панелей невелик (хоть и расширяется за счет плагинов).
  • Движок алертинга пока очень прост, хитрых условий в нем не настроишь. Разработчики обещают расширить функционал.

Пока решено оставить систему мониторинга неким гибридом из классической SCADA Trace Mode со своими клиент-приложениями и серверами как скрытого от посторонних ядра с АСУ и АСМ и внешней обертки grafana с красивыми и удобными метриками, доступной всем внутри корпоративной сети. К чему в итоге мы придем — покажет время, разных инженерных задач еще хватает.