+101.66
Рейтинг

Виталий Никсенкин

Весна в воздухе! Скидка на серверы в 10 странах со скоростью 1 Гбит





Расцветайте!

8 Марта — особенный день, Международный женский день. Он символизирует начало весны и является отличным поводом для того, чтобы выразить свою любовь, восхищение и благодарность всем нашим женщинам.

В знак любви к вам мы дарим возможность заказать или продлить хостинг, виртуальные серверы и резервные копии для них в одной из 10 локаций (России, Нидерландах, США, Израиле, Молдове, Армении, Турции, Германии, Франции, Гонконге) с каналом 1 Гбит, а также выделенные серверы со скидкой 10%.

Условия акции:
  • 01. Воспользоваться скидками можно в период с 07.03.2025г. по 10.03.2025 года (включительно).
  • 02. Скидки предоставляются на услуги VDS (виртуальный сервер), выделенные серверы и хостинг!
  • 03. Скидки предоставляются по промокоду: 23march-2025



webhost1.ru

Статистика сети: запуск региона CA-East в Канаде

За последние несколько лет Backblaze расширила свое региональное присутствие, добавив мощности в регионе Запад США, увеличив свое присутствие в регионе Центральная часть ЕС, открыв новое присутствие в регионе Восток США и совсем недавно выйдя в Канаду с CA-East с первоначальной емкостью хранения чуть менее 60 ПБ.

Мы подошли к нашему последнему расширению в Канаду немного по-другому, и сегодня я хочу рассказать о некоторых новых процессах и мерах повышения эффективности, которые мы внедрили для этого проекта, а также о том, как мы позиционируем себя для обслуживания канадского рынка на основе наших сетевых связей.

Фотография, на которой изображена скульптура с кодом аэропорта Торонто — YYZ.
Команда по развертыванию Backblaze прибывает в Торонто.


Масштабирование инфраструктуры и вызов подкрепления
Развертывание региона данных CA-East было самым быстрым на сегодняшний день, сократив жизненный цикл развертывания («чернила подписаны» для работающей производственной системы) на 50%. В этом цикле развертывания мы работали со сторонним интегратором, который помог нам оптимизировать процесс, а также выровняли наши процедуры автоматизации для установки операционных систем и нашего стека программного обеспечения для хранения данных.

Традиционно мы доставляли все наше оборудование, такое как сетевое оборудование, серверы, жесткие диски, кабели и инструменты, на место назначения, чтобы наша команда по развертыванию провела инвентаризацию, распаковала и физически установила. Это весело. Это контролируемый хаос (если вам нравятся такие вещи) — но для этого цикла сборки мы хотели бы еще больше итерировать наш процесс, чтобы упростить и обеспечить будущий рост более предсказуемым и масштабируемым образом, работая со третьей стороной для оказания помощи с первоначальной физической сборкой стоечного оборудования.

С нашей стороны есть время на предварительное проектирование, документирующее, как организованы все оптоволоконные, медные и силовые кабели. У нас есть карта кабелей для каждого устройства, каждого кабеля и каждого местоположения, а также то, как они должны быть подключены. Это тяжело с точки зрения бумажной работы, но это время потрачено не зря. Это позволяет нам легко шаблонизировать и штамповать будущие шкафы. Когда нам нужно больше шкафов, ориентированных на хранение, чтобы развернуть дополнительное хранилище, это стандарт шкафа. Если нам нужно больше вычислений, это также шкаф, который можно легко построить из шаблона.

Рабочая нагрузка на стороне стороннего интегратора состоит из выполнения наших указаний и выполнения всех физических стоек и проводки. Выполнение всех этих задач требует времени. Вы не поверите, сколько картона и упаковочного материала вам нужно обработать! Распаковка более сотни серверов, тысяч жестких дисков и сотен оптоволоконных и медных кабелей — это немалый подвиг. (Оглядываясь назад, извиняюсь за то, что не предоставил вам марафонское видео распаковки.) Они получили всю нашу упаковку, затем разместили и подключили все в соответствии с нашими спецификациями. После осмотра и контроля качества все было надежно запечатано в ящики и отправлено в Канаду.

Первоначальная настройка и начальная загрузка кластера CA-East на сайте интегратора.


Почти готов к контролю качества и окончательной проверке перед отправкой в ​​центр обработки данных.


Автоматизируйте все дела
Выполнить процесс один раз? Конечно. Нужно сделать это больше двух раз? Автоматизируйте это!

Перед отправкой в ​​центр обработки данных мы отправили небольшую команду на площадку интегратора для проведения физической оценки качества сборки и настройки удаленного доступа, что позволило нам запустить платформу, поскольку у нас был доступ к электропитанию и подключению к Интернету.

Внутри у нас есть система, в которой записаны серийные номера машин и их роли (например, хранилище, API, база данных и т.д.). Когда новая машина впервые загружается в нашей сети, она получает простую операционную систему, установленную через наши службы PXE. Все это распараллеливается, что означает, что мы смогли получить системы для входа в течение нескольких часов для всего набора серверов.

Очень весело переключать кнопки питания одну за другой на более чем 90 серверах, при этом сетевое соединение PXE-сервера работает на горячем режиме, и весь парк серверов автоматически устанавливает операционную систему и готов к дальнейшему администрированию в течение нескольких минут. Совсем не похоже на те дни, когда я выполнял установку Windows 95 с дискет!

После окончательной проверки и прохождения программного обеспечения все было одобрено для отправки. Интеграторы надежно упаковали наши шкафы, и они отправились в Канаду.

Настройка CA-East
По прибытии на место назначения все было доставлено на пол центра обработки данных, закреплено, заземлено и подключено к источнику питания. В течение четырех часов у нас было сетевое соединение с нашими интернет-провайдерами и мы настроили защищенные соединения обратно в нашу производственную сеть, чтобы начать установку программного обеспечения Backblaze с нашими различными внутренними командами. В течение нескольких дней у нас было около 90 работающих серверов, готовых к тому, чтобы наша команда по обеспечению качества начала проводить тесты для имитации активности клиентов.

Мы сотрудничали с Cologix, ведущим поставщиком сетевых нейтральных взаимосвязей и гипермасштабных периферийных центров обработки данных в Северной Америке, в качестве нашего канадского оператора центра обработки данных для этого развертывания. Цифровой периферийный центр обработки данных Cologix — это объект Tier III площадью 20 000 квадратных футов с мощностью два мегаватта. Это высокозащищенный и эффективный центр размещения и взаимосвязи, который отличается ведущими в отрасли конструкциями охлаждения, надежной круглосуточной безопасностью с доступом с двойной биометрической аутентификацией и соответствием стандартам SOC 1, SOC 2, HIPAA и PCI-DSS, а также сертификацией ISO 27001 от Schellman.

Модули хранения данных с несколькими вычислительными серверами в верхней части каждого шкафа.


CA-East: Сетевые и вычислительные шкафы с возможностью расширения.


Связность
Наша стандартная позиция подключения заключается в подключении к трем глобальным операторам для максимально широкого охвата каждой возможной сети, а также в присоединении к локальной интернет-бирже (IX) для обмена трафиком между другими участниками IX локально в пределах одного центра обработки данных или метрополии для обеспечения эффективности с низкой задержкой. Кроме того, для этого сайта мы также подключены к крупному канадскому региональному оператору, что позволяет нам быть в непосредственной близости от трафика, поступающего из Канады.

Благодаря низкой задержке и разнообразным темным оптоволоконным соединениям между центрами обработки данных Cologix, включая крупнейший и важнейший в Канаде отель-отель, объект предлагает доступ к более чем 160 сетям, TORIX и более чем 50 провайдерам облачных услуг.

В целом наша карта связей Калифорния-Восток выглядит следующим образом.
Вариант 1: Глобальные операторы. Вариант 2: Региональный интернет-провайдер. Вариант 3: IX-трафик.


Присоединение к TorIX
Локальный интернет-обмен для этого сайта — Toronto Internet Exchange (TorIX), ведущая канадская точка обмена интернет-трафиком (IXP) и одна из крупнейших в мире. На момент написания этой статьи более 250 организаций обмениваются в среднем более 1,3 терабит в секунду (Тбит/с) трафика каждый день между собой локально.

Подключение к TorIX обеспечивает низкую задержку при передаче данных между нами и поставщиками интернет-услуг (ISP), другими облаками, партнерскими сетями доставки контента (CDN), другими корпоративными сетями и поставщиками хостинга, предоставляющими вычислительные услуги.

Выйди в эфир
Я работаю в Backblaze уже четыре года и смог поучаствовать в сборках для расширения наших регионов US-West, US-East, а теперь и CA-East. Включение метафорического «переключателя», чтобы сделать сайт живым, немного разочаровывает — с точки зрения сети, единственный трафик, который мы видим в начале нового региона, — это наш мониторинг, внутренние задания и некоторые тестовые или контрольные (PoC) аккаунты для мягкого запуска.

Ниже представлен пример сетевого трафика, полученного в тот момент, когда мы запустили пиринговое соединение с нашими операторами и выполнили программный запуск региона данных для наших внутренних команд по контролю качества.


Откуда исходит исходный сетевой трафик? Благодаря нашему мониторингу сетевой телеметрии мы можем видеть потоки трафика в нашу сеть и из нее. Эта информация о сетевом трафике обогащается данными, которые добавляют контекст, позволяя нам видеть, сколько трафика поступает к или от конкретного поставщика услуг верхнего уровня или географического региона.

Вот диаграмма Сэнки, которая показывает снимок текущего трафика из канадских провинций через разных поставщиков услуг в сеть Backblaze, где более крупные линии означают, что больше трафика из этой конкретной провинции или сети. Как и ожидалось, Онтарио и Британская Колумбия являются двумя крупнейшими источниками трафика.


Канада открыта для бизнеса
С течением месяцев и по мере того, как все больше клиентов будут создавать свои учетные записи в этом новом регионе данных и направлять свои рабочие нагрузки в это местоположение, мы увидим больше трафика. Мы будем рады узнать, какие интересные идеи мы сможем почерпнуть, и будем держать вас в курсе в нашей серии Network Stats.

Поскольку Backblaze продолжает расширять свою сеть, мы рады продолжить итерацию наших билдов, чтобы сделать их более эффективными. В конечном счете, это позволяет нам быстрее реагировать на потребности клиентов. Та же отличная сеть — просто больше местоположений.

Мы рады иметь присутствие в Канаде и приветствуем ваши потребности в хранении! Если вам интересно узнать больше о хранении ваших данных в Канаде, вы можете прочитать объявление о запуске здесь.

Бизнес в России — это гомерически смешно






Первая тестовая стойка дома, до заезда в ЦОД. Уже после сборки я понял, что держать 35 миллионов рублей в квартире — так себе идея

Когда вы внутри, это, конечно, тяжко, печально и всё такое, но снаружи это всегда смешно.

Мы строим крупное российское облако, наверное, одними из последних в этой стране в ближайшие несколько лет. Потому что начали без заёмных средств до ставки 21% и ещё когда можно было более-менее внятно пройти бюрократию на лицензию.

Про ад с бюрократией я писал вот здесь.

В этом посте, кстати, было про Ростелеком, речь про Даталайн, который им стал в процессе нашего заезда:
Дальше выбор ЦОДа. Один из партнёрских ЦОДов, где мы размещаемся в Москве, — это Ростелеком. Первую стойку нам выделили в моменте: мы направили запрос, нам сказали: «В этом ЦОДе нет, но встаньте вот сюда» и прислали коммерческое предложение на следующий день. Это заняло буквально два письма туда-обратно и пару звонков. А вот предложение на последнюю стойку менеджер отправлял нам уже месяц. Возможно, согласовывал внутри.

Так вот. Через пару часов после публикации мне написал менеджер из Ростелекома и попросил отредактировать материал, чтобы не порочить деловую репутацию компании. Ну и мы согласились, потому что ничего принципиального для нас в этой истории не было и мы в целом больше за дружбу.

Знаете, в эти игры можно играть вдвоём.

Я попросил в ответ прислать проект правок, то есть предложить итоговые формулировки. Я абсолютно точно знал, что будет дальше — ведь отдельный человек в системе не может взять на себя такую ответственность.

И да, они собрали внутри себя совещание и сутки думали, что же именно нужно поменять. Мы до сих пор бы обменивались официальными письмами и шли бы им навстречу, если бы не решили оттуда уехать.

Второй случай связан с тем, что мы только спустя полгода после открытия офиса смогли провести туда интернет.

Наш интернет
Самое первое, что приходит в голову, — это история про провайдера, сапожника без сапог.

Это про наше подключение офиса к интернету.

Мы заехали в бизнес-центр, который принадлежит нашим друзьям. Приехали, посмотрели, всё понравилось. История классическая, как обычно, один провайдер. Просто никто не заморачивался подключать больше в сам БЦ. Собственники были не против завести кого-то ещё, но у них в принципе такой потребности и не было.

У нас потребность была. Начали смотреть предложения, считать, думать.

В это же время мы очень активно строили между двумя ЦОДами свои оптические линии. И внезапно поняли, что дойти и до офиса тоже — вообще не проблема. Закинули вопрос, сколько нам будет стоить по тёмному волокну включиться где-то здесь? Есть оно вообще где-то ближайшее?

Получили очень адекватное такое предложение — прямое включение, скорость любая, всё зависит от той пары трансиверов, которые поставишь на концах. Два волокна TX/RX, то есть одно на приём, одно на передачу.

По ценнику получилось дешевле, чем гигабитный инет в месяц.

Решили, что сейчас поставим 40 и врубим, потом 100 Гбит/с. Удобно же для офиса. Тем более команда быстро растёт.

Начали делать. Всё хорошо, но был один нюанс. Последние 150 метров достроить — надо согласовывать с собственником здания, через которое проходит как раз от ближайшего колодца трасса. У нас что с одного ввода люка, что с другого стоят жилые дома. В подвале этих жилых домов лежит трасса МГТС, в которой лежит оптика ШПД. Но когда вы ведёте там свою жилу, это становится не вопросом ШПД для дома, а отдельным проектом.

Прокинуть оптику — дело 2–3 дней. А вот этап согласования с собственником занял почти четыре месяца, из которых три он всячески пытался набить цену.

Собственник должен просто сказать: «Разрешаю, согласовываю». Подписать на плане, что согласовано, и, пожалуйста. Председатель ТСЖ, через которого предполагалось, что всё это идёт, хотел за это денег. От председателя надо получить документ, что трасса прокладки через подвал согласована. Она там уже по факту лежит и оказывает услуги дому. Казалось бы, надо как-то через неё класться. Но всё равно нужна его подпись. В этот момент мужик понял, что настал его звёздный час, и решил не упускать свой лучший шанс в жизни стрясти денег с коммерсов. Правда, он не знал, сколько именно трясти. А через помощника сигналил, что коммерческое предложение пришлите: сколько это, как это. Всё боялся продешевить. Непонятно же, сколько это стоит — 50 метров кабеля положить тебе в существующий лоток. Сколько за это взять? Разово? Ежемесячно?

Первые два месяца, пока это делали, мы сидели, как самый крутой провайдер, на мобильных интернетах. Потом получили L2 VPN с последней милей от другого провайдера, офис ожил.

А потом после примерно десятой итерации переговоров выяснилось, что председатель ТСЖ вообще не при делах. И его звёздный час прошёл. Подвал, через который всё идёт, давно выкупил другой человек — и он нам всё это очень быстро подписал. Безвозмездно.

Теперь по цене обычного офисного интернета у нас 40 Гбит/с напрямую к ЦОДу с минимальными задержками и без посторонних на пути. Но второй раз в такую игру я играть не хочу. Либо же сразу буду приходить с ультимативным коммерческим предложением.

При любой прокладке кабеля такая потенциальная проблема всегда присутствует. Поэтому когда мы брали собственный ЦОД, заодно купили ещё участок земли по дороге от электростанции — как раз на такой случай. В общих затратах на инфраструктуру он почти бесплатный.

Теперь представьте тех людей, которые строят трассу длиной не 150 метров, а 120 километров. И через сколько собственников она проходит. Сразу вспоминаются все эти жилые дома посреди скоростной трассы и прочие радости жизни.

Виртуализация туалета
Для офиса мы сняли почти весь этаж. Почти — потому что у нас только один сосед на этаже. Давно сидят в бизнес-центре, проверенные спокойные люди. У них там работает несколько человек, по нашей оценке, 4, плюс-минус 2.

И вот они с чего-то решили поделить территорию общего пользования, а конкретно туалеты.

Просто взяли и закрыли себе одну из двух кабинок туалетов.

Врезали в дверь замок и сделали выделенный персональный туалет.

К этому моменту у нас было уже под два десятка человек. А два десятка человек во вторую кабинку помещается не всегда.

Грубо говоря, их туалет dedicated, а у нас адская переподписка. Зашли на чай к собственникам бизнес-центра, они сильно удивились, и через 20 минут работы АХО, замок исчез. Всё, казалось бы, хорошо, я думал на этом и закончилось. Так нет, их учредитель пришёл к нам за эти туалеты качать права. Казалось бы, уже 25-й год на дворе, а кто-то додумывается поделить кабинки туалета. К счастью, быстро объяснили про общие права доступа.

Собеседования
Самое главное требование у нас — работа только из офиса, удалёнка невозможна. При этом у нас нет строгого расписания — кто-то приходит позже, кому как удобно. Отбор у нас идёт через два фильтра. Сначала с кандидатом обсуждают базовые условия, знакомятся. Потом проверяют технические навыки. И только после этого человек попадает ко мне на финальное интервью.

Как-то к нам пришёл парень, который назвался middle+ фронтендером. Когда он начал рассказывать о своём опыте, выяснилось, что на сайте одной крупной букмекерской конторы он просто вручную обновляет информацию о матчах.

— Я беру шаблон, копирую, вставляю весь контент в реактовские компоненты руками и загружаю на сайт.

Я осторожно выдохнул и спросил опытного middle+ про концепцию DRY (Don't repeat yourself) и как он применяет её в работе.

— DR что?

Я объяснил. На что кандидат просто сказал: «Нет, сдаюсь» и вышел с собеседования.

Сразу скажу, что место немного холиварное, потому что DRY не всегда однозначно хорошо — где-то вступает в противоречие с KISS. Но это, по крайней мере, можно обсудить. Да и реактовские компоненты сами по себе подразумевают DRY — ты определяешь компонент один раз, а потом просто вызываешь его с разными параметрами.

А где он руками копипастил — это крупная контора, реально на слуху у всех. В каждый видеоролик свою рекламу пихает и такой подход к разработке сайта. Я офигел, конечно, что там до сих пор не слышали про CMS.

Вторая история с собеседования была ещё веселее. И вот она уже заставила надолго задуматься.

Два Scala-разработчика. Забегая вперёд, скажу, что в итоге-то мы столкнулись с очень большими проблемами с набором Scala-команды и после выхода Sonnet 3.6 переключили часть компонентов на Go, но про это чуть позже. А Sonnet 3.7 вообще поставил точку в вопросе.

Но вот собеседование. Откликов совсем немного. Scala-разработчики — это нечто очень экзотическое, днём с огнём не найдёшь.

Пришёл, значит, к нам первый кандидат нормальный такой. Пообщались, всё понравилось, пригласили в офис. Дали небольшое тестовое задание — спецификацию OpenAPI с описанием эндпоинтов REST API для веб-сервера. Говорю: «Подними. Стек любой. Инструментарий любой. Как тебе удобно, так и делай. Главное — без нейронок». Мы же скил оцениваем. Так-то мы за LLM. Дали всё, что он попросил. Отошёл заварить кофе. Возвращаюсь. Он:

— Вот. Готово.

Я не понял.

Смотрю — действительно готово.

У него был свой фреймворк написанный, который берёт спеку OpenAPI и поднимает веб-сервер. Он просто несколько строчек кода имплементировал во внутреннюю логику к каждому методу, а всё остальное за него делал фреймворк. Потому что задача встречается не первый раз. Классная вещь. Я прям воодушевился: 10 минут и выполнен рабочий веб-сервер. Но денег этот кандидат хотел прям очень много. Мы ещё поговорили и решили, что надо подумать, потому что один такой человек с правильными инструментами заменяет целый отдел. А с нейросетками, возможно, два.

В этот момент пришёл другой кандидат. Такой дядечка уже в возрасте. Отметился в крупном банке. Всё хорошо рассказывает, дали то же самое задание. Он открыл Vim вместо IDE и начал быстро набирать пятую сонату код.

Спустя полтора часа на Play! Framework эта штука еле-еле завелась и выдавала один работающий метод. Не микросервис, а именно один метод. Без логики.

Контраст, конечно, был очевиден.

Денег он запросил столько же много. А за сакральное знание, как выйти из Vim, мы столько платить не готовы.

В итоге после всех обдумываний перешли на Go. Scala закрывает исключительно тот кусочек, который прям вообще не вариант ни на чём другом сделать, и в команде есть люди, которые с ней работают, в том числе я.

Ещё одна интересная особенность в том, что современные LLM обучены очень хорошо кодить на Go, но очень плохо на Scala, и использовать их возможности просто не выйдет. Возможно, выборка была не очень большая. Мы надеялись на o1 и R1, но тоже нет. В общем, Go. Там и проблем с разработчиками нет.

Третья история с собеседований — аналитики ИБ. Руководитель по ИБ в компании должен завестись сам, потому что публиковать вакансию всё равно не выйдет со всеми деталями. Да и на рынке специалистов по ИБ нет от слова «совсем». Как и самого ИБ в малом и среднем бизнесе.

Мы всё же взялись строить SOC и более-менее открыто прописали, что делать и как. И начался поток людей, которые умеют поднимать файрвол на роутере. И это потолок их навыков. До строки квалификационных требований про спокойствие так и не дошли. А спокойным надо быть.

Специфика бизнеса — в том числе не допустить открытия канала к ОРМ. Мы, как хостер, должны определённый формат СОРМ поддерживать. К счастью, мы не должны закупать никакое дорогостоящее железо как телеком-операторы. Но мы должны наружу выставить для них защищённые концы с доступом к определённой информации. Её перечень, структуры и так далее, они все открыты в нормативке. Там 70-страничный документ с описанием GraphQL схемы. Собственно, мы должны её поддерживать и не давать посторонним лицам. Это персональные данные и, в принципе, репутация. Ну и помимо СОРМ есть базовая гигиена ИБ, за которой необходимо следить.

Поиски, кстати, всё ещё продолжаются.

35 миллионов в квартире — плохая идея
Первая наша стойка для MVP, как вы видели выше, была не стойка, а груда серваков, стоящих друг на друге у меня дома. Выглядело зачётно. Светилось как новогодняя ёлка — и был это как раз конец зимы.

У меня несколько розеток отдельных под домашний кинотеатр, акустику и так далее. По идее каждый сервак — блоки питания 800–1400. После включения всё это начинает жужжать адски, как рой дронов. Я думал, что соседи испугаются, что сейчас атака будет.

Потом ёлочка начинает гореть, то есть греться. Естественно, включаешь кондей либо открываешь окно, когда холодно. Дальше можно с этим сидеть, жить, настраивать.

А вот дальше по факту я очень удивился, что вся стойка потребляет как микроволновка. Десяток серваков жрёт меньше, чем чайник. Я до этого привык, что если заявлено три с половиной киловатта на асике или видюхах в риге, значит, оно и будет жрать три с половиной киловатта. Так и есть, в принципе, плюс-минус пять процентов. А здесь, оказывается, ни фига.

Но самое смешное случилось, когда мы это через неделю настроили и повезли уже в ЦОД. Вызвали «Грузовичкоф». Приехала к нам Лада Ларгус и такой типичный водитель Ларгуса, который откуда-то с региона, видимо, приехал на заработки.

Посмотрел он на сервак. Мы ему объяснили, что стоит он дохрена и надо с ним очень аккуратно. Всё шикарно. Он потихонечку их перенёс. Мы помогли, загрузили. Всё это на грузовом лифте по нескольку штук за раз, на подземную парковку, всё уложили. Обмотали, естественно, плёнкой пупырчатой. Коммутаторы упаковали сверху. Всё хорошо.

Выезжаем из паркинга, и он говорит:

— Ребята, а незамерзаечки у вас не будет? У меня что-то закончилась.

Мы ему отдали канистру незамерзайки. Он, значит, что-то залил, а что осталось — положил в багажник.

Уже приехав в ЦОД, мы поняли, мало того, что он её хреново закрыл, он в багажник её кинул прям поверх серверов.

И вся незамерзайка по ним течёт!

Пока я матерился страшными словами, он всё поспешно выгрузил и уехал.

В незамерзайке спирт (этиловый или изопропиловый), что для серверов условно-безопасно. И вода. Вода уже не так безопасна. К счастью, дальше крышки это не протекло. В паре мест капнуло на платы, я протёр, просушил, и всё завелось.

Это были наши первые серваки для Proof-of-Concept. Сейчас эти серваки будут доживать в наших инстансах под CDN, а мы закупаем уже HPE Gen12. Надеюсь, скоро покажу. Их точно сразу в ЦОД и не на Ларгусе.

VDI
Изучали рынок VDI в России, когда думали, кому и что будем продавать.

Получилось как с той рисоваркой, для запуска которой нужен админ, Senior-разработчик, тимлид и уборщица.

Садится команда людей, среди которых DevOps опытный, который сам Linux-драйверы низкоуровневые пишет для железа. Тимлид, который поднял десятки проектов руками, до этого много в студии Лебедева отработал и в блокчейн-проекте. Собственно, L1veStack (наш контейнерный хостинг) под его руководством вышел. Другой тимлид (тоже с хорошим опытом за плечами), разработчики и я.

И вот мы логинимся в VK и начинаем делать себе VDI. Прям по кнопке «создать VDI». Перед нами мастер на 7 шагов. Проходим первый экран, и там такая хитрая кнопочка «протестировать, всё ли правильно». Нажимаем. Просто начинает крутиться кругляш, и ничего не происходит.

В ресурсах смотрим — херак, создалась виртуалка. Что-то там крутится, крутится, крутится и не меняется. Минут через пять вместо кругляша появляется галочка, что у нас всё окей.

Но виртуалку он не удаляет. Тарификация на неё капает.

Едем дальше. Дальше сетевые настройки, надо зайти в настройки сети, создать новую сеть. Причём диапазон 24-й ей маловат, ей подавай сразу минимум 22-й — и иди ещё с этим всем разберись и пойми из их описания. Ладно, курим маны и кое-как этот этап проходим.

Начинается третий шаг. Называется «введите данные для домена». И просит разные параметры LDAP. Прикол в том, что выскакивают всякие подсказки с ошибками, что введённая строка не соответствует формату. Проверка прикручена. Но вот авторизации по этим данным нет, и можно вставить чужой домен.

На следующем шаге запуск виртуалки под уже выбранную конфигурацию.

1 рабочий стол, 1 контроллер, минимальные ресурсы.

Запустить виртуалку невозможно, потому что квоты не хватает.

Дальше курим ман, и оказывается, что ни один новый аккаунт это всё запустить не сможет никогда.

Деньги есть, а вот лимиты стоят запрещающие. И иначе как через поддержку, это не решается.

Мы всё это посмотрели и поняли, что вряд ли кто-то эти сценарии проходит легко и хорошо.

Пошли тестить других. На третий день случайно вспомнили про ту виртуалку, которая включилась во время теста, пошли тушить. Тоже непросто, удаление заняло минут 20, потому что её нельзя просто удалить (кнопка тупо заблокирована). Сначала надо удалить все связанные с ней ресурсы — сеть, VDI-группу и так далее. А до этого надо ещё додуматься. Прикинули, сколько таких у других крупных клиентов )

Кстати, вероятно, если вы несколько раз запустите тест, виртуалок тоже будет несколько. Пробовать не стали.

В итоге после трёх дней такого тыкания во все VDI на рынке, мы для себя записали, как должен выглядеть проект. Думали, что клиенты этого не замечают, потому что всё падает на девопсов, — но дошли до знакомых архитекторов с 1200 столами, они посмотрели, увидели фотографии графического кластера в ванной и сказали, что мы первые адекватные, кто заглянул. Хорошо пообщались. Стало многое понятно.

Как покинуть офис
Лучшая история с офисом была, когда мы устроили вечеринку в пятницу с пиццей. Бизнес-центр у нас относительно небольшой, арендаторов не сотни, все уходят около 20–21. Охранник по стандартной привычке закрывает выход из здания и уходит на обход.

У нас корпоратив до 22. Мне понадобилось срочно уехать. Спускаюсь, охранника нет, выход закрыт. Соответственно, наши, кто любит просыпаться в 16 и работать вечером, делятся со мной лайфхаком — надо выйти в окно.

Показали окно. Я и вышел.

Охранник это увидел снаружи, и нам чуть не накрыли корпоратив группой быстрого реагирования. Дальше уже объяснили, что мы, айтишники, дикие люди, и можем не только приехать после завтрака в 17, но и уходить ночью. Больше таких инцидентов не было.

Привет Таймвебу
Ну и чисто хабровская история. Про комментарии к статьям. Буквально недавно столкнулся с тем, как эсэмэмщики работают в лучших традициях.

Вот наш пост про перформанс-тесты. Там есть про этих прекрасных облачных провайдеров, и не очень лестное. Хотя, несмотря на адскую переподписку, по деньгам там всё же довольно интересные условия. Но про переподписку тезисы, видимо, не понравились.

Сначала от них пришёл засланец просто, у которого стояла отметочка в профиле, что он работает в Таймвебе. Он накатал длинную-длинную телегу про то, какое мы говно. Его начали минусовать, спустили до -5. И внезапно попёрли плюсы, причём очень кучно! И это совпало с моментом, когда он отредактировал профиль и убрал, что он работает в Таймвебе. Прям отличная переобувка в воздухе — чудо, человек уволился, чтобы нас прокомментировать.

«Я вам оборудование закину погонять»
Напомню, когда мы только взяли площадку под ЦОД, там были развёрнуты ванны под асики. И ещё контейнеры стояли. И вот один из наших знакомых спрашивает, раз уж мы купили площадку, можно ли поставить своё оборудование.

Соглашаемся, но не проговариваем все детали. А важной деталью была цена этого оборудования, а не только условия аренды нашей площади.

Асиков там было почти на миллиард. Комплект майнера включал в тот момент травматический пистолет, и не один.


Набор майнера

Мы тогда с сооснователем вместе дополнительно дежурили в будущем ЦОДе в нагрузку к росгвардейцам, которые нас охраняли. Потому что места дикие, и если что — росгвардейцы убегут первыми. Потому что вопрос на миллиард и 15 минут погрузочных работ.

Объект мы за первую ночь утыкали камерами с детекцией движения, но детекцию нормально настроить не успели. И камеры реагировали не только на росгвардейцев, но и на птиц. Птицы летали не только снаружи, но и внутри ангара, и сильно чаще, чем я думал. А я на измене, представляю, что кто-то полезет это оборудование вытаскивать.

Когда история с асиками кончилась и в ванны мы перезалили другой диэлектрик под серверы, очень сильно выдохнули.

Всё же облаком в России заниматься гораздо спокойнее и предсказуемее.

h3llo.cloud
auth.h3llo.cloud/register

27 февраля 2025



Новые функции
Поддержка синхронизации DNS Cloudflare:
  • Теперь вы можете управлять записями DNS в DNS Cloudflare напрямую из FASTPANEL
  • Поддержка включения и отключения проксирования Cloudflare для отдельных записей DNS
  • Добавлена ​​возможность очистки кэша Cloudflare

Улучшения и исправления
Незначительные исправления и улучшения: Различные небольшие улучшения и исправления ошибок для повышения общей стабильности и производительности системы.

fastpanel.direct

Поддержите PQ.Hosting на премии ЦОДы.РФ!



Поддержите PQ.Hosting на премии ЦОДы.РФ и получите бесплатный сервер!
На сайте премии ЦОДы.РФ стартовал первый этап голосования, и мы сообщаем, что PQ.Hosting в этом году поборется за звание «Хостер года»!



Будем рады вашей поддержке. Возможно, именно ваш голос поможет нам занять заслуженное место среди лидеров отрасли!

Как проголосовать?
  • Перейдите на сайт премии rdca.ru
  • Зарегистрируйтесь и пройдите верификацию, если голосуете впервые.
  • Найдите номинацию «Хостер года»‎ и проголосуйте за PQ.Hosting.

Бонус за поддержку!
Мы ценим вашу лояльность и говорим «Спасибо!». После голосования сделайте скриншот-подтверждение и отправьте его нам через тикет-систему — мы активируем для вас 2 месяца виртуального сервера (до тарифа Iridium) в любой из 44 локаций абсолютно бесплатно!

На продление существующих серверов предложение также распространяется.

В мире весна, а PQ.Hosting раздаёт 1 000 бесплатных VPN-подписок!



Свобода в Интернете должна быть доступна каждому! Мы на 100% уверены в своем продукте и готовы это подтвердить. Если вы ещё не использовали наш VPN, сейчас — лучший момент, который нельзя пропустить!

Мы дарим вам уникальную возможность установить VPN на 3 месяца совершенно бесплатно и без скрытых платежей.

Что нужно сделать?
Просто введите промокод TOPVPN в корзине и получите 3 месяца использования VPN за €0!

Зачем вам VPN от PQ.Hosting?
  • Более 40 стран и до 10 устройств одновременно.
  • Кроссплатформенность: поддержка Windows, macOS, Android, iOS и Linux.
  • Самые современные и надёжные алгоритмы шифрования.
  • Безлимитный трафик.
  • Высокие скорости.
  • Услуга будет предоставлена абсолютно бесплатно и в полном объёме!

Итак. 1 000 подписок. €0. 3 месяца. Промокод TOPVPN.

Понравилось пользоваться VPN от PQ.Hosting? Можете оставить честный отзыв на любом из сайтов-отзовиков — нашей команде важна обратная связь!

pq.hosting/buy-tunnel

SpaceCore на CloudFest 2025!



В этом году команда SpaceCore впервые примет участие в CloudFest 2025 – крупнейшем мировом событии для лидеров индустрии хостинга и интернет-инфраструктуры!

Где? Европа-парк, Германия
Когда? 17-20 марта 2025 года

Почему это важно?
CloudFest – это не просто конференция, а уникальная площадка для обмена идеями, знакомств и партнерств с ведущими игроками рынка. Мы собираемся:
  • Обсудить новейшие технологии и тренды в хостинге
  • Найти новые возможности для сотрудничества
  • Познакомиться с профессионалами хостинг-индустрии со всего мира

Что делает SpaceCore?
Мы предоставляем VPS, VDS и выделенные серверы, обеспечивая надежность, мощность и доступность. Наша команда ежедневно работает над улучшением инфраструктуры и внедрением передовых технологий. Мы сотрудничаем как с физическими лицами, так и с крупными компаниями, предлагая одни из самых выгодных цен на рынке.

Встречаемся на CloudFest?
Если вы тоже планируете участвовать – пишите нам! Давайте вместе обсудим идеи, обменяемся опытом и найдем новые точки роста.

SpaceCore – это про технологии, развитие и выгодное сотрудничество!
Ждите много новостей!

Если у вас спросят про искусственный интеллект, что первым придет в голову? Возможно, ChatGPT?



Продукты от OpenAI действительно являются одними из лидирующих на рынке нейросетей, но, тем не менее, не единственными.
Вероятно вы уже слышали про DeepSeek — китайская нейросеть стала популярной не столько из-за своего функционала, сколько благодаря доступности. Теперь мы знаем, что эффективные нейросети могут быть бесплатными.

Функционал DeepSeek во многом не уступает ChatGPT, Gemini или другим платным нейросетям. Она позволяет писать тексты, анализировать информацию и даже программировать.

Как так получилось и почему DeepSeek оказался «дешевле»?
Все дело в архитектуре Mixture-of-Experts (MoE), которую использует нейросеть. Она позволяет разделить области моделей на несколько частей (около 256 штук). И при отправке запроса используется только нужная область нейросети, а не все сразу. Это сильно снижает вычислительные затраты.

Как выяснилось позже, DeepSeek была натренирована всего за пару месяцев на стеке из видеокарт nVidia H800, тогда как другим крупным игрокам рынка нейросетей требовалось на это несколько месяцев или даже лет, и огромные единицы вычислительного оборудования.

Вы можете зарегистрироваться и опробовать DeepSeek самостоятельно абсолютно бесплатно.
www.deepseek.com

Огромным преимуществом DeepSeek является возможность размещения на локальном сервере. Это позволяет крупным бизнесам хранить конфиденциальные данные только внутри своего оборудования, не обращаясь напрямую к внешнему API и не требуя соблюдений условий лицензирования продукта (ведь исходный код открытый).

Наша команда написала собственную статью, в которой мы подробно рассказали как установить и использовать разные модели DeepSeek на собственном VPS-сервере. Рассказано все: от слабых моделей с потреблением 4ГБ ОЗУ до оригинальной DeepSeek 671b, которой для работы требуется 768 ГБ ОЗУ.
wiki.spacecore.pro/ai/deploy-deepseek-easily

Серверы от SpaceCore идеально подходят для размещения собственной модели DeepSeek. Напишите нам t.me/spacecore_pro_manager мы проконсультируем вас и поможем выбрать подходящий сервер под любой бюджет.

Изменение цен на несколько расширений доменных имен

Несколько регистраторов сообщили нам о повышении цен.

Следовательно, мы должны скорректировать наши цены в соответствии со статьей 3.8 наших Общих положений и условий предоставления услуг.

В таблице ниже вы найдете список соответствующих продлений, а также новые цены на продление, действующие с пятницы, 4 апреля 2025 года.




Чтобы воспользоваться текущими более низкими ценами в течение 10 лет, мы настоятельно рекомендуем продлить регистрацию всех соответствующих доменных имен до пятницы, 4 апреля 2025 года.

Спасибо, что выбрали OVHcloud.
Продление на несколько лет или вперед может быть недоступно или невозможно для некоторых продлений.
Команда OVHcloud

Порядок в заказах - легко!



По вашим отзывам мы добавили гибкое управление заказами через систему тегов, а также функцию группировки заказов по «Проектам». Теперь можно легко настроить работу с оборудованием прямо из личного кабинета. Администрирование серверов и ресурсов стало проще, удобней и понятней.

Присваивая серверам теги — удобные метки, вы самостоятельно формируете политику доступа к оборудованию по ролям, отделам или проектам.

На практике доступ по тегам дает:
  • гибкость и удобство – доступ назначается не конкретному человеку, а к группе серверов, объединённых тегом. Например, можно ограничить доступ к оборудованию с тегом #DevOps только для DevOps-инженеров.
  • автоматизацию – новые сотрудники сразу получают нужные доступы при добавлении к соответствующему тегу, например, это могут быть группы серверов из разных заказов.
  • безопасность – снижение риска человеческого фактора и чёткое разграничение прав. При помощи тега вы сможете наделить одних сотрудников доступом к нужным заказам, тем самым ограничив в доступе других. Но не забывайте про обновление паролей.

Когда количество проектов и оборудования очень велико, управление может стать сложной задачей. Мы постарались упростить этот процесс и предлагаем удобный функционал группировки заказов по «Проектам».

Вы можете создавать проекты под различные задачи своего бизнеса, которые можно настроить по нужным параметрам, например:
  • по месту нахождения организации
  • по названию организации/ холдинга
  • по видам деятельности компаний и т.д.

Проекты можно свободно расширять, добавляя них новые заказы; создавать новые по шаблону предыдущих; удалять ненужные, передавая оборудование в другие проекты. Количество проектов в аккаунте не ограничено, можно добавлять комментарии и присваивать ярлыки.

Уверены, что этот подход сделает работу с нами удобнее, а управление вашими заказами – понятнее и эффективнее. Пробуйте, делитесь фидбеком!

С уважением,
Команда Fornex

https://fornex.com