Рейтинг
0.00

H3LLO CLOUD

2 читателя, 37 топиков

Чисто русский переезд в другой дата-центр




У нас на неделе был эпический переезд из Ростелекома в IXcellerate. Кажется, мы обязаны про это рассказать.

Потому что случился просто весь сок того, как работает отечественный рынок:
  • Те, кто ждал подъёма своего облака всё это время — вы ждали СДЭКа, который вёз два патч-корда «день в день».
  • У нас глючили сетевые железки, и мы не знали, в чём дело. Две недели поиска бага закончились тем, что мы перевезли их в другой дата-центр, и там глюк прошёл полностью.
  • Нельзя зайти в ЦОД Ростелекома 21 человеку, потому что 1 человек оформляется охраной 5 минут с записями в бумажный журнал, а через час они просят пересоздать заявку.
  • Если у вас в команде есть белорусы и казах, то их будут проверять 3 дня, прежде чем пустить на стратегический объект, потому что таков SLA безопасников по обмену данными. Но если у вас есть сириец, его пустят сразу (вероятно, потому что обмен данными не налажен).
  • И да, после переезда мы наконец-то обновили бесплатные лимиты, теперь даже не надо пополнять счёт, чтобы их получить.


Бета облака
Мы строим последнее коммерческое облако в России. Есть масштабная бета, в бете много халявных ресурсов, но надо помнить, что, несмотря на 5 автономных зон, геораспределённое хранилище, другие плюшки, в любой момент всё может пойти по звезде. Потому что мы решили поправить какой-то баг на проде (на самом деле нет).

Нашу бету уже ломали коллеги (спасибо большое), ломали тестеры (спасибо большое), нам показывали на проблемы с UI, была куча пожеланий — в общем, постоянно идут работы.

В целом всё началось с желания запуститься как можно быстрее. Поэтому мы развернули нашу бету на самом оптимальном стеке. Демоинсталляция с халявными ресурсами живёт всё ещё не на той же архитектуре, что прод. В ней ещё торчали куски Козистека — уже кубероцентричного, красивого и новомодного, блестящего такого, но с прослойкой для своего, пока ещё сырого API и без физического разделения сетей. Ну и заодно оказалось, что это решение тоже не очень нормально работает. Мы постепенно избавлялись от него итерация за итерацией, но его наследие продолжало нас преследовать.

Параллельно у нас существовало две другие реальности. Первая — это наша основная ветка разработки, где мы строили правильную архитектуру для будущего продакшена. Вторая, и самая продвинутая, — ветка для одного крупного телеком-оператора, которому мы делаем white-label облако. Поскольку там мы разворачивали всё с нуля на их кластере, то многие архитектурные проблемы уже были решены, и эта ветка по своей проработанности ушла далеко вперёд.

Массово посыпались проблемы на бете
То на ровном месте начинали флапать внутренние BGP-сессии с хостов до ToR-коммутаторов. То внезапно отваливалась наша гиперконвергентная дисковая подсистема — поды начинали мигрировать, отваливаться, а хосты «затенялись» (становились tainted) и переставали принимать новые нагрузки. Всё упиралось в один маршрутизатор ядра. Производительность у него была неплохой, оверхед маленький, но стабильность исчезла.

Мы привезли новые железки, и они стали показывать примерно 40–50% от номинальной производительности по пропускаемому трафику. Представьте: у вас 25-гигабитный линк, а он выкачивает от силы треть.

Почему? Расследование в моменте, когда всё вокруг горит, не дало результатов, но копались мы пару недель. В итоге подъехали 100-гигабитные карточки и мы решили не тратить время и просто пересобрать всё на них.

Дальше можно было долго и упорно ловить баги, чинить разваливающуюся сеть и пытаться понять, почему железо не работает. А можно было признать очевидное — архитектура, созданная для демо, исчерпала себя.

И мы решили убить двух зайцев: перевезти бету на новую, правильную архитектуру, которая уже была готова в той самой продвинутой ветке для не-скажу-какого-оператора, и заодно сменить гео.

Как потом оказалось, на новом месте железки заработали, и от шутки про то, что «я же тебе говорил, место проклятое!», мы удержаться не смогли.

Как переезжать? Был вариант с плавным переносом серверов, частичными переездами, попыткой обеспечить совместимость двух несовместимых кластеров. Это долго, мучительно и чревато новыми, ещё более изощрёнными проблемами.

Если вы любите приключения, рекомендую такой путь.

Но поскольку это бета, а в бете, как известно betta than nothing, мы выбрали путь Безумного Макса и Дороги ярости. Полностью всё вырубить, физически перевезти и собрать с нуля в новом стеке и новом ЦОДе. Да, это означало простой около 2 дней для пользователей беты (как нам казалось вначале). Но так было быстрее и, как оказалось, веселее.

Мы объявили, что берём тайм-аут, и дальше затеяли масштабный тимбилдинг: почти весь офис, включая фаундеров, отправился в Ростелеком паковать серверы.


Место проклятое!
Шаг 1: подаём заявку на проход 21 человека за сутки. Мы такие заявки (правда, на меньшее количество людей) подавали полтора года по одной и той же форме. Перезванивают их сотрудники и говорят:
— Надо заявку переделать!
— А почему?
— Вам надо по-другому название ЦОДа написать, не Nord, а «РТК-Медведково-1», потому что Nord — это слишком прозападно.

Ладно, поменяли. Последний раз же.

Потом за пару часов до времени заезда коллеги внезапно выясняют, что у нас в штате работают белорусы и пара человек из Казахстана. Им вход блокируют.

— Я сотрудник физической безопасности, мне надо на то, чтобы проверить человека из Беларуси, три дня. У вас их тут двое. Ещё из Казахстана двое. Короче, идите на хер, пересоздайте заявку без них.

Интересно, что у нас есть сириец, который такие проверки не триггерил ни в одной заявке.

Ладно, пересоздались без них. Последний раз же.

Наученные прошлым опытом, печатаем серийники для заявки на выезд.

Дальше мы сломали их физический IAM. То есть попыткой зайти разом вся их пропускная система подвисла так нехило, больше чем на час. Потому что каждого они пропускают минут по 5. Записи в бумажный журнальчик делают, паспортные данные какие-то переписывают, забивают, хотя они все в заявке есть. Потом ещё выдают тебе на планшете ту самую инструкцию, которую никто не читает, но вместо галочки — роспись пальцем. Потом это всё в определённый момент просто зависает, ломается. А у них же ещё двое ворот на входе в ЦОД. И, понятно, чтобы не создавать очередь, часть людей уходит на другие ворота, и их логика ломается окончательно.

В итоге оказалось, что пропустить всех надо за 1 час, потому что потом слот активации пропуска заканчивается. Пять человек не попали вообще.

— Заявка закрылась, мы не можем запускать новых людей. Пересоздайте, пожалуйста, заявку на вход!

Ладно, пересоздали. Последний раз же.

Около 14 звонит газель, которая должна была всё это вывозить. Она, как это принято, внезапно ломается. Мы срочно ищем другую. Пересоздаём заявку. Последний раз же.

Дальше выезд из Ростелекома. Это ещё хуже, чем вход новых, ни разу не посещавших людей. На каждый сервак сверяется серийник. И благо, они ушли от той идеи, что мы в заявке должны указывать ещё внутренний учётный номер. Раньше было так: при ввозе они клеили наклейку с номером и в заявку надо было вбивать и его, и серийник железки. Мы с первого же раза сказали, что этой хернёй заниматься не будем, и ни разу её не вбивали. Поэтому все наши заявки проходили прекрасно по серийникам серверов.





Патч-корды — оказывается, это проблема
Заезд в IXcellerate как небо и земля. Мы приехали чуть раньше, чем грузовик, успели выпить кофе и посидеть. Заявка делается просто по списку людей, документы проверяют на входе, без всяких журнальчиков (всё электронное). Проход занял по 20 секунд на человека.

Примерно за 3 часа всё смонтировали — быстрее, чем разбирали в РТК, потому что белорусов пустили.


Но! Для того чтобы в IXcellerate связать наш meet-me-room с новой инсталляцией (она у нас идёт как отдельный контур), понадобилась парочка отдельных патч-кордов. Трассы проложены, кроссы разварены, трансиверы есть. И вот нам, значит, нужен обычный патч-корд, FC — LC-дуплекс.

Заказываем его 30-го, в среду.

На «Всех инструментах» патч-корды были, на них было написано «доставка 1 день», но при добавлении в корзину дата доставки превращалась в 5 августа.

Нашли на Nag.ru. Они такие — «сейчас привезём!» Оплачиваем супернаценку за доставку СДЭКом. Это, кстати, в два раза дороже, чем сами патч-корды, чтобы доставить день в день.

И СДЭК их морозит на хрен.


Прикол в том, что у нас собрано уже всё. Контур заведён, уже всё крутится. Связать его с ядром сети — два, два маленьких патч-корда, и их не хватает!

То есть все, кто ждали нашего облака, имейте в виду, вы ждали два патч-корда, которые мы заказали в трёх разных местах. Мы с коллегами из ЮЛ-Ком уже шутили на предмет купить аппарат для сварки этих патч-кордов и варить их самим. Оказалось, это стандарт рынка. Это боль. Оказалось, что у многих это блокер включения нового клиента. Потому что две недели ждать патч-корды! Что происходит, почему в Москве их дефицит, я не знаю.

СДЭК привёз заказ день в день через 6 дней.


Изменения в архитектуре демоинсталляции
Была архитектура, растянутая на VLAN’ах. Пять физически изолированных сетей (для управления, хранения, публичного трафика и т.д.), которые всё равно терминировались как разные VLAN на одном маршрутизаторе. Мы жили даже в продакшене с MTU 1500 (!), что создавало проблемы для оверлейных сетей и производительности. И не спрашивайте, почему мы не пробовали его увеличить — мы пробовали, но пришлось откатиться. Это мешало построить полноценную оверлейную сеть Kube-OVN и изолировать теннаты друг от друга.

Сейчас полностью перешли на микросервисную архитектуру, выпилив все рудименты. Сеть теперь построена на EVPN VXLAN с физической топологией Dragonfly+. На уровне отдельной группы стоек — Clos (Node, Leaf, Spine), между Спайнами — full-mesh. Там тоже не без сюрпризов, про то, какие грабли поймали, напишем отдельно.

Выкатили API напрямую. Здесь мы вдохновлялись подходом AWS, которые через свой IAM прокачивают до миллиарда запросов. Наш API станет точкой входа для веб-интерфейса, CLI и внешних инструментов типа Terraform’а. То, что вы просили с беты, тоже запустим. Теперь эти доработки делаются ещё быстрее. Будут VPC для объединения машин в разных зонах доступности, Managed Kubernetes, управление DNS-зонами, очереди сообщений (Kafka, RabbitMQ, NATS).



Про бесплатный доступ
Для юрлиц сделали ролевую модель доступа (RBAC) для создания и управления пользователями с разными правами. Корпораты, добро пожаловать! При регистрации юрлица сразу даём 50 тысяч бонусов на 3 месяца.

Для пользователей-физлиц обновили наши бесплатные лимиты. Теперь, чтобы их получить, не нужно пополнять счёт. Мы просто будем холдить небольшую сумму на привязанной карте на несколько дней для верификации пользователя, потом отпускать. Сделали грейды бесплатных ресурсов: если нужен будет быстрый кластер с балансировщиком и расширенной СУБД, уже после пополнения счёта он подключится в бесплатные ресурсы.

Сейчас мы завершаем финальное тестирование и готовимся выкатить все обновления в публичный доступ. Спасибо всем тестировщикам, кто был с нами, ждал и подбадривал нас бодрой руганью.

h3llo.cloud/ru

Как попробовать Managed Kubernetes, кайфануть, и больше никогда не соглашаться на что-то другое



В пятницу мы открыли Managed Kubernetes, и сделали рассылку об этом (и еще о нескольких обновлениях).

И, возможно, показали его слишком инфраструктурно. Когда я вижу тарифы Dev / Prod / Prod+, сроки и цены, я читаю это так:
«Ага, опять что-то впаривают».

Это не то, что мы хотели показать.

С того момента, как мы запустили кубер в preview, мы сами создаём и убиваем кластеры по 10 раз в день — и дико тащимся от этого. Отношение к kubernetes поменялось очень сильно.

Было так:
  • «Вожусь ручками, чтобы поднять кластер, а потом молюсь на него».

Стало так:
  • «Ща, 5 сек, подниму кластер под эту задачу и отдам нейронке kubeconfig».

И вот этот кайф очень трудно передать экраном с выбором пакета.

Его надо просто ощутить:
  • Клик — и через пару минут уже можно деплоить в прод, вместо танцев с виртуалками и kubespray. Кайф!
  • Балансировщик с белым IP — одним манифестом, вместо дрочи с MetalLB и HAProxy. Огонь, дайте два!
  • Сетевой диск с репликацией — одним манифестом. Поднимали Ceph и CSI с AutoProvisioner или Rook? Забудьте!
  • Обновление и масштабирование — просто галочки, и всё едет само. На этих строчках где-то прослезился DevOps on-prem кластера.

Вот в чём смысл Managed Kubernetes.

Не купить пакет. Не выбрать побольше vCPU и RAM. Не собрать очередной инфраструктурный проект вручную.

А дойти от идеи до работающего кластера настолько быстро, что kubernetes перестаёт быть отдельной проблемой.

Мы даем не ресурсы, мы даем драйв от того, что:
  • кластер готов по клику;
  • сеть, диски и балансировка уже встроены;
  • первый деплой можно сделать через пару минут;
  • расходы понятны заранее, и они меньше, чем у любого другого провайдера;
  • при необходимости можно вырасти в моменте хоть в 10 раз, без заморочек;
  • если что-то не зайдёт, есть 7 дней на полный возврат.

Итого:
  • Было: сначала пинаем кубер, потом допиливаем напильником, и уже потом начинаем работать.
  • Стало: поднимаем кластер под задачу в один клик, и сразу идём к релизу.

И это обязательно надо попробовать!

Посмотреть, что входит в платформу mk8s.h3llo.cloud

В следующем письме покажу самый первый шаг: от активации до живого кластера и первого деплоя.

P.S. Если вам не хочется разбираться с kubernetes, а хочется просто попробовать на практике — следующее письмо будет особенно полезным.

С уважением,
Константин
CTO \m/
h3llo cloud

Бодрый апдейт: Kubernetes для всех, бюджетные ВМ и голое железо



За последнее время у нас накопилось несколько обновлений. Расскажу по порядку.

Managed Kubernetes
Запустили autoscaling, autoupdate и сделали control-plane бесплатным для dev-кластеров. Если Kubernetes давно висел в списке «разберусь когда-нибудь» — сейчас отличный момент.
  • Autoscaling — кластер сам подстраивается под нагрузку, скейлится и вверх, и вниз.
  • Autoupdate — версии обновляются без ручного вмешательства (по клику или по расписанию).
  • Control-plane для dev-кластеров не тарифицируется.
Dev-пакет — 3 месяца за 12 000 ₽ (4 000 ₽/мес)
Прод-пакеты — от 15 000 ₽/мес.
Знаем, что Kubernetes пугает не столько ценой, сколько количеством вкладок, которые нужно открыть, чтобы в нём разобраться. Поэтому готовим гайды и разборы — для тех, кто хочет разобраться по-настоящему, а не просто запустить кластер и молиться.
app.h3llo.cloud/ru/billing/commitment_package/new_package

Капсулы — бюджетные виртуальные машины
Запустили новый тип ВМ на Xeon 4-го поколения с DDR5 — от 545 ₽ в месяц. Это реальная стартовая цена, без звёздочек и мелкого шрифта снизу.

Можно запускать как некритичные задачи, так и прод для нормальных нагрузок. Отличие от ВМ — тарификация за месяц и одна реплика диска (тогда как у инстансов — две).
Найти можно в консоли, в разделе «Капсулы»
app.h3llo.cloud/ru/console/

Bare-metal: два CPU, до 512 ГБ RAM
Добавили конфигурации с двумя процессорами и памятью до 512 ГБ.

В панели управления появятся совсем скоро, но если нужно прямо сейчас — напишите в поддержку или на почту. Дадим сервер со скидкой.

До запуска в релиз раздаем сервера от 19 000 рублей в месяц. Это за 44 ядра и 128 ГБ RAM!

GPU-инстансы — уже едут!
Готовим инстансы с GPU. Мы собираем резервы, потому что конфигурации и цены будут прям очень сочные! Застолбить хоть одну карточку, хоть целый кластер из 8 установок HGX B300 можно ответив на это письмо.

Еще пачка улучшений
Другие способы логина: теперь можно логиниться без кода из письма. Мы прикрутили TOTP и WebAuthN, оба способа можно настроить в личном кабинете. И почта теперь ходит без задержек.

На подходе: продвинутый Load Balancer, Security Groups и IAM. Подробности — в следующих письмах.

С уважением,
Константин
CTO \m/
h3llo cloud

Вы просили - мы сделали: Public API + Terraform



Мы запустили Public API и выкатили официальный Terraform Provider.

Да, тот самый. Теперь инфраструктура — это не только пара кликов мышкой в нашем симпатичном UI. Это еще и код.

Сценарий максимально скучный и поэтому прекрасный: terraform apply. И через несколько минут у тебя живой сервис. Без дрочи с security group, без “почему порт закрыт”, без ритуалов с тремя перезапусками и пробиванием кеша.

Мы сейчас пишем набор готовых рецептов — чтобы одной коммандой можно было поднимать:
  • продакшен-сайты;
  • n8n;
  • OpenClaw + OpenRouter;
  • личную или корпоративную почту на своем домене;
  • файловые серверы;
  • TG-ботов;
  • корпоративные чаты, wiki и таск-трекеры;
  • GitLab и свои Container Registry;
  • VPN;
  • и даже k8s!
Идея простая, как в песне: «I see it, I like it, I want it, I got it». Нужен файловый сервер — terraform apply, и готово. Нужен OpenClaw? Аналогично.

Бубен висит на стене, шаман отдыхает. Магия — это когда работает с первого apply. Именно так выглядит облако здорового человека.

Terraform уже живой. Инфраструктура уже код.

h3llo.cloud

С уважением,
Константин
CTO \m/
h3llo cloud

Мы ускорились



За последние недели мы сделали несколько вещей, которые нельзя просто выкатить молча:
  • Проапгрейдили процы, так что ВМ теперь в среднем в 2 раза быстрее, чем у большинства российских облаков.
  • Переселили managed базы данных в приватную сеть, белый IP адрес сделали опциональным.
  • Белые IP адреса можно откреплять от ресурсов и прикреплять к другим, больше не придется переписывать конфиги ;-)
  • Добавили опцию публичного доступа для бакетов объектного хранилища.
  • ВМки можно ресайзить (пока с перегрузкой, но уже скоро можно будет и на лету).
  • ВМки теперь можно разворачивать из снепшота диска (создал золотой образ и штампуй новые машины).

И главное — мы готовим публичный релиз:
  • Public API.
  • Terraform-провайдер.
  • CLI.
То есть облако как надо — c IaC и API, а не только кнопки в UI. Откроем уже в понедельник.

Если вы откладывали тест — сейчас самое время вернуться и посмотреть, что изменилось. До 28 февраля ещё действует акция с депозитом 5000 ₽ — за него вы получаете пакет ресурсов на год.

Подробности по ссылке limits.h3llo.cloud

С уважением,
Константин
CTO \m/
h3llo cloud

Отвечаю на неудобные вопросы



Отвечаю на самые часты вопросы участников акции.

Это реально бесплатно? В чём подвох?
Реально. Вы вносите депозит 5 000 ₽ на свой счёт и получаете ресурсы на 120 тысяч рублей в розничных ценах на год. Подвоха нет. Нам нужны первые пользователи, реальные кейсы и честная обратная связь, чтобы сделать продукт ещё лучше. Для нас это инвестиция. А деньги останутся на балансе и их можно будет потратить на другие ресурсы.

А если у меня маленький проект? Мне столько не нужно.
Отлично! У вас будет запас мощности на вырост. Наш стартовый пакет — это не просто виртуалка, а полноценная инфраструктура с базами данных, балансировщиком и хранилищем. Ваш проект будет работать быстро и надёжно с самого начала.

А ваша поддержка не уснёт через месяц?
Не уснёт. Быстрый и компетентный саппорт — один из наших главных принципов. Мы строим сервис, которым приятно пользоваться.

Остались вопросы? Просто ответьте на это письмо, и мы всё расскажем.

Пакет можно забрать по ссылке до 31.12.2025.
limits.h3llo.cloud

С уважением,
Константин
CTO \m/
h3llo cloud

Релиз последнего коммерческого облака России — и немного халявы для первых пользователей




Мы строили-строили и наконец-то построили последнее коммерческое облако в РФ.

Почему последнее — потому что теперь конкурировать с крупными корпоратами из-за кучи ограничений, экономики, высокого порога входа по бюрократии и теперь ещё цене железа (из-за улетевшей в космос по цене оперативки) почти нереально. Возможно, года через 3–4 появится ещё кто-то, кто сможет бросить вызов Яндексу, Сберу, Селектелу и ещё паре игроков, но пока тут только мы.

И мы ненавидим корпоративный подход.

Он медленный, неэффективный, поддержка у них часто считает пользователя за пустое место. Почему я всё это знаю — потому что сам работал с Ростелекомом.

Чуть позже я расскажу про то, как прошла бета, и там оказалось, что самое главное — просто не быть козлами. Это даже важнее, чем быстрое железо.

Но, возможно, вам всё это не очень интересно, а интересна халява. Поэтому перехожу сразу к ней.

Халява
Вот ресурсы, которые получает участник акции «Год в облаке бесплатно» при создании аккаунта и пополнении баланса на 5000 ₽:
  • 2 виртуальные машины по 2 vCPU /4 Гб RAM
  • База данных 2 vCPU / 2 Гб RAM
  • 40 Гб сетевых дисков
  • Балансировщик нагрузки
  • Белый IPv4
  • 10 Гб объектного хранилища

Участвовать можно только один раз, если что-то не понравится — возвращаем деньги при предъявлении паспорта.

Действует по 31 декабря 2025, то есть ещё несколько дней.

Подробнее тут limits.h3llo.cloud

Этого хватает попробовать основные фичи. Один человек рассказывал, как развернул там учебный Кубер — одна машина контрол-плейн, вторая — кластер. Так делать уже не надо (если только из мазохизма желания научиться ставить Кубер ручками) — есть менеджед-сервис.

Ещё у нас отдельно есть помощь для стартапов — там нужны объёмы больше, чем в тестовых пакетах. Для них у нас есть история с грантами. Мы готовы новым проектам давать не только инфраструктуру, но и экспертизу — помогать правильно заезжать на наше облако и т.п. Тут приходите в личку или в почту world@h3llo.cloud

Коротко, что поменялось от беты к релизу 1.0
Начали в мае с первой публичной беты. Она несколько раз менялась, в частности, мы избавлялись от кусков cozy stack и наследия его архитектуры. Там же появилось нормальное геораспределение. После летней миграции мы очень усердно навалились на продуктовую часть: переписали кучу всего внутри платформы, отладили биллинг, связали его с логикой акций и лимитов, выстроили процессы поддержки.

Сейчас добавили:
  • Полноценно работающие VPC, качественную дисковую подсистему с репликацией (в том числе мультизональной) и гибкое управление инстансами — можно настраивать CPU и RAM под свои нужды.
  • Уже готовы и работают Managed Kubernetes и базы данных (PostgreSQL/MariaDB). Мы сейчас переводим на этот стек остальные сервисы, так что скоро после рефакторинга вернутся Redis, OpenSearch и ClickHouse.
  • Load Balancer работает из коробки, и он умнее, чем кажется. Например, он умеет разруливать трафик по портам: если у вас группа машин, где часть слушает порт 8080, а часть — 9000, балансировщик поймёт, куда и что направлять, если выставить эти порты наружу. Скоро выкатим продвинутую версию с ACL и выбором стратегии балансировки.
  • Внедряем аренду Bare Metal. Пока выдаём серверы вручную по запросу, но строим автоматизированный Bare Metal as a Service, в том числе Managed Kubernetes на голом железе. Для автоматизации уже готов Terraform-провайдер, сейчас допиливаем и полируем Public API.

Главное отличие релиза от того, что было полгода назад, — это стабильность и архитектурная зрелость. В первой бете мы честно говорили: «Ребята, всё может пойти не так, делайте бекапы». И ситуации были разные. Бекапы много кому пригодились.

Самая показательная история произошла с нашей дисковой системой Linstor. Изначально мы, ориентируясь на референсы (в духе Cozy Stack), держали Linstor в оверлейной сети. То есть дисковая подсистема зависела от сетевой виртуализации. Как следствие — если ломалась сеть, падали и диски. В Кубере, чтобы диски работали в отдельной сети, нужно приложить специальные усилия, иначе трафик по дефолту идёт через оверлей.

Мы вынесли сторадж в отдельную физическую сеть. Сложность была в том, что платформа уже работала, там жили пользователи. Нам пришлось перестраивать фундамент на живую.

Это дало колоссальный опыт и готовые ранбуки для разных подобных инцидентов.

Мы внедрили жёсткую изоляцию по тенантам. Теперь система работает как современный корабль с переборками: если у одного клиента случается пробоина, это инкапсулируется внутри его проекта и не топит соседей. Глобальных падений, затрагивающих всех, больше нет.

Проблемы с доступом: это не мы, это ТСПУ
Интересный момент, который мы выловили на тестах: иногда пользователи жаловались на недоступность виртуалок по SSH. Мы начали копать и выяснили, что проблема не на нашей стороне. У некоторых провайдеров (включая мобильных операторов) блокируются зашифрованные соединения. Это похоже на борьбу с мессенджерами, но под раздачу попадает администрирование серверов по SSH.

Мы проверили: с того же провайдера через VPN — работает. На нестандартном порту — работает. Проблема наблюдается не только у нас, но и у DigitalOcean, и у Selectel. Наша поддержка теперь умеет это быстро диагностировать.

SLA
В бете никаких гарантий не было. Теперь для коммерческих заказчиков действуют полноценные SLA с финансовой ответственностью. Компенсация идёт скидкой от месячного периода.

Гарантируем доступность виртуальной машины — 99,95%. Виртуальная машина с GPU — 99,5%

При доступности:
  • От 99,95 до 99,00% — скидка 10%
  • От 99,00 до 95,00% — 15%
  • Ниже 95,00% — 30%

Для пользователей бесплатной акции SLA тоже формально есть, но так как цена ресурса ноль, то и компенсация нулевая.

Мы можем гарантировать SLA выше и нести ответственность не по модели AS IS, это есть в отдельных корпоративных зонах. Если вам важно пережить чёрную пятницу, сделать вычисление в НИИ или обеспечить 5 девяток доступности, мы можем нести ответственность за доступность кластера с существенно большей финансовой ответственностью — но и тарифы будут вообще другими. Это обсуждается индивидуально для корпоративных заказчиков.

Недоступность фиксируется при потере сетевой связности или загрузочного диска по вине провайдера более 5 минут. Требование к состоянию виртуальных машин — статус Running. SLA не покрывает последствия пользовательских настроек, DoS/DDoS-атак и изменений гостевых ОС.

Ну и раньше люди запускали виртуалки, чтобы просто «потыкать». Теперь мы видим в аккаунтах машины с именами prod и stage. Пользователи начинают размещать серьёзные нагрузки, берут мощные виртуалки и доверяют нам свои рабочие среды. Это значит, что рынок готов воспринимать нас всерьёз.

А что под капотом?



Доступ открыт!

Мы запускаемся и хотим, чтобы вы оценили наше облако в деле. Поэтому отдаём годовой пакет ресурсов рыночной стоимостью 120 000 ₽ за символический депозит.

Напомню, что в пакете:
  • 2 мощные виртуальные машины (2vCPU/4ГБ RAM DDR5).
  • Балансировщик нагрузки.
  • Управляемая база данных (PostgreSQL/MariaDB).
  • 40 ГБ SSD сетевой диск.
  • 100 ГБ Object Storage.
  • Выделенный IPv4.
Условия простые: вы вносите на баланс депозит 5 000 ₽, а мы даём вам доступ ко всему этому на целый год. Депозит потом можно потратить на другие услуги или забрать обратно по заявлению (но нужен будет паспорт). Депозит нужен, чтобы боты-анонимусы у нас не майнили и не мешали всем в облаке. Капчу «покажите 5 тысяч рублей» они не проходят.

Забрать пакет с пакетами h3llo.cloud/ru/login

Предложение ограничено. Мы хотим набрать первых пользователей, получить обратную связь и закрыть акцию. После 31 декабря воспользоваться этим предложением уже не получится.

Многие спрашивают, почему нас стоит выбрать на российском рынке. Всё просто — мы не охреневшие в край.

Но есть и более конкретные причины.

Своя платформа, а не OpenStack. Мы не взяли готовое решение с кучей легаси-кода, от которого болеют все (кроме Яндекса) на отечественном рынке. Наша платформа написана с нуля. И нет, это не сырое решение, у нас ядро разработки — люди, которые ломали облака ещё когда только рождался AWS. Это, кстати, даёт сертификацию и аттестацию ФЗ-152, ФСТЭК, PCI-DSS. У нас даже есть отдельный контур на патриотическом железе. Правда, он пока не работает, но очень скоро КАЖДЫЙ БЕТА-ТЕСТЕР ПОЛУЧИТ КОШКА-ЖЕНА!

5 автономных зон доступности (AZ) с полностью разделёнными сетями и аплинками, связанные тёмной оптикой — в трёх разных ЦОДах. При отказе любой из AZ сервис продолжает работать, потому что машины переезжают в оставшиеся онлайн зоны доступности.

Распределённая сеть хранения и оверлейная сеть для данных, 400G. Запись на диск дублирует такую же транзакцию на другой хост. Раньше сеть была узким местом, но сейчас диски пишут медленнее, чем работает сеть.

Внешние маршрутизаторы, вынесенные в MMR и две PoP-площадки — в том числе одна прямо на MSK-IX. Все маршруты оптики и аплинков — независимые. Устойчивость сразу к двум бешеным экскаваторам.

Мы уже горели, нас ломали, и вообще мы повидали некоторое дерьмо в обслуживании ЦОДов до того, как запускать облако. Поэтому мы циничны в отношении вопросов устойчивости. Мы знаем, что если что-то может сломаться, то оно обязательно сломается. Поэтому дублируем всё что можно. Поэтому мы регулярно шатали нашу бету. Поэтому у нас хаос-инжиниринг.

Мы строим облако, в котором не страшно размещать серьёзные проекты.

Короче, приходите, вот тут ссылка на бесплатный пробный пакет:

Это отвратительно, показывайте скорее!

С уважением,
Константин
CTO \m/
h3llo cloud

Что мы приготовили в H3LLO.CLOUD



Привет, h3cloud!

Возможно, вы помните, что в июне у нас была задержка из-за удачно сошедшегося ряда особенностей — переезда из ЦОДа Ростелекома, старого стека (при том, что на корпоративном проде частных облаков уже был новый) и потом задержек с развёртыванием сразу правильно.

Завтра будет большой апдейт, и там новые полностью бесплатные пакеты для индивидуальных пользователей.

По функционалу мы даем нашим пользователям, помимо виртуальных машин, виртуальные сети с преднастроенной конфигурацией, работающей из коробки и с большой гибкостью, чтобы настроить любые параметры, включая статическую маршрутизацию. Это, правда, открывает миллион способов выстрелить себе в ногу, если ты не знаешь, что делаешь, но ты получаешь полную свободу.

Да, мы обновили цены, то есть демократичные цены на все предоставляемые нами ресурсы. Дальше мы… Конечно же, предоставляем широкий набор образов, включая образы на Windows. Правда, с опцией «Приноси свой ключ».

Мы не забыли про базы данных, балансировщики, объектное хранилище, возможность делать бэкапы и снапшоты дисков. И, наконец-то, у нас доехал новый обновленный UI подо все это.

Мы решили не мелочиться и для первых пользователей собрали пакет, на котором можно запустить серьёзный проект, а не только блог. Это не триальный «огрызок», а полноценный сетап.

Что внутри:
  • 2 мощные виртуальные машины (на свежих Xeon 5 с памятью DDR5).
  • Балансировщик нагрузки, чтобы распределять трафик.
  • Управляемая база данных (PostgreSQL или MariaDB на выбор).
  • 40 Гб быстрого сетевого хранилища (SSD).
  • 100 Гб объектного хранилища для файлов и бекапов.
  • 1 белый IPv4-адрес.

Этого хватит, чтобы поднять сайт, который выдержит 10 тысяч запросов в секунду. Или развернуть корпоративную почту для всей компании. Ну или завести сервис наблюдения за котом. Можно даже за соседским, чтобы он у вас на участке не гадил.

Сейчас заканчиваем стресс-тесты для инфраструктуры.

Завтра откроем доступ уже в новой консоли.

Посмотреть что у нас есть уже сейчас можно тут

С уважением,
Константин \m/
H3LLO.CLOUD