Чисто русский переезд в другой дата-центр


У нас на неделе был эпический переезд из Ростелекома в IXcellerate. Кажется, мы обязаны про это рассказать.
Потому что случился просто весь сок того, как работает отечественный рынок:
- Те, кто ждал подъёма своего облака всё это время — вы ждали СДЭКа, который вёз два патч-корда «день в день».
- У нас глючили сетевые железки, и мы не знали, в чём дело. Две недели поиска бага закончились тем, что мы перевезли их в другой дата-центр, и там глюк прошёл полностью.
- Нельзя зайти в ЦОД Ростелекома 21 человеку, потому что 1 человек оформляется охраной 5 минут с записями в бумажный журнал, а через час они просят пересоздать заявку.
- Если у вас в команде есть белорусы и казах, то их будут проверять 3 дня, прежде чем пустить на стратегический объект, потому что таков SLA безопасников по обмену данными. Но если у вас есть сириец, его пустят сразу (вероятно, потому что обмен данными не налажен).
- И да, после переезда мы наконец-то обновили бесплатные лимиты, теперь даже не надо пополнять счёт, чтобы их получить.

Бета облака
Мы строим последнее коммерческое облако в России. Есть масштабная бета, в бете много халявных ресурсов, но надо помнить, что, несмотря на 5 автономных зон, геораспределённое хранилище, другие плюшки, в любой момент всё может пойти по звезде. Потому что мы решили поправить какой-то баг на проде (на самом деле нет).
Нашу бету уже ломали коллеги (спасибо большое), ломали тестеры (спасибо большое), нам показывали на проблемы с UI, была куча пожеланий — в общем, постоянно идут работы.
В целом всё началось с желания запуститься как можно быстрее. Поэтому мы развернули нашу бету на самом оптимальном стеке. Демоинсталляция с халявными ресурсами живёт всё ещё не на той же архитектуре, что прод. В ней ещё торчали куски Козистека — уже кубероцентричного, красивого и новомодного, блестящего такого, но с прослойкой для своего, пока ещё сырого API и без физического разделения сетей. Ну и заодно оказалось, что это решение тоже не очень нормально работает. Мы постепенно избавлялись от него итерация за итерацией, но его наследие продолжало нас преследовать.
Параллельно у нас существовало две другие реальности. Первая — это наша основная ветка разработки, где мы строили правильную архитектуру для будущего продакшена. Вторая, и самая продвинутая, — ветка для одного крупного телеком-оператора, которому мы делаем white-label облако. Поскольку там мы разворачивали всё с нуля на их кластере, то многие архитектурные проблемы уже были решены, и эта ветка по своей проработанности ушла далеко вперёд.
Массово посыпались проблемы на бете
То на ровном месте начинали флапать внутренние BGP-сессии с хостов до ToR-коммутаторов. То внезапно отваливалась наша гиперконвергентная дисковая подсистема — поды начинали мигрировать, отваливаться, а хосты «затенялись» (становились tainted) и переставали принимать новые нагрузки. Всё упиралось в один маршрутизатор ядра. Производительность у него была неплохой, оверхед маленький, но стабильность исчезла.
Мы привезли новые железки, и они стали показывать примерно 40–50% от номинальной производительности по пропускаемому трафику. Представьте: у вас 25-гигабитный линк, а он выкачивает от силы треть.
Почему? Расследование в моменте, когда всё вокруг горит, не дало результатов, но копались мы пару недель. В итоге подъехали 100-гигабитные карточки и мы решили не тратить время и просто пересобрать всё на них.
Дальше можно было долго и упорно ловить баги, чинить разваливающуюся сеть и пытаться понять, почему железо не работает. А можно было признать очевидное — архитектура, созданная для демо, исчерпала себя.
И мы решили убить двух зайцев: перевезти бету на новую, правильную архитектуру, которая уже была готова в той самой продвинутой ветке для не-скажу-какого-оператора, и заодно сменить гео.
Как потом оказалось, на новом месте железки заработали, и от шутки про то, что «я же тебе говорил, место проклятое!», мы удержаться не смогли.
Как переезжать? Был вариант с плавным переносом серверов, частичными переездами, попыткой обеспечить совместимость двух несовместимых кластеров. Это долго, мучительно и чревато новыми, ещё более изощрёнными проблемами.
Если вы любите приключения, рекомендую такой путь.
Но поскольку это бета, а в бете, как известно betta than nothing, мы выбрали путь Безумного Макса и Дороги ярости. Полностью всё вырубить, физически перевезти и собрать с нуля в новом стеке и новом ЦОДе. Да, это означало простой около 2 дней для пользователей беты (как нам казалось вначале). Но так было быстрее и, как оказалось, веселее.
Мы объявили, что берём тайм-аут, и дальше затеяли масштабный тимбилдинг: почти весь офис, включая фаундеров, отправился в Ростелеком паковать серверы.

Место проклятое!
Шаг 1: подаём заявку на проход 21 человека за сутки. Мы такие заявки (правда, на меньшее количество людей) подавали полтора года по одной и той же форме. Перезванивают их сотрудники и говорят:
— Надо заявку переделать!
— А почему?
— Вам надо по-другому название ЦОДа написать, не Nord, а «РТК-Медведково-1», потому что Nord — это слишком прозападно.
Ладно, поменяли. Последний раз же.
Потом за пару часов до времени заезда коллеги внезапно выясняют, что у нас в штате работают белорусы и пара человек из Казахстана. Им вход блокируют.
— Я сотрудник физической безопасности, мне надо на то, чтобы проверить человека из Беларуси, три дня. У вас их тут двое. Ещё из Казахстана двое. Короче, идите на хер, пересоздайте заявку без них.
Интересно, что у нас есть сириец, который такие проверки не триггерил ни в одной заявке.
Ладно, пересоздались без них. Последний раз же.
Наученные прошлым опытом, печатаем серийники для заявки на выезд.
Дальше мы сломали их физический IAM. То есть попыткой зайти разом вся их пропускная система подвисла так нехило, больше чем на час. Потому что каждого они пропускают минут по 5. Записи в бумажный журнальчик делают, паспортные данные какие-то переписывают, забивают, хотя они все в заявке есть. Потом ещё выдают тебе на планшете ту самую инструкцию, которую никто не читает, но вместо галочки — роспись пальцем. Потом это всё в определённый момент просто зависает, ломается. А у них же ещё двое ворот на входе в ЦОД. И, понятно, чтобы не создавать очередь, часть людей уходит на другие ворота, и их логика ломается окончательно.
В итоге оказалось, что пропустить всех надо за 1 час, потому что потом слот активации пропуска заканчивается. Пять человек не попали вообще.
— Заявка закрылась, мы не можем запускать новых людей. Пересоздайте, пожалуйста, заявку на вход!
Ладно, пересоздали. Последний раз же.
Около 14 звонит газель, которая должна была всё это вывозить. Она, как это принято, внезапно ломается. Мы срочно ищем другую. Пересоздаём заявку. Последний раз же.
Дальше выезд из Ростелекома. Это ещё хуже, чем вход новых, ни разу не посещавших людей. На каждый сервак сверяется серийник. И благо, они ушли от той идеи, что мы в заявке должны указывать ещё внутренний учётный номер. Раньше было так: при ввозе они клеили наклейку с номером и в заявку надо было вбивать и его, и серийник железки. Мы с первого же раза сказали, что этой хернёй заниматься не будем, и ни разу её не вбивали. Поэтому все наши заявки проходили прекрасно по серийникам серверов.



Патч-корды — оказывается, это проблема
Заезд в IXcellerate как небо и земля. Мы приехали чуть раньше, чем грузовик, успели выпить кофе и посидеть. Заявка делается просто по списку людей, документы проверяют на входе, без всяких журнальчиков (всё электронное). Проход занял по 20 секунд на человека.
Примерно за 3 часа всё смонтировали — быстрее, чем разбирали в РТК, потому что белорусов пустили.

Но! Для того чтобы в IXcellerate связать наш meet-me-room с новой инсталляцией (она у нас идёт как отдельный контур), понадобилась парочка отдельных патч-кордов. Трассы проложены, кроссы разварены, трансиверы есть. И вот нам, значит, нужен обычный патч-корд, FC — LC-дуплекс.
Заказываем его 30-го, в среду.
На «Всех инструментах» патч-корды были, на них было написано «доставка 1 день», но при добавлении в корзину дата доставки превращалась в 5 августа.
Нашли на Nag.ru. Они такие — «сейчас привезём!» Оплачиваем супернаценку за доставку СДЭКом. Это, кстати, в два раза дороже, чем сами патч-корды, чтобы доставить день в день.
И СДЭК их морозит на хрен.

Прикол в том, что у нас собрано уже всё. Контур заведён, уже всё крутится. Связать его с ядром сети — два, два маленьких патч-корда, и их не хватает!
То есть все, кто ждали нашего облака, имейте в виду, вы ждали два патч-корда, которые мы заказали в трёх разных местах. Мы с коллегами из ЮЛ-Ком уже шутили на предмет купить аппарат для сварки этих патч-кордов и варить их самим. Оказалось, это стандарт рынка. Это боль. Оказалось, что у многих это блокер включения нового клиента. Потому что две недели ждать патч-корды! Что происходит, почему в Москве их дефицит, я не знаю.
СДЭК привёз заказ день в день через 6 дней.

Изменения в архитектуре демоинсталляции
Была архитектура, растянутая на VLAN’ах. Пять физически изолированных сетей (для управления, хранения, публичного трафика и т.д.), которые всё равно терминировались как разные VLAN на одном маршрутизаторе. Мы жили даже в продакшене с MTU 1500 (!), что создавало проблемы для оверлейных сетей и производительности. И не спрашивайте, почему мы не пробовали его увеличить — мы пробовали, но пришлось откатиться. Это мешало построить полноценную оверлейную сеть Kube-OVN и изолировать теннаты друг от друга.
Сейчас полностью перешли на микросервисную архитектуру, выпилив все рудименты. Сеть теперь построена на EVPN VXLAN с физической топологией Dragonfly+. На уровне отдельной группы стоек — Clos (Node, Leaf, Spine), между Спайнами — full-mesh. Там тоже не без сюрпризов, про то, какие грабли поймали, напишем отдельно.
Выкатили API напрямую. Здесь мы вдохновлялись подходом AWS, которые через свой IAM прокачивают до миллиарда запросов. Наш API станет точкой входа для веб-интерфейса, CLI и внешних инструментов типа Terraform’а. То, что вы просили с беты, тоже запустим. Теперь эти доработки делаются ещё быстрее. Будут VPC для объединения машин в разных зонах доступности, Managed Kubernetes, управление DNS-зонами, очереди сообщений (Kafka, RabbitMQ, NATS).


Про бесплатный доступ
Для юрлиц сделали ролевую модель доступа (RBAC) для создания и управления пользователями с разными правами. Корпораты, добро пожаловать! При регистрации юрлица сразу даём 50 тысяч бонусов на 3 месяца.
Для пользователей-физлиц обновили наши бесплатные лимиты. Теперь, чтобы их получить, не нужно пополнять счёт. Мы просто будем холдить небольшую сумму на привязанной карте на несколько дней для верификации пользователя, потом отпускать. Сделали грейды бесплатных ресурсов: если нужен будет быстрый кластер с балансировщиком и расширенной СУБД, уже после пополнения счёта он подключится в бесплатные ресурсы.
Сейчас мы завершаем финальное тестирование и готовимся выкатить все обновления в публичный доступ. Спасибо всем тестировщикам, кто был с нами, ждал и подбадривал нас бодрой руганью.
h3llo.cloud/ru
27 комментариев
Не понял. Более полугода назад вышла Разгромительная статья OpenStack, в которой СТО резюмировал «Посмотрели в процессе и в тестовой эксплуатации два месяца. Оценили, как с ним жить, и стали пилить свою платформу.»
В РФ да и в мире сколько компаний с Dragonfly+? Как они это строят?
я тоже не понимаю всей задумки данного продукта
в этом то и интерес — увидеть на сколько далеко зайдет человек и его характер/путь нового хостинга
я как раз оцениваю с точки зрения потребителя «психологией восприятия»
я не шарю за технические нюансы, но шарю за аналитику и психологию потребления
гугл выдал мне это habr.com/ru/companies/yandex/articles/859794/
я сразу вспомнил, что чувак ранее рассказывал что он считает основным конкурентом именно яндекс облако.
поживем увидим ©
пока что они очень много говорят.
последний раз так модно и красиво запускался только selectel с его «модными облачными плюшками» в 2011 2012 2013 годах а потом уже «облако стало скучнеть»
прежде чем такими заявами кидаться нужно сначала достигнуть результата
например я считаю уровень 25000 вдс и 150 узлов — средним хостингом
а чувак написал что может типо вместить в себя любые слабые хостинги
даже такой человек как я, который сроду не администрировал ничего, а создавал и продавал через «готовые ПУ» — видел нагрузки на хетзнере дедиках и знает что такое настоящая нагрузка. а вот наш чел видимо считает что облако это конечная станция которая впитает в себя любую нагрузку, но это не так, дедик конечная станция. но мне кажется он пока еще это не осознал. хоть и крутой разработчик. возможно потому что он работал с облаками бездонными уровня МТС или Селектел которые владеют собственными зданиями и где целые ряды и залы «под запас» поэтому у него и сложилось такое мнение о облаке. в реальности же даже если прилетает заказ на 3000 вдс от 1 клиента разом — стойка или пару стоек просто не справятся с таким заказов. такие заказы можно принимать только когда сам станешь как ДЦ, а он считаешь что уже сейчас готов к ним. поэтому многих задевает такое заявление. видимо тебя тоже задело.
ну основатель
так то там уже много людей он собрал
и мне не разу не попадалось это название в интернете
ultramining.com/news/kak-rabotaet-virtualnyj-data-czentr-i-skolko-eto-stoit-pogovorili-s-direktorom-gagarinhub/
либо это были те майнеры что ушли из здания, которое потом стало пустым как раз
либо гагаринхаб стал одним из инвесторов, бабки то с крипты на закупку идут
захочет сам напишет в будущем ХЗ
чего тебе не хватает в честных топиках?
мне правда интересно услышать
наоборот же — самые честные топики
это меньше чем «1 клиент оптовый»
как я уже писал любой нормальный денежный клиент в 2025 году это ~3000 вдс-ок — но конечно это «бюджетных вдс-ок»
если чел планировал 10000р за 1 вдс — то возможно при таких ценах ему и 2000 IP будет достаточно ХЗ ХЗ
но вдруг придет какой-ниб заказ с государства, как он хочет — там вообще наверно сразу 20000 IP потребуется под заказ на 10кк денег мес
с 2000 IP нельзя в принципе не одного хостера впитать, а он сказал что аж «мелкого облачного»
само понятие облако для меня начинается от 10к IP а все что меньше, это уровень не облака, а просто простых вдс
потому что чтобы по настоящему использовать все облачные плюшки и действительно вещи за которые кто-то готов платить — нужно уже иметь в запасе много ресурса, явно больше чем 10000 вдс
иначе облачной плюшке — просто негде развернуться чтобы показать свое достоинство
плюс сейчас сеть исправили и она стала выглядеть так
балансировщик анонсов
что он имел ввиду когда говорил про 6 разных путей
он имел ввиду путь от своей AS до Тиер AS — т.е. 6-ю разными маршрутами
ХЗ как оно там работает это вопрос к Aleksandr_C
но предположим я правильно его понял
и имеется ввиду что если хоть один из путей откажется анонсировать новую сеть IP — то этот анонс уйдет на остальные пути и все будет работать
и не разу не сомневаюсь что в будущем должен получиться стабильный надежный сервис
а вот супер крутое, среднее или обычное скучно — это уже «как повезет»
hosting.kitchen/h3llo-cloud/gde-podvoh-pochemu-daem-dve-virtualki-besplatno-na-god.html#comment4383
но вот я например ОТ БАЛДЫ ПРОСТО ТАК закинул 10000р
и короче у меня почта на домене на google mail
а после их аварии в августе
короче они DKIM не создали до сих пор и поэтому письма перестали на гугл доходить )) и я больше не могу войти даже в свой аккаунт с 10000р
НО
я не жалуюсь
мне похуй
мне было не жалко
я закинул на тест
как когда-то купил вечную у Аезы на тест и проебал
hosting.show/alice2k-hosting/chestnoe-alternativnoe-mnenie.html
hosting.show/alice2k-hosting/shutku-ya-kstati-tozhe-ne-ocenil.html
я тоже писал что у меня сложилось именно такое впечатление
1. маркетинг для массовой аудитории был крут, но в итоге столкнулся с реальностью и провалился, массовые люди не будут покупать ВДС за 10000р когда можно купить дедик за 10000р, а «крутых облачных фич типо как у облака-v2 или облака-v3 у них пока что еще нет».
2. что остается человеку чтобы вернуть потраченные бабки? продаться госам. тем более его топик про конференцию открыто об этом и заявил.
ну в принципе вот чуваки тоже на закупках 5 лет сидели
я над ними смеялся
а оказалось они бабок накопили на ДЦ
hostsuki.pro/news/dc4y1-marfino.html
так что возможно это не так уж и плохо
но конечно работая с госами это типо «легкий путь» и в итоге тебя всегда будут воспринимать как халявщика на госбюджете, а не как настоящего интернетчика или хостера
v2
hostsuki.pro/all/oblako-v2-v-deystvii.html
v3
hosting.show/tag/%D0%BE%D0%B1%D0%BB%D0%B0%D0%BA%D0%BE-v3/
H3 — сейчас имеет набор функционала и тарифы как обычно v1, как ранний selectel
и в 2025 таким никого не удивишь, дедик получше будет, или 100 дедиков
@for-regist-on-russian-companies-due-to-russian-blockages.ru
на этой почте нормально работает
короче облако не для зарубежных почт стало
мне пока что нечего пробовать
некуда тратить бабки
все текущие услуги мне не требуются как клиенту
например clo.ru я так за 5 лет так и не попробовал, бабки валяются там 100к до сих пор
в тот момент как я куплю там что-ниб
значит наконец-то они создали «сильный сервис сравнимый с дедиками»
чисто сервис для программистов наверно делается ХЗ ХЗ даже что сказать
посмотрим что за CDN на 3data дата-центрах будет, на него есть у меня надежды
ебааааать роли какие
в прошлый раз летом этого не было
но только для каких амбиций эти роли? тут роли на уровень дата-центра типо ОВХ или цеха какого-то тянут
а услуг то — нихуя нет пока что
пока что продукт в самой начальной альфе
и тестировать там нечего
просто сырой какой-то продукт который никто тестить бы не стал в здравом уме даже
именно поэтому мне и не нравится что он «уже рекламируется» когда «еще не готов даже»
это мое честное альтернативное мнение которое должно сделать компанию сильнее
Вставка изображения
Оставить комментарий