Рейтинг
0.00

H3LLO CLOUD

1 читатель, 30 топиков

Что мы приготовили в H3LLO.CLOUD



Привет, h3cloud!

Возможно, вы помните, что в июне у нас была задержка из-за удачно сошедшегося ряда особенностей — переезда из ЦОДа Ростелекома, старого стека (при том, что на корпоративном проде частных облаков уже был новый) и потом задержек с развёртыванием сразу правильно.

Завтра будет большой апдейт, и там новые полностью бесплатные пакеты для индивидуальных пользователей.

По функционалу мы даем нашим пользователям, помимо виртуальных машин, виртуальные сети с преднастроенной конфигурацией, работающей из коробки и с большой гибкостью, чтобы настроить любые параметры, включая статическую маршрутизацию. Это, правда, открывает миллион способов выстрелить себе в ногу, если ты не знаешь, что делаешь, но ты получаешь полную свободу.

Да, мы обновили цены, то есть демократичные цены на все предоставляемые нами ресурсы. Дальше мы… Конечно же, предоставляем широкий набор образов, включая образы на Windows. Правда, с опцией «Приноси свой ключ».

Мы не забыли про базы данных, балансировщики, объектное хранилище, возможность делать бэкапы и снапшоты дисков. И, наконец-то, у нас доехал новый обновленный UI подо все это.

Мы решили не мелочиться и для первых пользователей собрали пакет, на котором можно запустить серьёзный проект, а не только блог. Это не триальный «огрызок», а полноценный сетап.

Что внутри:
  • 2 мощные виртуальные машины (на свежих Xeon 5 с памятью DDR5).
  • Балансировщик нагрузки, чтобы распределять трафик.
  • Управляемая база данных (PostgreSQL или MariaDB на выбор).
  • 40 Гб быстрого сетевого хранилища (SSD).
  • 100 Гб объектного хранилища для файлов и бекапов.
  • 1 белый IPv4-адрес.

Этого хватит, чтобы поднять сайт, который выдержит 10 тысяч запросов в секунду. Или развернуть корпоративную почту для всей компании. Ну или завести сервис наблюдения за котом. Можно даже за соседским, чтобы он у вас на участке не гадил.

Сейчас заканчиваем стресс-тесты для инфраструктуры.

Завтра откроем доступ уже в новой консоли.

Посмотреть что у нас есть уже сейчас можно тут

С уважением,
Константин \m/
H3LLO.CLOUD

Знакомьтесь, это ванна






В ванне у нас 24 ячейки по 5 киловатт. То есть одна «лежачая стойка» — отвод 120 киловатт тепла. Это примерно в 20 раз больше, чем стойка в обычном ЦОДе.
Ячейка — 25х30 см. Туда по ширине влезает стандартная двухпроцессорная материнская плата.
Сама установка имеет габариты чуть больше двух метров в длину, порядка метра в ширину, и в высоту она у нас где-то сантиметров 80.
Внутри у нас не самое новое железо, которое мы чаще всего и погружаем, — то, что уже доживает свой век или изначально рассматривается как расходный материал.
Жидкость, которую мы используем, — диэлектрическая, то есть ток не проводит. Но она имеет масляную основу.
И ванна, как оказалось, вполне себе может гореть!
Мы это поняли на практике.
На фотографии просто ванна, которую повело от перегрева. А ещё одна сгорела, и сфотографировать мы это не успели. Это было задолго до публичного облака, ещё когда мы хостили криптанов с асиками. Пожарные, когда поняли, что горит целая ванна масла, сказали, что тушить её бесполезно и пока всё масло не выгорит, они будут просто смотреть, чтобы огонь не перекинулся на соседние.
Так мы провели вечер у костра.

Старые серверы мы разгоняем и топим. Это даёт +2 года использования в инференсе, а поскольку это гиперскейл в контейнерах — то, когда сервер умрёт, никто не заметит, это часть жизни.
Но сначала утопленника надо разогнать и подготовить.
  • 1. Меняем провода на те, у которых изоляция не растворяется при +50 по Цельсию. Провода обычно выше процессора при вертикальном погружении, и туда доходит прямой поток тепла. А для изоляции обычных проводов такая температура очень неприятная.
  • 2. Снимаем кулеры и всё движущееся, чтобы не мешали потоку жидкости. Движение жидкости обеспечивается насосом ванны и естественной конвекцией.
  • 3. Если кулер снять, сойдёт с ума контроллер железяки (если он есть) и будет пытаться троттлить железку, потому что не получается выставить повышенные обороты кулеру. Заливаем новую прошивку или ломаем датчик, чтобы железка думала, что кулер всегда на максимуме.
  • 4. Иногда надо отколупать или перевернуть радиаторы, они очень мешают потоку жидкости.
  • 5. Такая же фигня с оперативкой рядами. Мы, например, искали платы, у которых процессор с оперативной памятью тоже ставится вертикально. У многих они ставятся горизонтально, что, соответственно, будет препятствовать нормальному охлаждению каждого второго, третьего и последующего модуля памяти в ряду. Жидкость должна проходить их насквозь, а не как пороги.
  • 6. Обычная термопаста со временем растворяется и вымывается из-под радиатора. Есть специальная, устойчивая к вымыванию. Нам её поставляет производитель иммерсионных установок. Новая намазывается навсегда. У нас рекорд 4 года, поэтому навсегда равняется именно этому сроку. Дольше сервак в ванне не жил.
  • 7. Жёсткие диски иногда очень сложно достать, если сервер уходит мордой вниз. Иногда нужны специальные салазки или что-то ещё, чтобы можно было вытащить диск для замены, не вынимая сервер из ванны.

h3llo.cloud/ru/

Ваше мнение стоит целого ЦОДа




Добрый день, H3llo!

Мы тут готовимся к публичному запуску последнего коммерческого облака в России и не хотим стрелять себе в ногу.

А самый проверенный способ выстрелить себе в ногу — стать корпоратами, деплоить в пятницу вечером, отключить файрвол на минуточку для теста и не слушать сообщество.

Поэтому я пришёл к вам с вопросами.

Их всего три: что у вас случалось раньше плохого с облаками или хостингами, что бы вы хотели исправить и что вы бы лично хотели от нашего облака.

Ответить можно тут. Займёт от 30 секунд до 1 года, но медиана где-то в районе 3 минут.
survey.h3llo.cloud


Заранее большое спасибо!

Не обещаю, что всё это имплементируем, но обещаю, что очень внимательно к этому отнесёмся и потом поделимся с вами и сообществом результатами всего опроса.

Мне серьёзно очень важно услышать про ваш опыт, потому что мы делаем облако без херни. По крайней мере, стараемся.

С уважением,
Константин \m/
H3LLO.CLOUD

h3llo.cloud/ru/

У нас в названии есть слово «гиперскейлер»




У нас в названии есть слово «гиперскейлер». На подкасте меня спросили, а что это.
Я прям растерялся.
Это хостинг масштабом больше любого потенциального клиента в разы. В смысле, когда у клиента случится пиковая нагрузка, он сможет получить все нужные ресурсы.
Это значит несколько неочевидных вещей:
  • Нет единого крупного клиента (привет, Сбер).
  • График потребления ресурсов у клиентов разный (а не облако для розницы, падающее в чёрную пятницу).
  • Есть свободные ресурсы или ресурсы, с которых можно сдвинуть какие-то проекты вроде месячного расчёта для поиска обитаемых планет в фоновом режиме.
  • Есть платформа, которая позволяет так масштабироваться.
  • Есть куча автоматизаций, которые решают проблемы свёртывания-развёртывания.
Напомню, мы выкинули всё, что раньше делали другие (потому что у других получился Опенстек), переосмыслили всё это полностью и написали свою платформу. У нас никакого легаси, сложных совместимостей, зато есть самое топовое железо. И как следствие мы строим лучший пользовательский опыт. Мы не идём в сторону сотен сервисов, как у Амазона. Мы идём в сторону того, чтобы это было просто, понятно, удобно и экономически эффективно.
Местами получается. Мы только начали.

h3llo.cloud/ru/

Чисто русский переезд в другой дата-центр




У нас на неделе был эпический переезд из Ростелекома в IXcellerate. Кажется, мы обязаны про это рассказать.

Потому что случился просто весь сок того, как работает отечественный рынок:
  • Те, кто ждал подъёма своего облака всё это время — вы ждали СДЭКа, который вёз два патч-корда «день в день».
  • У нас глючили сетевые железки, и мы не знали, в чём дело. Две недели поиска бага закончились тем, что мы перевезли их в другой дата-центр, и там глюк прошёл полностью.
  • Нельзя зайти в ЦОД Ростелекома 21 человеку, потому что 1 человек оформляется охраной 5 минут с записями в бумажный журнал, а через час они просят пересоздать заявку.
  • Если у вас в команде есть белорусы и казах, то их будут проверять 3 дня, прежде чем пустить на стратегический объект, потому что таков SLA безопасников по обмену данными. Но если у вас есть сириец, его пустят сразу (вероятно, потому что обмен данными не налажен).
  • И да, после переезда мы наконец-то обновили бесплатные лимиты, теперь даже не надо пополнять счёт, чтобы их получить.


Бета облака
Мы строим последнее коммерческое облако в России. Есть масштабная бета, в бете много халявных ресурсов, но надо помнить, что, несмотря на 5 автономных зон, геораспределённое хранилище, другие плюшки, в любой момент всё может пойти по звезде. Потому что мы решили поправить какой-то баг на проде (на самом деле нет).

Нашу бету уже ломали коллеги (спасибо большое), ломали тестеры (спасибо большое), нам показывали на проблемы с UI, была куча пожеланий — в общем, постоянно идут работы.

В целом всё началось с желания запуститься как можно быстрее. Поэтому мы развернули нашу бету на самом оптимальном стеке. Демоинсталляция с халявными ресурсами живёт всё ещё не на той же архитектуре, что прод. В ней ещё торчали куски Козистека — уже кубероцентричного, красивого и новомодного, блестящего такого, но с прослойкой для своего, пока ещё сырого API и без физического разделения сетей. Ну и заодно оказалось, что это решение тоже не очень нормально работает. Мы постепенно избавлялись от него итерация за итерацией, но его наследие продолжало нас преследовать.

Параллельно у нас существовало две другие реальности. Первая — это наша основная ветка разработки, где мы строили правильную архитектуру для будущего продакшена. Вторая, и самая продвинутая, — ветка для одного крупного телеком-оператора, которому мы делаем white-label облако. Поскольку там мы разворачивали всё с нуля на их кластере, то многие архитектурные проблемы уже были решены, и эта ветка по своей проработанности ушла далеко вперёд.

Массово посыпались проблемы на бете
То на ровном месте начинали флапать внутренние BGP-сессии с хостов до ToR-коммутаторов. То внезапно отваливалась наша гиперконвергентная дисковая подсистема — поды начинали мигрировать, отваливаться, а хосты «затенялись» (становились tainted) и переставали принимать новые нагрузки. Всё упиралось в один маршрутизатор ядра. Производительность у него была неплохой, оверхед маленький, но стабильность исчезла.

Мы привезли новые железки, и они стали показывать примерно 40–50% от номинальной производительности по пропускаемому трафику. Представьте: у вас 25-гигабитный линк, а он выкачивает от силы треть.

Почему? Расследование в моменте, когда всё вокруг горит, не дало результатов, но копались мы пару недель. В итоге подъехали 100-гигабитные карточки и мы решили не тратить время и просто пересобрать всё на них.

Дальше можно было долго и упорно ловить баги, чинить разваливающуюся сеть и пытаться понять, почему железо не работает. А можно было признать очевидное — архитектура, созданная для демо, исчерпала себя.

И мы решили убить двух зайцев: перевезти бету на новую, правильную архитектуру, которая уже была готова в той самой продвинутой ветке для не-скажу-какого-оператора, и заодно сменить гео.

Как потом оказалось, на новом месте железки заработали, и от шутки про то, что «я же тебе говорил, место проклятое!», мы удержаться не смогли.

Как переезжать? Был вариант с плавным переносом серверов, частичными переездами, попыткой обеспечить совместимость двух несовместимых кластеров. Это долго, мучительно и чревато новыми, ещё более изощрёнными проблемами.

Если вы любите приключения, рекомендую такой путь.

Но поскольку это бета, а в бете, как известно betta than nothing, мы выбрали путь Безумного Макса и Дороги ярости. Полностью всё вырубить, физически перевезти и собрать с нуля в новом стеке и новом ЦОДе. Да, это означало простой около 2 дней для пользователей беты (как нам казалось вначале). Но так было быстрее и, как оказалось, веселее.

Мы объявили, что берём тайм-аут, и дальше затеяли масштабный тимбилдинг: почти весь офис, включая фаундеров, отправился в Ростелеком паковать серверы.


Место проклятое!
Шаг 1: подаём заявку на проход 21 человека за сутки. Мы такие заявки (правда, на меньшее количество людей) подавали полтора года по одной и той же форме. Перезванивают их сотрудники и говорят:
— Надо заявку переделать!
— А почему?
— Вам надо по-другому название ЦОДа написать, не Nord, а «РТК-Медведково-1», потому что Nord — это слишком прозападно.

Ладно, поменяли. Последний раз же.

Потом за пару часов до времени заезда коллеги внезапно выясняют, что у нас в штате работают белорусы и пара человек из Казахстана. Им вход блокируют.

— Я сотрудник физической безопасности, мне надо на то, чтобы проверить человека из Беларуси, три дня. У вас их тут двое. Ещё из Казахстана двое. Короче, идите на хер, пересоздайте заявку без них.

Интересно, что у нас есть сириец, который такие проверки не триггерил ни в одной заявке.

Ладно, пересоздались без них. Последний раз же.

Наученные прошлым опытом, печатаем серийники для заявки на выезд.

Дальше мы сломали их физический IAM. То есть попыткой зайти разом вся их пропускная система подвисла так нехило, больше чем на час. Потому что каждого они пропускают минут по 5. Записи в бумажный журнальчик делают, паспортные данные какие-то переписывают, забивают, хотя они все в заявке есть. Потом ещё выдают тебе на планшете ту самую инструкцию, которую никто не читает, но вместо галочки — роспись пальцем. Потом это всё в определённый момент просто зависает, ломается. А у них же ещё двое ворот на входе в ЦОД. И, понятно, чтобы не создавать очередь, часть людей уходит на другие ворота, и их логика ломается окончательно.

В итоге оказалось, что пропустить всех надо за 1 час, потому что потом слот активации пропуска заканчивается. Пять человек не попали вообще.

— Заявка закрылась, мы не можем запускать новых людей. Пересоздайте, пожалуйста, заявку на вход!

Ладно, пересоздали. Последний раз же.

Около 14 звонит газель, которая должна была всё это вывозить. Она, как это принято, внезапно ломается. Мы срочно ищем другую. Пересоздаём заявку. Последний раз же.

Дальше выезд из Ростелекома. Это ещё хуже, чем вход новых, ни разу не посещавших людей. На каждый сервак сверяется серийник. И благо, они ушли от той идеи, что мы в заявке должны указывать ещё внутренний учётный номер. Раньше было так: при ввозе они клеили наклейку с номером и в заявку надо было вбивать и его, и серийник железки. Мы с первого же раза сказали, что этой хернёй заниматься не будем, и ни разу её не вбивали. Поэтому все наши заявки проходили прекрасно по серийникам серверов.





Патч-корды — оказывается, это проблема
Заезд в IXcellerate как небо и земля. Мы приехали чуть раньше, чем грузовик, успели выпить кофе и посидеть. Заявка делается просто по списку людей, документы проверяют на входе, без всяких журнальчиков (всё электронное). Проход занял по 20 секунд на человека.

Примерно за 3 часа всё смонтировали — быстрее, чем разбирали в РТК, потому что белорусов пустили.


Но! Для того чтобы в IXcellerate связать наш meet-me-room с новой инсталляцией (она у нас идёт как отдельный контур), понадобилась парочка отдельных патч-кордов. Трассы проложены, кроссы разварены, трансиверы есть. И вот нам, значит, нужен обычный патч-корд, FC — LC-дуплекс.

Заказываем его 30-го, в среду.

На «Всех инструментах» патч-корды были, на них было написано «доставка 1 день», но при добавлении в корзину дата доставки превращалась в 5 августа.

Нашли на Nag.ru. Они такие — «сейчас привезём!» Оплачиваем супернаценку за доставку СДЭКом. Это, кстати, в два раза дороже, чем сами патч-корды, чтобы доставить день в день.

И СДЭК их морозит на хрен.


Прикол в том, что у нас собрано уже всё. Контур заведён, уже всё крутится. Связать его с ядром сети — два, два маленьких патч-корда, и их не хватает!

То есть все, кто ждали нашего облака, имейте в виду, вы ждали два патч-корда, которые мы заказали в трёх разных местах. Мы с коллегами из ЮЛ-Ком уже шутили на предмет купить аппарат для сварки этих патч-кордов и варить их самим. Оказалось, это стандарт рынка. Это боль. Оказалось, что у многих это блокер включения нового клиента. Потому что две недели ждать патч-корды! Что происходит, почему в Москве их дефицит, я не знаю.

СДЭК привёз заказ день в день через 6 дней.


Изменения в архитектуре демоинсталляции
Была архитектура, растянутая на VLAN’ах. Пять физически изолированных сетей (для управления, хранения, публичного трафика и т.д.), которые всё равно терминировались как разные VLAN на одном маршрутизаторе. Мы жили даже в продакшене с MTU 1500 (!), что создавало проблемы для оверлейных сетей и производительности. И не спрашивайте, почему мы не пробовали его увеличить — мы пробовали, но пришлось откатиться. Это мешало построить полноценную оверлейную сеть Kube-OVN и изолировать теннаты друг от друга.

Сейчас полностью перешли на микросервисную архитектуру, выпилив все рудименты. Сеть теперь построена на EVPN VXLAN с физической топологией Dragonfly+. На уровне отдельной группы стоек — Clos (Node, Leaf, Spine), между Спайнами — full-mesh. Там тоже не без сюрпризов, про то, какие грабли поймали, напишем отдельно.

Выкатили API напрямую. Здесь мы вдохновлялись подходом AWS, которые через свой IAM прокачивают до миллиарда запросов. Наш API станет точкой входа для веб-интерфейса, CLI и внешних инструментов типа Terraform’а. То, что вы просили с беты, тоже запустим. Теперь эти доработки делаются ещё быстрее. Будут VPC для объединения машин в разных зонах доступности, Managed Kubernetes, управление DNS-зонами, очереди сообщений (Kafka, RabbitMQ, NATS).



Про бесплатный доступ
Для юрлиц сделали ролевую модель доступа (RBAC) для создания и управления пользователями с разными правами. Корпораты, добро пожаловать! При регистрации юрлица сразу даём 50 тысяч бонусов на 3 месяца.

Для пользователей-физлиц обновили наши бесплатные лимиты. Теперь, чтобы их получить, не нужно пополнять счёт. Мы просто будем холдить небольшую сумму на привязанной карте на несколько дней для верификации пользователя, потом отпускать. Сделали грейды бесплатных ресурсов: если нужен будет быстрый кластер с балансировщиком и расширенной СУБД, уже после пополнения счёта он подключится в бесплатные ресурсы.

Сейчас мы завершаем финальное тестирование и готовимся выкатить все обновления в публичный доступ. Спасибо всем тестировщикам, кто был с нами, ждал и подбадривал нас бодрой руганью.

h3llo.cloud/ru

Переезжаем в новый ЦОД, где всё будет распределено и отказоустойчиво




BGP — автоматический протокол маршрутизации.

То есть чтобы BGP начал работать, нужно отправить письмо. В 2025 году. Две тысячи. Двадцать. Пять на дворе, леди и джентльмены.

Всё, что мы анонсируем, должно распространяться по интернету, желательно моментально. Понимаете, какая тут зависимость от оператора.

Пару недель назад переключаемся с основного провайдера на резервного. Всё анонсировано корректно, но интернет не работает. Пишем в поддержку — в ответ:

А вы не уведомили нас письменно, что начали анонсировать новые подсети. Поэтому мы их игнорируем.

Сервисы для большинства пользователей работали штатно. Но историю мы запомнили.

Теперь у нас автоматическая балансировка маршрутов по восьми линкам. Переезжаем в новый ЦОД, где всё будет распределено и отказоустойчиво. Надеемся, что письма писать не придётся.

Как мы получали лицензию на работу с гостайной




Мы пошли в сертификацию ФСТЭК, аттестацию 152-ФЗ и на получение лицензии для работы с гостайной. Потому что мы вместо Опенстека сделали свою платформу и на ней смогли всё настроить под требования госорганов.

Поэтому вот пост, как получить сертификацию на гостайну по ФЗ-152 — уровень УЗ1.

Очень подробный и со всеми деталями.

Всё ████████ ████ с ████████. В соответствии с новым ████████. Для ████████ требовалась ████████. Поэтому ████████, и в рамках очень жесткого SLA.
████████.

████████ ████.

████████ ████████ █████ █ █████.

Началось с ████████. ███ █████████ █ ███████ ████ комиссия. Их ████████. Потребовали выделить ████████ под ████████ периметр ██████. Только ████, ███████, ███████ bare-metal. Весь наш IaaS-слой пришлось ████████████.
В ███████████ с █████████ от ██.██.████, на █████████ ████████████, ██████████ █████████ о █████████████ ███████████ ████████. В ███████ ███████████████ и ████████████ по ██████████ в ███████████████████, ██████████ ███████████ ████████████, █████████████ на ███████████████.

Основные ████████████:

████████████ в ███████ █████████████████ ████████ «█████████████-████»;

██████████ для █████████████ с █████████ всех █████████████ ███████, через ███████████████ ████████████;

████████████████ по ███████████ с ███████ ██████████ и █████████████, ████████████ после ███████████.

В ██████ с ████████████████, █████████████ по █████████ ████████████ на █████████████ ██████. Все █████████████ ██████████ ██████ █████████████ и ██████████ в ██████ до ███████████ ███████. При ███████████ █████████████, ████████ ████████████ к ████████ № ███-ФЗ.

Контроль за █████████████ ██████████ █████████ ██████████ на ████████████████████████ (████████ ████ ██).

Понял, максимальная секретность. Вот версия с ещё большим количеством зачёркнутого текста, где видимыми остаются только ключевые фразы и минимум служебных частей речи.

Ввиду ███████████████████████████ **угрозы считывания дрожания стекла **лазерным лучом, █████ ██████ ███████████ ███████████ █████████ ███████ ███████████████ к █████████████ ██████ ███████.
Критерии ████████████:

███████ █████████ ████ ███████████ ███ █ ██████████ ██████████ █████.

Соответствие ██████ █ ██████ ████ ██ ████ ██████ ███ ████ ГОСТ ██████-██.

██████ ███████ ████████ ███████████. ████ █████ █████ ███████████ и ████ ██████████████.

Сроки из-за этого поплыли, конечно.

Теперь самое сложное:

█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████

Далее — сеть
Весь трафик ████████. Сегментация на уровне ████████. Отдельный VLAN. И ████████ роутинг через ████████. Логирование ████████.

Затем ████████. Наша PaaS-платформа на ████████ была ████████. Каждый деплой через ████████. Все образы ████████ по ГОСТ. Шифрование на уровне ████████ и на уровне ████████.

В соответствии с ██████████████ от ██.██.████, а также на основании ██████████████, было ██████████ решение о █████████████ следующих ██████████. В целях ██████████████ и ████████████ по ██████████ в ███████████████████, необходимо ██████████ ряд ████████████, направленных на ███████████████.

Основными ████████████ являются:

████████████ и ███████████ в рамках █████████████████ проекта «█████████████-████»;

██████████ для ███████████████ с ███████ всех ██████████████ сторон, в том числе через █████████████████ ████████████;

████████████████ по ███████████ с учётом ██████████ и ██████████████, полученных после █████████████ ██████████.

По возможности делайте именно в таком порядке, а не обратном, не наступайте на наши грабли.

В связи с вышеизложенным, ████████████ по ███████████ ответственность ████████████ на █████████████ отдел. Все █████████████ документы должны быть █████████████ и ██████████ в архив до █████████████ ███████. При ███████████ █████████████ █████████████, следует ████████████ к ███████ ████-ФЗ.

Контроль за █████████████ настоящего ██████████ пришлось передать ████████████████████████ (██████████ ██. ██.). И это, конечно, дикий сюрприз.

Затем — финальная аттестация. ████████. Мы ████████. Потом ████████. И так по ████████.

После ████████. Мы ████████. Думали, что всё ████████.

А потом ██████ ██ ████████.

Как видите, всё просто, и вы сможете это легко повторить.

Сейчас мы можем предоставлять услуги государственным заказчикам и делать приватные инсталляции в их инфраструктуре.

Казалось бы, 2025 год на дворе, какие могут быть сложности с интернетом?




Казалось бы, 2025 год на дворе, какие могут быть сложности с интернетом?

А вот и могут! Нам в Александрове понадобился 10-гигабитный канал. Прикол в том, что запроса на такие скорости на рынке пока практически нет — мы, можно сказать, пионеры.

Рынок Александрова не очень требователен к скорости соединения, да. Некоторых до сих пор устраивает железнодорожный рельс. Он широкий и стабильный.

Из всех провайдеров, кого мы трясли, нашлось только два: Ростелеком и VIP-Телеком-Сервис.

Местный Трайтек вообще предлагал 100 000 ₽ за гигабит — то есть миллион в месяц за десятку. Не, спасибо.

С Ростелекомом мы начали мучения ещё в декабре. Долгие согласования, заминки на ровном месте. Например, один из затыков — отсутствие 10G-трансиверов. Серьёзно?! Это расходник, который стоит 1–2 тысячи рублей, у нас на столе таких коробок куча. Но у Ростелекома не было. Наши со стола они брать тоже не хотели.

Предложили подождать месяц-другой. В итоге договор подписали только в июне. А приведение всего в рабочее состояние займёт ещё 5 месяцев. Ну вы поняли. Ростелеком.

Параллельно работали с VIP-Телеком-Сервис. Они пришли по рекомендации и с ходу зарядили: «Мы вам построим точку на M9 и в Александрове за 20–25 дней». И знаете что? Построили!

Канал уже запущен и работает. Пока мы используем его для внутренних сервисов и тестирования, но это наш первый глоток 10G.

Почему же мы всё равно ждали Ростелеком, если VIP такие шустрые? Потому что облачный бизнес — это не про один канал. Нужны минимум два независимых! Сейчас один интернет есть (VIP), второй будет от Ростелекома. Плюс строим отдельное тёмное волокно.

В итоге будет:
— 10G от VIP.
— 10G от Ростелекома.
— Тёмное волокно наше, домашней выпечки.

Если с одним из провайдеров что-то происходит — всё не полетит к чертям.

Кстати, на «девятке» самые долгие истории — это не кабели и не документы. Это сетевые перемычки. Именно они тормозят всё сильнее всего.

h3llo.cloud/ru