Рейтинг
0.00

H3LLO CLOUD

2 читателя, 37 топиков

Отвечаю на неудобные вопросы



Отвечаю на самые часты вопросы участников акции.

Это реально бесплатно? В чём подвох?
Реально. Вы вносите депозит 5 000 ₽ на свой счёт и получаете ресурсы на 120 тысяч рублей в розничных ценах на год. Подвоха нет. Нам нужны первые пользователи, реальные кейсы и честная обратная связь, чтобы сделать продукт ещё лучше. Для нас это инвестиция. А деньги останутся на балансе и их можно будет потратить на другие ресурсы.

А если у меня маленький проект? Мне столько не нужно.
Отлично! У вас будет запас мощности на вырост. Наш стартовый пакет — это не просто виртуалка, а полноценная инфраструктура с базами данных, балансировщиком и хранилищем. Ваш проект будет работать быстро и надёжно с самого начала.

А ваша поддержка не уснёт через месяц?
Не уснёт. Быстрый и компетентный саппорт — один из наших главных принципов. Мы строим сервис, которым приятно пользоваться.

Остались вопросы? Просто ответьте на это письмо, и мы всё расскажем.

Пакет можно забрать по ссылке до 31.12.2025.
limits.h3llo.cloud

С уважением,
Константин
CTO \m/
h3llo cloud

Релиз последнего коммерческого облака России — и немного халявы для первых пользователей




Мы строили-строили и наконец-то построили последнее коммерческое облако в РФ.

Почему последнее — потому что теперь конкурировать с крупными корпоратами из-за кучи ограничений, экономики, высокого порога входа по бюрократии и теперь ещё цене железа (из-за улетевшей в космос по цене оперативки) почти нереально. Возможно, года через 3–4 появится ещё кто-то, кто сможет бросить вызов Яндексу, Сберу, Селектелу и ещё паре игроков, но пока тут только мы.

И мы ненавидим корпоративный подход.

Он медленный, неэффективный, поддержка у них часто считает пользователя за пустое место. Почему я всё это знаю — потому что сам работал с Ростелекомом.

Чуть позже я расскажу про то, как прошла бета, и там оказалось, что самое главное — просто не быть козлами. Это даже важнее, чем быстрое железо.

Но, возможно, вам всё это не очень интересно, а интересна халява. Поэтому перехожу сразу к ней.

Халява
Вот ресурсы, которые получает участник акции «Год в облаке бесплатно» при создании аккаунта и пополнении баланса на 5000 ₽:
  • 2 виртуальные машины по 2 vCPU /4 Гб RAM
  • База данных 2 vCPU / 2 Гб RAM
  • 40 Гб сетевых дисков
  • Балансировщик нагрузки
  • Белый IPv4
  • 10 Гб объектного хранилища

Участвовать можно только один раз, если что-то не понравится — возвращаем деньги при предъявлении паспорта.

Действует по 31 декабря 2025, то есть ещё несколько дней.

Подробнее тут limits.h3llo.cloud

Этого хватает попробовать основные фичи. Один человек рассказывал, как развернул там учебный Кубер — одна машина контрол-плейн, вторая — кластер. Так делать уже не надо (если только из мазохизма желания научиться ставить Кубер ручками) — есть менеджед-сервис.

Ещё у нас отдельно есть помощь для стартапов — там нужны объёмы больше, чем в тестовых пакетах. Для них у нас есть история с грантами. Мы готовы новым проектам давать не только инфраструктуру, но и экспертизу — помогать правильно заезжать на наше облако и т.п. Тут приходите в личку или в почту world@h3llo.cloud

Коротко, что поменялось от беты к релизу 1.0
Начали в мае с первой публичной беты. Она несколько раз менялась, в частности, мы избавлялись от кусков cozy stack и наследия его архитектуры. Там же появилось нормальное геораспределение. После летней миграции мы очень усердно навалились на продуктовую часть: переписали кучу всего внутри платформы, отладили биллинг, связали его с логикой акций и лимитов, выстроили процессы поддержки.

Сейчас добавили:
  • Полноценно работающие VPC, качественную дисковую подсистему с репликацией (в том числе мультизональной) и гибкое управление инстансами — можно настраивать CPU и RAM под свои нужды.
  • Уже готовы и работают Managed Kubernetes и базы данных (PostgreSQL/MariaDB). Мы сейчас переводим на этот стек остальные сервисы, так что скоро после рефакторинга вернутся Redis, OpenSearch и ClickHouse.
  • Load Balancer работает из коробки, и он умнее, чем кажется. Например, он умеет разруливать трафик по портам: если у вас группа машин, где часть слушает порт 8080, а часть — 9000, балансировщик поймёт, куда и что направлять, если выставить эти порты наружу. Скоро выкатим продвинутую версию с ACL и выбором стратегии балансировки.
  • Внедряем аренду Bare Metal. Пока выдаём серверы вручную по запросу, но строим автоматизированный Bare Metal as a Service, в том числе Managed Kubernetes на голом железе. Для автоматизации уже готов Terraform-провайдер, сейчас допиливаем и полируем Public API.

Главное отличие релиза от того, что было полгода назад, — это стабильность и архитектурная зрелость. В первой бете мы честно говорили: «Ребята, всё может пойти не так, делайте бекапы». И ситуации были разные. Бекапы много кому пригодились.

Самая показательная история произошла с нашей дисковой системой Linstor. Изначально мы, ориентируясь на референсы (в духе Cozy Stack), держали Linstor в оверлейной сети. То есть дисковая подсистема зависела от сетевой виртуализации. Как следствие — если ломалась сеть, падали и диски. В Кубере, чтобы диски работали в отдельной сети, нужно приложить специальные усилия, иначе трафик по дефолту идёт через оверлей.

Мы вынесли сторадж в отдельную физическую сеть. Сложность была в том, что платформа уже работала, там жили пользователи. Нам пришлось перестраивать фундамент на живую.

Это дало колоссальный опыт и готовые ранбуки для разных подобных инцидентов.

Мы внедрили жёсткую изоляцию по тенантам. Теперь система работает как современный корабль с переборками: если у одного клиента случается пробоина, это инкапсулируется внутри его проекта и не топит соседей. Глобальных падений, затрагивающих всех, больше нет.

Проблемы с доступом: это не мы, это ТСПУ
Интересный момент, который мы выловили на тестах: иногда пользователи жаловались на недоступность виртуалок по SSH. Мы начали копать и выяснили, что проблема не на нашей стороне. У некоторых провайдеров (включая мобильных операторов) блокируются зашифрованные соединения. Это похоже на борьбу с мессенджерами, но под раздачу попадает администрирование серверов по SSH.

Мы проверили: с того же провайдера через VPN — работает. На нестандартном порту — работает. Проблема наблюдается не только у нас, но и у DigitalOcean, и у Selectel. Наша поддержка теперь умеет это быстро диагностировать.

SLA
В бете никаких гарантий не было. Теперь для коммерческих заказчиков действуют полноценные SLA с финансовой ответственностью. Компенсация идёт скидкой от месячного периода.

Гарантируем доступность виртуальной машины — 99,95%. Виртуальная машина с GPU — 99,5%

При доступности:
  • От 99,95 до 99,00% — скидка 10%
  • От 99,00 до 95,00% — 15%
  • Ниже 95,00% — 30%

Для пользователей бесплатной акции SLA тоже формально есть, но так как цена ресурса ноль, то и компенсация нулевая.

Мы можем гарантировать SLA выше и нести ответственность не по модели AS IS, это есть в отдельных корпоративных зонах. Если вам важно пережить чёрную пятницу, сделать вычисление в НИИ или обеспечить 5 девяток доступности, мы можем нести ответственность за доступность кластера с существенно большей финансовой ответственностью — но и тарифы будут вообще другими. Это обсуждается индивидуально для корпоративных заказчиков.

Недоступность фиксируется при потере сетевой связности или загрузочного диска по вине провайдера более 5 минут. Требование к состоянию виртуальных машин — статус Running. SLA не покрывает последствия пользовательских настроек, DoS/DDoS-атак и изменений гостевых ОС.

Ну и раньше люди запускали виртуалки, чтобы просто «потыкать». Теперь мы видим в аккаунтах машины с именами prod и stage. Пользователи начинают размещать серьёзные нагрузки, берут мощные виртуалки и доверяют нам свои рабочие среды. Это значит, что рынок готов воспринимать нас всерьёз.

А что под капотом?



Доступ открыт!

Мы запускаемся и хотим, чтобы вы оценили наше облако в деле. Поэтому отдаём годовой пакет ресурсов рыночной стоимостью 120 000 ₽ за символический депозит.

Напомню, что в пакете:
  • 2 мощные виртуальные машины (2vCPU/4ГБ RAM DDR5).
  • Балансировщик нагрузки.
  • Управляемая база данных (PostgreSQL/MariaDB).
  • 40 ГБ SSD сетевой диск.
  • 100 ГБ Object Storage.
  • Выделенный IPv4.
Условия простые: вы вносите на баланс депозит 5 000 ₽, а мы даём вам доступ ко всему этому на целый год. Депозит потом можно потратить на другие услуги или забрать обратно по заявлению (но нужен будет паспорт). Депозит нужен, чтобы боты-анонимусы у нас не майнили и не мешали всем в облаке. Капчу «покажите 5 тысяч рублей» они не проходят.

Забрать пакет с пакетами h3llo.cloud/ru/login

Предложение ограничено. Мы хотим набрать первых пользователей, получить обратную связь и закрыть акцию. После 31 декабря воспользоваться этим предложением уже не получится.

Многие спрашивают, почему нас стоит выбрать на российском рынке. Всё просто — мы не охреневшие в край.

Но есть и более конкретные причины.

Своя платформа, а не OpenStack. Мы не взяли готовое решение с кучей легаси-кода, от которого болеют все (кроме Яндекса) на отечественном рынке. Наша платформа написана с нуля. И нет, это не сырое решение, у нас ядро разработки — люди, которые ломали облака ещё когда только рождался AWS. Это, кстати, даёт сертификацию и аттестацию ФЗ-152, ФСТЭК, PCI-DSS. У нас даже есть отдельный контур на патриотическом железе. Правда, он пока не работает, но очень скоро КАЖДЫЙ БЕТА-ТЕСТЕР ПОЛУЧИТ КОШКА-ЖЕНА!

5 автономных зон доступности (AZ) с полностью разделёнными сетями и аплинками, связанные тёмной оптикой — в трёх разных ЦОДах. При отказе любой из AZ сервис продолжает работать, потому что машины переезжают в оставшиеся онлайн зоны доступности.

Распределённая сеть хранения и оверлейная сеть для данных, 400G. Запись на диск дублирует такую же транзакцию на другой хост. Раньше сеть была узким местом, но сейчас диски пишут медленнее, чем работает сеть.

Внешние маршрутизаторы, вынесенные в MMR и две PoP-площадки — в том числе одна прямо на MSK-IX. Все маршруты оптики и аплинков — независимые. Устойчивость сразу к двум бешеным экскаваторам.

Мы уже горели, нас ломали, и вообще мы повидали некоторое дерьмо в обслуживании ЦОДов до того, как запускать облако. Поэтому мы циничны в отношении вопросов устойчивости. Мы знаем, что если что-то может сломаться, то оно обязательно сломается. Поэтому дублируем всё что можно. Поэтому мы регулярно шатали нашу бету. Поэтому у нас хаос-инжиниринг.

Мы строим облако, в котором не страшно размещать серьёзные проекты.

Короче, приходите, вот тут ссылка на бесплатный пробный пакет:

Это отвратительно, показывайте скорее!

С уважением,
Константин
CTO \m/
h3llo cloud

Что мы приготовили в H3LLO.CLOUD



Привет, h3cloud!

Возможно, вы помните, что в июне у нас была задержка из-за удачно сошедшегося ряда особенностей — переезда из ЦОДа Ростелекома, старого стека (при том, что на корпоративном проде частных облаков уже был новый) и потом задержек с развёртыванием сразу правильно.

Завтра будет большой апдейт, и там новые полностью бесплатные пакеты для индивидуальных пользователей.

По функционалу мы даем нашим пользователям, помимо виртуальных машин, виртуальные сети с преднастроенной конфигурацией, работающей из коробки и с большой гибкостью, чтобы настроить любые параметры, включая статическую маршрутизацию. Это, правда, открывает миллион способов выстрелить себе в ногу, если ты не знаешь, что делаешь, но ты получаешь полную свободу.

Да, мы обновили цены, то есть демократичные цены на все предоставляемые нами ресурсы. Дальше мы… Конечно же, предоставляем широкий набор образов, включая образы на Windows. Правда, с опцией «Приноси свой ключ».

Мы не забыли про базы данных, балансировщики, объектное хранилище, возможность делать бэкапы и снапшоты дисков. И, наконец-то, у нас доехал новый обновленный UI подо все это.

Мы решили не мелочиться и для первых пользователей собрали пакет, на котором можно запустить серьёзный проект, а не только блог. Это не триальный «огрызок», а полноценный сетап.

Что внутри:
  • 2 мощные виртуальные машины (на свежих Xeon 5 с памятью DDR5).
  • Балансировщик нагрузки, чтобы распределять трафик.
  • Управляемая база данных (PostgreSQL или MariaDB на выбор).
  • 40 Гб быстрого сетевого хранилища (SSD).
  • 100 Гб объектного хранилища для файлов и бекапов.
  • 1 белый IPv4-адрес.

Этого хватит, чтобы поднять сайт, который выдержит 10 тысяч запросов в секунду. Или развернуть корпоративную почту для всей компании. Ну или завести сервис наблюдения за котом. Можно даже за соседским, чтобы он у вас на участке не гадил.

Сейчас заканчиваем стресс-тесты для инфраструктуры.

Завтра откроем доступ уже в новой консоли.

Посмотреть что у нас есть уже сейчас можно тут

С уважением,
Константин \m/
H3LLO.CLOUD

Знакомьтесь, это ванна






В ванне у нас 24 ячейки по 5 киловатт. То есть одна «лежачая стойка» — отвод 120 киловатт тепла. Это примерно в 20 раз больше, чем стойка в обычном ЦОДе.
Ячейка — 25х30 см. Туда по ширине влезает стандартная двухпроцессорная материнская плата.
Сама установка имеет габариты чуть больше двух метров в длину, порядка метра в ширину, и в высоту она у нас где-то сантиметров 80.
Внутри у нас не самое новое железо, которое мы чаще всего и погружаем, — то, что уже доживает свой век или изначально рассматривается как расходный материал.
Жидкость, которую мы используем, — диэлектрическая, то есть ток не проводит. Но она имеет масляную основу.
И ванна, как оказалось, вполне себе может гореть!
Мы это поняли на практике.
На фотографии просто ванна, которую повело от перегрева. А ещё одна сгорела, и сфотографировать мы это не успели. Это было задолго до публичного облака, ещё когда мы хостили криптанов с асиками. Пожарные, когда поняли, что горит целая ванна масла, сказали, что тушить её бесполезно и пока всё масло не выгорит, они будут просто смотреть, чтобы огонь не перекинулся на соседние.
Так мы провели вечер у костра.

Старые серверы мы разгоняем и топим. Это даёт +2 года использования в инференсе, а поскольку это гиперскейл в контейнерах — то, когда сервер умрёт, никто не заметит, это часть жизни.
Но сначала утопленника надо разогнать и подготовить.
  • 1. Меняем провода на те, у которых изоляция не растворяется при +50 по Цельсию. Провода обычно выше процессора при вертикальном погружении, и туда доходит прямой поток тепла. А для изоляции обычных проводов такая температура очень неприятная.
  • 2. Снимаем кулеры и всё движущееся, чтобы не мешали потоку жидкости. Движение жидкости обеспечивается насосом ванны и естественной конвекцией.
  • 3. Если кулер снять, сойдёт с ума контроллер железяки (если он есть) и будет пытаться троттлить железку, потому что не получается выставить повышенные обороты кулеру. Заливаем новую прошивку или ломаем датчик, чтобы железка думала, что кулер всегда на максимуме.
  • 4. Иногда надо отколупать или перевернуть радиаторы, они очень мешают потоку жидкости.
  • 5. Такая же фигня с оперативкой рядами. Мы, например, искали платы, у которых процессор с оперативной памятью тоже ставится вертикально. У многих они ставятся горизонтально, что, соответственно, будет препятствовать нормальному охлаждению каждого второго, третьего и последующего модуля памяти в ряду. Жидкость должна проходить их насквозь, а не как пороги.
  • 6. Обычная термопаста со временем растворяется и вымывается из-под радиатора. Есть специальная, устойчивая к вымыванию. Нам её поставляет производитель иммерсионных установок. Новая намазывается навсегда. У нас рекорд 4 года, поэтому навсегда равняется именно этому сроку. Дольше сервак в ванне не жил.
  • 7. Жёсткие диски иногда очень сложно достать, если сервер уходит мордой вниз. Иногда нужны специальные салазки или что-то ещё, чтобы можно было вытащить диск для замены, не вынимая сервер из ванны.

h3llo.cloud/ru/

Ваше мнение стоит целого ЦОДа




Добрый день, H3llo!

Мы тут готовимся к публичному запуску последнего коммерческого облака в России и не хотим стрелять себе в ногу.

А самый проверенный способ выстрелить себе в ногу — стать корпоратами, деплоить в пятницу вечером, отключить файрвол на минуточку для теста и не слушать сообщество.

Поэтому я пришёл к вам с вопросами.

Их всего три: что у вас случалось раньше плохого с облаками или хостингами, что бы вы хотели исправить и что вы бы лично хотели от нашего облака.

Ответить можно тут. Займёт от 30 секунд до 1 года, но медиана где-то в районе 3 минут.
survey.h3llo.cloud


Заранее большое спасибо!

Не обещаю, что всё это имплементируем, но обещаю, что очень внимательно к этому отнесёмся и потом поделимся с вами и сообществом результатами всего опроса.

Мне серьёзно очень важно услышать про ваш опыт, потому что мы делаем облако без херни. По крайней мере, стараемся.

С уважением,
Константин \m/
H3LLO.CLOUD

h3llo.cloud/ru/

У нас в названии есть слово «гиперскейлер»




У нас в названии есть слово «гиперскейлер». На подкасте меня спросили, а что это.
Я прям растерялся.
Это хостинг масштабом больше любого потенциального клиента в разы. В смысле, когда у клиента случится пиковая нагрузка, он сможет получить все нужные ресурсы.
Это значит несколько неочевидных вещей:
  • Нет единого крупного клиента (привет, Сбер).
  • График потребления ресурсов у клиентов разный (а не облако для розницы, падающее в чёрную пятницу).
  • Есть свободные ресурсы или ресурсы, с которых можно сдвинуть какие-то проекты вроде месячного расчёта для поиска обитаемых планет в фоновом режиме.
  • Есть платформа, которая позволяет так масштабироваться.
  • Есть куча автоматизаций, которые решают проблемы свёртывания-развёртывания.
Напомню, мы выкинули всё, что раньше делали другие (потому что у других получился Опенстек), переосмыслили всё это полностью и написали свою платформу. У нас никакого легаси, сложных совместимостей, зато есть самое топовое железо. И как следствие мы строим лучший пользовательский опыт. Мы не идём в сторону сотен сервисов, как у Амазона. Мы идём в сторону того, чтобы это было просто, понятно, удобно и экономически эффективно.
Местами получается. Мы только начали.

h3llo.cloud/ru/

Как мы получали лицензию на работу с гостайной




Мы пошли в сертификацию ФСТЭК, аттестацию 152-ФЗ и на получение лицензии для работы с гостайной. Потому что мы вместо Опенстека сделали свою платформу и на ней смогли всё настроить под требования госорганов.

Поэтому вот пост, как получить сертификацию на гостайну по ФЗ-152 — уровень УЗ1.

Очень подробный и со всеми деталями.

Всё ████████ ████ с ████████. В соответствии с новым ████████. Для ████████ требовалась ████████. Поэтому ████████, и в рамках очень жесткого SLA.
████████.

████████ ████.

████████ ████████ █████ █ █████.

Началось с ████████. ███ █████████ █ ███████ ████ комиссия. Их ████████. Потребовали выделить ████████ под ████████ периметр ██████. Только ████, ███████, ███████ bare-metal. Весь наш IaaS-слой пришлось ████████████.
В ███████████ с █████████ от ██.██.████, на █████████ ████████████, ██████████ █████████ о █████████████ ███████████ ████████. В ███████ ███████████████ и ████████████ по ██████████ в ███████████████████, ██████████ ███████████ ████████████, █████████████ на ███████████████.

Основные ████████████:

████████████ в ███████ █████████████████ ████████ «█████████████-████»;

██████████ для █████████████ с █████████ всех █████████████ ███████, через ███████████████ ████████████;

████████████████ по ███████████ с ███████ ██████████ и █████████████, ████████████ после ███████████.

В ██████ с ████████████████, █████████████ по █████████ ████████████ на █████████████ ██████. Все █████████████ ██████████ ██████ █████████████ и ██████████ в ██████ до ███████████ ███████. При ███████████ █████████████, ████████ ████████████ к ████████ № ███-ФЗ.

Контроль за █████████████ ██████████ █████████ ██████████ на ████████████████████████ (████████ ████ ██).

Понял, максимальная секретность. Вот версия с ещё большим количеством зачёркнутого текста, где видимыми остаются только ключевые фразы и минимум служебных частей речи.

Ввиду ███████████████████████████ **угрозы считывания дрожания стекла **лазерным лучом, █████ ██████ ███████████ ███████████ █████████ ███████ ███████████████ к █████████████ ██████ ███████.
Критерии ████████████:

███████ █████████ ████ ███████████ ███ █ ██████████ ██████████ █████.

Соответствие ██████ █ ██████ ████ ██ ████ ██████ ███ ████ ГОСТ ██████-██.

██████ ███████ ████████ ███████████. ████ █████ █████ ███████████ и ████ ██████████████.

Сроки из-за этого поплыли, конечно.

Теперь самое сложное:

█████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████

Далее — сеть
Весь трафик ████████. Сегментация на уровне ████████. Отдельный VLAN. И ████████ роутинг через ████████. Логирование ████████.

Затем ████████. Наша PaaS-платформа на ████████ была ████████. Каждый деплой через ████████. Все образы ████████ по ГОСТ. Шифрование на уровне ████████ и на уровне ████████.

В соответствии с ██████████████ от ██.██.████, а также на основании ██████████████, было ██████████ решение о █████████████ следующих ██████████. В целях ██████████████ и ████████████ по ██████████ в ███████████████████, необходимо ██████████ ряд ████████████, направленных на ███████████████.

Основными ████████████ являются:

████████████ и ███████████ в рамках █████████████████ проекта «█████████████-████»;

██████████ для ███████████████ с ███████ всех ██████████████ сторон, в том числе через █████████████████ ████████████;

████████████████ по ███████████ с учётом ██████████ и ██████████████, полученных после █████████████ ██████████.

По возможности делайте именно в таком порядке, а не обратном, не наступайте на наши грабли.

В связи с вышеизложенным, ████████████ по ███████████ ответственность ████████████ на █████████████ отдел. Все █████████████ документы должны быть █████████████ и ██████████ в архив до █████████████ ███████. При ███████████ █████████████ █████████████, следует ████████████ к ███████ ████-ФЗ.

Контроль за █████████████ настоящего ██████████ пришлось передать ████████████████████████ (██████████ ██. ██.). И это, конечно, дикий сюрприз.

Затем — финальная аттестация. ████████. Мы ████████. Потом ████████. И так по ████████.

После ████████. Мы ████████. Думали, что всё ████████.

А потом ██████ ██ ████████.

Как видите, всё просто, и вы сможете это легко повторить.

Сейчас мы можем предоставлять услуги государственным заказчикам и делать приватные инсталляции в их инфраструктуре.

Что было на выставке ЦИПР — парадная сторона и мрачная изнанка






У меня очень странное впечатление. С одной стороны, круто, что конференция есть и всех удалось собрать. С другой — ужасный опыт участия, конские цены и пафосные заголовки пресс-релизов.

Удивительно, но многие узнавали нас по блогу на Хабре.

Участие стоит несколько десятков миллионов рублей за стенд (мы не взяли) — ну или 50 тысяч рублей за самый простой билет и 150 тысяч за VIP. Мы взяли за 150, но сразу скажу, подсыхающие канапе этого не стоили. Но тем не менее оказалось дичайше полезно.

Сейчас расскажу, зачем вообще ездить на такие конференции и какой профит с них можно получить. Потому что может показаться довольно странным ехать на конференцию «Цифровая индустрия промышленной России» не в онлайн.

Вообще-то изначальная задумка была как в анекдоте про то, что когда программисты придут к власти, целые министерства можно будет заменить на один скрипт. Это место, где собираются все ключевые люди, определяющие будущее ИТ России. Чтобы обсудить важные вещи, познакомиться лично и прибухнуть, конечно.

В этом году основной темой были LLM. Их теперь все называют ИИ. Ещё импортозамещение, ИБ, как и что автоматизировать, где брать и как обучать людей и всё такое. Но основной лейтмотив был — хайп на LLM и «внедряй, а то проиграешь».

Почему Нижний — потому что там крупный ИТ-кластер, наука и промышленность. Почти как Екатеринбург, где тоже промышленность и большое население дали отличный старт для роста ИТ в 90-х.

Начну с того, что, конечно, дико жалко денег. Жаба прям давит.



Денег сильно жалко
Когда мы решили ехать, у меня была очень точная коммерческая позиция. В первую очередь, конечно, такая конференция — это поиск заказчиков для нашего облака. Вторая задача из обязательных — было запланировано интервью каналу «Про Бизнес», и нужно было за эти 13 минут тайминга не просто отчитаться, а показать, что мы есть, что мы ездим на такие мероприятия и следим за тенденциями. Коротко, но ёмко рассказать о себе как о компании.

Дальше надо было обойти всех, поменяться контактами и познакомиться, чтобы, если что, писать напрямую, а не через секретарей и продажников. Приезжают чиновники (особенно Минцифры и Минпромторг), госкорпорации типа Сбера и ВТБ, Росатома, Роскосмоса, Ростеха, Ростелекома, РЖД и т.п., крупный бизнес вроде Яндекса, 1С, Позитива, Касперского, потом промышленность — там я мало кого знаю лично, но в целом хотя бы по человеку от всех крупных производств, куча стартаперов (хотя, казалось бы, венчур в России кончился в 2022-м), преподаватели из университетов и дамы разного поведения, которые не могут пропустить такую концентрацию людей с деньгами.

Со всеми, кроме последних, мне как представителю компании, конечно же, интересно познакомиться и пообщаться. В этом разрезе денег за участие уже не жалко, потому что они окупаются.



«Аааа, мы читали вас на Хабре!»
На рынке мы немного нашухерили, сделали с десяток публикаций на Хабре и начали вести телеграм-канал про гомерические особенности российского бизнеса. Но этого, как оказалось, хватило, чтобы нас очень хорошо заметили.

Это я понял почти сразу, в совершенно неожиданный момент.

Дальше прямая речь Антона (коммерческого директора):
Проходя мимо стенда МТС, где я когда-то работал, меня узнали бывшие коллеги. Мы разговорились, и тут их взгляд упал на мой бейдж с нашим логотипом. Реакция была мгновенной: «А-а-ах, вот ты кто! Вот вы кто такие!» Оказывается, по их словам, они за нами следят, читали наши публикации на Хабре и даже было совещание, которое длилось два дня, посвящённое тому, чтобы выяснить, «кто вот такие, откуда вы взялись вообще, чем будете заниматься. Подобные истории я слышал и от коллег из Ростелекома — те тоже говорили, что читали, смотрели, а некоторые даже заходили на наш демостенд и пробовали всё ручками.

Ходили слухи, что в Сбере проводили подобные совещания и даже служба безопасности по своим каналам пробивала информацию о нас.

Так что да, за нами следят и ждут, когда же рванём.

Пользуясь случаем, передаю привет уважаемым коллегам. И напоминаю, что пока вы корпорация, вы двигаетесь раз так в 7–8 медленнее, чем маленькие команды, где нет бюрократов и идиотов. Ну, знаете, как мы. Хотя про идиотов я ещё не до конца уверен, это время покажет. С гранатой за птицами мы уже бегали.

Что было в целом

Основных тем было три. Первая — импортозамещение. Было удивительно приятно видеть столько отечественных производителей, и не только софта, но и железа. Даже мои бывшие коллеги из Росатома, как я узнал, уже начали свои железки делать.



Вторая тема — инфобез. В нескольких сессиях, которые я успел послушать, все телеком-операторы и банкиры наперебой рассказывали, как они борются с мошенниками, которые нам звонят по телефону. По их словам, вроде даже получается. Возможно, скоро вместо мошенников будут звонить лицензированные спамеры, использующие бигдату операторов.

Но главной, просто всепоглощающей темой стал искусственный интеллект, ГИГАЧАТ 2.0. Это они так называют LLM, как уже говорил. А вместе с LLM туда под общий хайп загребли всё: от классификаторов машинного зрения до термоса. В конце концов, он же знает, какую воду хранить — если налить горячую, через час в нём горячая, если холодную — там через час не горячая, а холодная. Для этого нужен серьёзный AI.

Про ИИ говорили абсолютно все, даже те, кто, по моим ощущениям, к нему особого отношения не имеет. Ярчайший пример — тот же МТС. Я до сих пор не понимаю, что они там в искусственном интеллекте делают, кроме как предоставляют в аренду видеокарты, да и то их кластер довольно скромный по сравнению со Сбером. Но на стенде у них была заявлена собственная разработка — МТС GPT. Однако, по инсайдерской информации из достаточно надёжных источников, это не совсем их продукт. Похоже, они через аффилированные маленькие компании получили контракты на доступ к платным версиям зарубежных аналогов, а потом просто сконсолидировали это под собой в одной оболочке и теперь выдают за свой продукт. У них банально не хватит карточек даже для инференса, не говоря уже о том, чтобы что-то своё обучать.

Атмосфера на самой конференции была предсказуемой. Первые два дня — огромное количество народа, не протолкнуться. На третий-четвёртый день народ заметно поуменьшился.

Организация пространства интересная. Внутри выставочного комплекса — закрытое помещение со стендами, условные площадки 5 на 3 метра. Там же был и зарубежный павильон: китайцы, белорусы, иранцы, но всё как-то невизуально, ничего, что заставило бы остановиться.

А вот на площади, в зоне, где, по идее, кормили людей, были отдельные лаундж-зоны. Там можно было поваляться на подушках, посидеть на лавочках с ноутбуком. И вот там, особенно под вечер, собиралось много народа. Погода стояла жаркая, за 30 градусов, и некоторые компании этим отлично пользовались: ITGLOBAL.COM (Айтиград) разливали пиво, Softline готовили коктейли. Я видел, как крупные интеграторы привозили заказчиков, как говорится, культурно на выгул.

Клиента, который сам бы сюда ни за что не приехал, брали под ручки, привозили на комфортном минивэне, селили в номер, а вечером — баня, алкоголь, ресторан. Я не осуждаю, у нас так работает большинство.


Изнанка
У меня был статус VIP за 150 тысяч рублей. И он был вообще ни о чём. Абсолютно пустая трата денег. В теории он давал доступ к контактам, но на письма по этому списку никто не отвечал — вообще мёртвая история. В следующий раз, если поедем, то только как обычные делегаты за 50 тысяч. Мы даже рассматривали вариант со своим стендом, но цена вопроса уходит сильно за новый Майбах и квартиру в Москве. Там спонсорский пакет + проектирование стенда ещё 3–4 миллиона, а строить его можно только силами рекомендованных компаний за отдельные деньги.

Лучше мы за эти деньги купим какой-нибудь новый сервак последнего энтерпрайзного поколения.

Логистика и быт просто ужасны. Интерфейс для покупки билетов как у кривых копий Фаргуса, «озвучено профессиональными программистами». Чтобы попасть на какую-то вечеринку, нужно было регистрироваться за пределами основной системы где-то в third-party софте. Когда нам понадобилось переоформить билет с одного сотрудника на другого, это заняло неделю! А ещё нужно распечатать соглашение, вручную заполнить его, подписать, отсканировать и прислать обратно!

На самой площадке были отвратительный Wi-Fi и мобильная связь, видимо, работали глушилки. Даже передвижная точка от Теле2 не спасала.

Но хуже всего было с едой. За те сумасшедшие деньги, что стоили билеты, нас не кормили. Выдавали какие-то канапе и бутербродики, настолько маленькие, что явно это была ESG-повестка. Ресторан на территории был один, и очередь туда была такая, что точно не все попадают.

В итоге, чтобы пообедать, я брал ребят, с которыми уже пообщался, и предлагал пойти в ближайшую кафешку по супчику.

Проблемы были даже со входом. Бейджи, которые мы заранее распечатали, на второй день, после визита Мишустина, перестали работать. Всем надо было стоять в очереди, чтобы их перепечатать. Естественно, с паспортом, который многие оставляли в номере. Меня вообще не нашли в базе, я прошёл, просто показав паспорт, — сверили имя на бейдже. Зачем тогда была вся эта процедура печати — непонятно.

Ну и вишенка на торте: после регистрации мне до сих пор летит всякий спам и рассылки. Возможно, как раз от других VIP-участников.

Немного публикаций, чтобы вы понимали уровень:

Интернет на борту отечественных самолётов может появиться в 2027 году. «Любой винтик, лампочка, модем, который будет установлен на борту воздушного судна, — это лишний вес, лишний объём, и это должно быть подтверждено производителем», — отметил заместитель гендиректора по информационным технологиям и информационной безопасности «Аэрофлота» Антон Мацкевич. «Именно поэтому речь пока идёт о перспективных отечественных самолётах, которые сейчас испытываются».



Итог
Несмотря на всё это, поездка была полезной. Прямых заказчиков найти было сложно — они все прям за ручку ходили со своими менеджерами, которые их не отпускали разговаривать с конкурентами, незнакомцами и вообще взрослыми дядями. Но мне больше дало личное знакомство с коллегами по цеху. Я встретил людей, которых не видел много-много лет. И вот так, слово за слово: «Привет, как дела?», и вдруг: «Слушай, а не хотите поучаствовать с нами в проекте?» Субподряд для Касперского так нащупался, а наш директор по партнёрствам Андрей пообщался со многими топ-менеджерами, например из Positive Technologies, Astra Group, РЕД СОФТ, SberTech, Nexign, NAUMEN, PostgresPro, Directum, Express, Р7, Almi Partner и Цифровыми технологиями Москвы, которые теперь нас знают и готовы вести диалог.



Надеюсь, что-то сработает. Любые конференции дают результат не сразу, а через некоторое время. Горячего заказчика оттуда не уцепишь.

Но зато нас увидели и, возможно, поняли, что мы адекватные. Хотя это неточно.

h3llo.cloud/ru