Почему облака — это дёшево, чертовски дешево

Раньше я считал, что публичные облака дорогие, и как я заблуждался! Да что говорить, многие мои знакомые так и считают. Но я попробую объяснить, почему это совсем не так и я изменил свое мнение!

Cразу сделаю оговорку — все очень сильно зависит от вашего проекта. Но постановку вопроса это не меняет — так как облака, как правило, дорогие для тех проектов, где они не нужны. А какая разница, сколько стоит продукт, который вам не нужен! Но стоит вам начать реализовывать сложный проект, как раз в этот момент облачные сервисы и оказываются полезны.

Раскрытие информации: я основатель облака Amvera, в котором можно развернуть проект через git push, введя три команды в терминале. Потому я могу быть предвзят в этом вопросе и рассмотрю кейс, не относящийся к нашему облаку.

Давайте представим такой проект. SaaS-сервис. У вас 20 — 25 микросервисов. Некоторые из них масштабируются горизонтально, количеством инстансов. Основная база данных — PostgreSQL. Проект — прод, вам нельзя эту базу данных потерять. Плюс, вы пишете логи в Elastic, запускаете приложения в Kubernetes и используете брокер очередей сообщений Kafka. Да, это не монолит, который можно на VPS/железном сервере запустить, но и не космический корабль c несколькими зонами доступности и тысячами приложений.

А теперь посчитаем, где и за сколько это можно развернуть. Допустим, проект потребляет 100 vCPU, 400 Гб ОЗУ и 2 Тб SSD. Вернее, потребляет он меньше, но нужно брать с запасом.

Если взять любое публичное облако, получим очень примерно 70 000 руб. за CPU, 80 000 руб. за ОЗУ и 20 000 руб. за диск. Добавим еще 10 000 руб. на бэкапы и 50 000 руб. на managed PostgreSQL, Kafka, Kubernetes и OpenSearch. Итого получилось 230 т.р./месяц. Кажется, что это очень много.

А теперь попробуем это сделать на своем железе. Старый ноутбук или одноплатник с алиэкспресса тут не подойдут.

Если вам нужен новый (а смысл брать старый нет) сервер со 100 vCPU, 400 Гб ОЗУ и 2 Тб SSD это вам выйдет в 1,2-1,5 млн. руб. Хорошо, хорошо, вы нашли дешевле и взяли за 700 000 руб.

Решили развернуть на нем все сразу. И сразу столкнулись с тем, что Kubernetes нужно ставить на 3 ноды минимум. Это значит, вам надо либо на вашей железке поднять несколько виртуальных машин, либо использовать что-то вроде minikube, который можно и на одной запустить.

Железку нужно где-то ставить. Арендуем колокейшн на 2U за 10 000 -15 000 руб./месяц.

Ставим Elastiс и понимаем, что мощности не хватает. Плюс еще нужен стейджинг. Идем и покупаем еще один сервер за 700 000 руб.

Но вы получили не отказоустойчивое решение. Любой сбой и все пропало. Особенно это касается дисков.

Тогда вы идете и докупаете еще пару серверов за 700 000 руб. Нарезаете виртуалки, настраиваете сеть, поднимаете Ceph …

И вот, наконец, у вас спустя пол года и 2,8 млн. рублей почти отказоустойчивая инфраструктура. Если учесть, что года через 3-4 вы их спишите, то стоимость владения с учетом инфляции будет около 60 000 руб. в месяц.

И за колокейшн вы платите каких-то «жалких» 60 000 руб. в месяц.

Но есть нюанс. За железными серверами надо следить. Вдруг диск полетит, надо заменить, да и много что может случиться. И для этого вы выделяете половину времени одного из членов команды. Зарплаты бывают разными. Но мы же экономим, поэтому заложим “всего” 75 т.р. в месяц.

Итог — мы получили сумму, аналогичную публичному облаку.

Но давайте будем честны, самостоятельно развернуть Kubernetes, Ceph, Kafka, PostgreSQL c бэкапами и т.д. проблематично. Вам понадобится пару инфраструктурных/DevOps инженеров. Хорошо, один “сын маминой подруги” за 300 000 руб/месяц.

Это я не говорю, что услуги по сопровождению и построению инфраструктуры могут и 1 млн. руб. в месяц стоить.

Но даже если брать по минимуму, мы получим 495 000 руб/мес против 230 000 руб/мес за публичное облако.

Тогда может брать сервера в аренду?

Сразу скажу, что получится еще дороже. Сейчас стоимость аренды примерно равна стоимости публичного облака.

Из плюсов своих серверов вы получите
  • Запас по вычислительной мощности.
  • DevOps в штате. Есть вероятность, что специалист будет вам полезен и при использовании публичного облака.

А из минусов
  • Неэластичность. Докинуть железный сервер в кластер, не то же, что виртуалку у провайдера.
  • Вы маловероятно настроите инфраструктуру также хорошо, как провайдеры с сотнями клиентов на которых они набили шишки. И все обязательно упадет, возможно, просто еще время не пришло…
  • В облаке вы получаете множество скрытых преимуществ из разряда защиты от DDoS, пулов IP, геораспределенности, нормальных бэкапов и много другого, что очень сложно реализовать самостоятельно.

Но не работают же облака в минус? Нет, конечно. Просто самые большие затраты это администрирование и построение общей инфраструктуры. А эти затраты теряются на масштабах провайдеров. Для них себестоимость чуть выше стоимости владения железом. Но «что позволено Юпитеру, не позволено быку», поэтому, пока ваш бюджет на инфраструктуру не миллиард в месяц, баланс затрат себестоимости будет не в вашу пользу если вы решите сделать что-то подобное самостоятельно.

Но давайте вернемся к вопросу — а вам облако реально нужно?
  • Если у вас небольшой сайт, и вы редко вносите в него изменения, проще воспользоваться простым хостингом. Хостинг в несколько раз дешевле виртуалки у PaaS облачного провайдера.
  • Если нагруженный сайт, но шаблонный, и вы не вносите много изменений, ваш выбор — хостинг или аренда железного сервера плюс настройка бэкапа в другое место.
  • Если вы банк, вам безопасники не дадут в облаке развернуться.
  • Если у вас стартап с частыми изменениями и вам нужно легко все развертывать из коробки и каждый день доставлять обновления, воспользуйтесь Heroku, или нашим сервисом Amvera;) Это даст вам сразу CI/CD, бэкапы, алерты и максимально абстрагирует от инфраструктуры.
  • И вот только если у вас сложный сервис, который должен работать в разных регионах или использовать сложную, нагруженную инфраструктуру, вам путь в классические, публичные облака.

Публичные облачные провайдеры берут деньги за то, что снимают с вас тяжесть развертывания и администрирования сложных инфраструктурных сервисов, разделяя эти издержки на множество клиентов. Если вы решите все делать самостоятельно, делить эти издержки будет не с кем. И на самом деле на выходе вы получаете относительно «дешевый» продукт. А сравнивать облако просто со стоимостью покупки железного сервера, это как сравнивать стоимость автомобиля со стоимостью металла, из которого он сделан. Но выбор, где разворачивать сервисы, за вами.



amvera.ru

Обновленный сайт - новые возможности



Рады представить сайт, обновленный с учетом ваших пожеланий. Актуальный интерфейс создан для удобного и комфортного взаимодействия с нашей командой.

Что нового?
Добавили раздел Проекты, где вы можете объединять необходимые заказы в отдельные проекты, чтобы:
  • эффективно управлять заказами по группам (модифицировать, оформлять, оплачивать);
  • вести поддержку (формировать политику и уровни доступа для различных групп и пользователей).

Упростили выбор конфигураций сервера, теперь это может сделать даже новичок. Для вашего удобства:
  • удобные фильтры для поиска тарифов на выделенные серверы;
  • детальное сравнение тарифных планов прямо на странице заказа.

Ускорили процесс активации VPS — всего 15-20 секунд вместо 1 минуты. Без затрат на физический сервер и практически мгновенно вы получаете доступ к мощным вычислительным ресурсам:
  • скорость соединения виртуальной машины — 100 МБит/с;
  • неограниченный объем передачи данных в рамках выделенной скорости;
  • полная безопасность и изоляция.

Обновили Базу знаний, чтобы поиск информации по вопросам хостинга стал еще проще и быстрее.
fornex.com/ru/help

Дополнили информацией разделы с услугами для легкости восприятия.
Навигация по сайту стала интуитивно понятнее.
Будем рады любым вашим замечаниям.

fornex.com/ru

10 000 бонусов в честь наступающих праздников!




Уважаемый клиент!
Поздравляем вас с наступающими праздниками и желаем, чтобы вы и ваши близкие были здоровы, а ваш бизнес процветал, развивался и рос!
Мы зачислили на ваш бонусный счет 10 000 бонусов. Используйте их до 8 января для оплаты до 20% стоимости новых услуг в Руцентре.
Выбирайте услуги, оставайтесь с нами и экономьте на следующих заказах: 20% от платежей мы возвращаем на бонусный счет.
www.nic.ru/info/welcome-new-year-2025/

Знаменательный год: основные моменты путешествия Nebius в 2024 году



Хотя праздничный сезон, возможно, не всегда связан с числами — а скорее с тем, чтобы не думать о них некоторое время — они все еще всплывают здесь и там. Будь то мощность GPU, которую вы планируете на следующий год, или сколько миллиардов параметров вы будете использовать в своей следующей модели, числа ведут нас в 2025 год. Вот некоторые цифры, над которыми мы размышляем в эти дни — сохраняя при этом чувство веселья.

Наш недавний инвестиционный раунд указывает путь к светлому будущему, и мы рады приветствовать в составе нашей компании в качестве новых акционеров нескольких престижных инвесторов.



Эти 700 миллионов долларов пополнят наши собственные сбережения и дадут нам больше возможностей для инвестиций в создание инфраструктуры ИИ по всему миру…



…при этом никогда не забывая о своих корнях. Первый центр обработки данных Nebius в Финляндии, наша домашняя база, был полностью построен нами самостоятельно, с тщательным вниманием к конструкции здания, адаптацией его к нашим внутренним серверам и конструкциям стоек. И мы структурировали его не только для экономической эффективности, но и в очень финском стиле — с сауной на месте.



Это может показаться довольно горячим — надо признать, что большинство сотрудников предпочитают температуру ближе к 80–100 °C.

Говоря о тепле, мы используем избыточное тепло от наших серверов с пользой, перенаправляя его в близлежащий город Мянтсяля.



Трубы, по которым поступает тепло, конечно, не единственная часть коммуникаций центра обработки данных. Для поддержки многохостового обучения для наших клиентов мы полагаемся на InfiniBand. Фактически, общая длина оптических кабелей, установленных в наших центрах обработки данных, охватывает все расстояние от нашей штаб-квартиры в Амстердаме до Рима.



Конечно, мы посетили Рим в 2024 году, чтобы продвигать Nebius – вместе с 26 другими городами в Соединенных Штатах, Европе, Азиатско-Тихоокеанском регионе и за его пределами. Вы найдете нас на конференциях по ИИ по всему миру, готовых поддержать участников, где бы они ни находились.



Поддержка означает не только предоставление инфраструктуры GPU, но и заботу о людях в теплой и вдумчивой манере. Если количество ваших носков нечетное, ну… это, конечно, то, чего никогда не случалось с нами.



Посещение конференций по всему миру не означает, что у нас нет ключевых достопримечательностей. Наши рекламные щиты в районе залива привлекли много внимания — именно то, чего мы хотели.



Если мы так смелы в маркетинге, насколько сильны наши технологические основы? Один из способов измерить это — через портфель патентов. Эти цифры показывают, что мы не просто строим инфраструктуру ИИ, как другие, кто был до нас. Вместо этого мы продвигаем технологии, чтобы продвигать отрасль вперед.



Nebius привносит дополнительную технологическую ценность в эту область. Как еще можно описать платформу облачных вычислений, переписанную с нуля менее чем за год? Мы владеем каждой частью технологического стека Nebius, и каждая строка кода — наша собственная. Мы считаем, что это делает Nebius по-настоящему уникальным в мире облаков.



Помимо облака мы также запустили Nebius AI Studio, которая предоставляет разработчикам приложений GenAI конечные точки для десятков самых популярных моделей с открытым исходным кодом, а также некоторые более специализированные предложения. Они не ограничиваются LLM, но также включают модели машинного зрения. AI Studio уже производит фурор на рынке вывода.



Расширение нашего портфолио такими технологическими продуктами требует тесного сотрудничества между командами, особенно при росте в нескольких странах. Чтобы оставаться на связи, мы полагаемся на Zoom для трансграничной командной работы.



После продуктивных мозговых штурмов, как онлайн, так и офлайн, о том, как сделать жизнь разработчиков ИИ еще проще, мы прилагаем все усилия, чтобы восстановить связь с нашими семьями. Экологичный способ добираться на работу — велосипед — очень амстердамское занятие.



Вот и все наши цифры на 2024 год! Теперь пора подумать о том, как достичь еще более впечатляющих показателей в 2025 году. Если покорение мира ИИ также входит в ваши планы на следующий год, вы знаете, где найти инфраструктуру. И носки.

nebius.com
studio.nebius.ai/playground
console.eu.nebius.com

Реализовано в четвертом квартале: обновления нашего облака GPU



После завершения полной переписывания нашего облака с нуля в октябре мы начали улучшать фундамент, который мы вывели на рынок. Функции и инструменты, которые мы представили с тех пор, охватывают весь наш спектр облачных сервисов, от Compute Cloud до управляемых решений MLOps.

Вычислительное облако
  • Добавлена ​​конфигурация платформы AMD (cpu-d3).
  • В консоль добавлены новые панели мониторинга: ЦП, ГП, ОЗУ, метрики NVLink, метрики InfiniBand, метрики Ethernet.
  • Выбор типа публичного IP-адреса (статический или динамический) теперь доступен при создании виртуальной машины в GUI, CLI или Terraform.

Кластерное управление
Оператор

  • Включено sshdна рабочих узлах для прямого, безопасного доступа и упрощенного устранения неполадок.
  • Реализована поддержка enroot без необходимости наличия прав root, что обеспечивает более гибкие и безопасные контейнеризированные рабочие процессы.
  • Добавлена dockerd​​поддержка управления средой выполнения контейнера.
  • Интегрировано apparmorдля улучшения профилей безопасности и изоляции рабочей нагрузки.
  • Внедрены разделы Slurm для логического разделения ресурсов и повышения эффективности планирования.
  • Запущен API Slurm REST, позволяющий осуществлять программное управление кластерами, отправку заданий и запрашивать состояния кластеров.
  • Поддерживаются типы кластеров, состоящие только из ЦП и только из ГП, что позволяет пользователям точно адаптировать свою инфраструктуру к требованиям рабочей нагрузки.

Управляемый сервис для Kubernetes
  • Добавлена ​​поддержка балансировщика нагрузки для предоставления сервисам доступа в Интернет и внутренние сети.
  • В консоль добавлены новые панели мониторинга: ЦП, ГП, ОЗУ, метрики NVLink, метрики InfiniBand, метрики Ethernet.
  • Запущен автомасштабатор узлов для динамического добавления или удаления узлов в зависимости от потребностей в ресурсах.
  • Внедрена интеграция с нашей службой реестра контейнеров для бесперебойного управления образами.
  • Включена высокая доступность для кластеров по умолчанию, что обеспечивает избыточную плоскость управления без дополнительных затрат.
  • Добавлена ​​поддержка блочных томов ReadWriteOnce с CSI через блочное хранилище в режиме предварительного просмотра. Обратитесь в службу поддержки или к своему архитектору облачных решений, чтобы начать их использовать.
  • Добавлена ​​поддержка настройки кластеров в пользовательских подсетях, что позволяет кластерам Kubernetes подключаться к частному адресному пространству клиента через VPN.

Реестр контейнеров

Хранилище данных
Общая файловая система

  • Запущена функция изменения размера файловой системы. Производительность файловой системы будет увеличиваться на каждые 4 ТБ размера.
  • Добавлена ​​поддержка получения доступных платформ и предустановок через API и CLI.
  • Добавлена ​​возможность изменения размера файловых систем и дисков без необходимости их переустановки.

Хранение объектов
  • В консоль добавлены показатели производительности и потребления.

Управляемый сервис для PostgreSQL
  • Добавлены показатели производительности в консоль.
  • Добавлена ​​поддержка Run:ai.
  • Запущены частные конечные точки кластера (доступны только из VPC пользователя).
  • Добавлена ​​возможность включать и отключать конечные точки публичного кластера.
  • Добавлены настройки размера пула и некоторые второстепенные настройки, связанные с параметрами кластера PostgreSQL.
  • Добавлена ​​возможность обновления созданного кластера путем изменения параметров кластера (количество хостов, количество ЦП, объем памяти), параметров PostgreSQL (пароль, настройки автоочистки и т. д.) или настроек пулера.

Услуги и приложения MLOps
Управляемая услуга для MLflow

  • Теперь поддерживаются частные и публичные конечные точки.
  • Добавлены журналы MLflow в веб-консоль.
  • В веб-консоль добавлены показатели производительности MLflow.

Возможности облачной платформы
Сеть

  • Добавлено «количество доступных публичных IP-адресов» в качестве публичной квоты в консоли.
  • Теперь доступна возможность изменения диапазона IP-адресов для частной сети.
  • Решение Wireguard VPN было добавлено для безопасного удаленного доступа.
  • Управление идентификацией и доступом
  • Добавлена ​​аутентификация GitHub в консоль.
  • Теперь у клиентов есть возможность настраивать собственные федерации с помощью протокола SAML2 через API.

API
  • Выпустили API-репозиторий github.com/nebius/api
  • Go SDK и Python SDK выпущены в режиме предварительного просмотра. Пожалуйста, свяжитесь со службой поддержки или архитектором облачных решений, чтобы начать их использовать.
Страница статуса
  • Теперь вы можете подписаться на инциденты на страница статуса status.nebius.com

Небиус AI Студия
  • В настоящее время в нашем портфолио LLM более 30 моделей.
  • Теперь платформа поддерживает увеличенные лимиты скорости — более 100 млн токенов в минуту и ​​более.
  • Добавлена ​​новейшая модель Llama-3.3-70B-Instruct.
  • Добавлены модели стражи.
  • Добавлены специализированные модели Med42 и Llama3-OpenBioLLM-8B.
  • Теперь также доступны модели Vision.
  • LoRA доступен в режиме предварительного просмотра.

nebius.com
studio.nebius.ai/playground
console.eu.nebius.com

В Питере — облака перевозить



Как мы дошли до жизни такой
Год назад, осенью 2023, мы открыли площадку в Санкт-Петербурге на базе дата-центра оператора ОБИТ. Это был первый опыт открытия локации под расширение публичного облака. Запуск нес коммерческие, продуктовые и маркетинговые инициативы и смыслы. Мы научились с нуля поднимать всю инфраструктуру облака, организовали новые каналы связи.

Запуск шел не очень гладко, сроки срывались из-за задержек в поставках оборудования, недостаточного планирования, качества выполняемых работ, и множества других неучтенных моментов. Тем не менее мы успешно дожали эту задачу и сделали выводы, чтобы не повторять ошибки. За год площадкой воспользовалось несколько тысяч наших клиентов, и на текущий момент мы имеем около 1300 активных услуг в этой локации.

А далее мы запланировали экспансию в другие регионы, и она проходит успешно.

В какой-то момент даже стало казаться, что стройка и переезды скоро закончатся. Но как говорится, хочешь рассмешить Бога, расскажи ему о своих планах. Через неполный год мы узнали о готовящейся застройке территории, где расположена площадка с локацией публичного облака в регионе Санкт-Петербург. Пришлось искать новую.

И вновь я посетил…
Никаких мук выбора не было. Мы одними из первых посетили “Дата-Центр №1” от ОБИТ (о этом мы рассказывали здесь). Поняли, что это современная площадка, соответствующая уровню Tier III: с дублирующимися системами ДГУ по схеме 2N, резервированием ИБП по схеме 2N+1 и систем охлаждения N+1 для каждого машзала.

На новой площадке не было проблем подключения 7кВт стоек, что уже практически стандарт отрасли. Оборудование становится более производительным, растет плотность компонентов, размещаемых в одном сервере — такое оборудование требует ответственного отношения к охлаждению, проектированию размещения и энергопотребления. Все это здесь соблюдается в полной мере.

Ко всему прочему руководство ОБИТ сразу пошло нам навстречу и предоставило все необходимые дополнительные буферные мощности, каналы связи, что сильно облегчило непосредственный переезд.

Цель ясна, итог понятен
Наша задача формулировалась просто — нужно было перевезти весь регион в онлайн.

А это значило:
  • закупить и разместить новый узел связи (маршрутизаторы, агрегирующие коммутаторы и TOR-ы);
  • закупить и разместить буферное оборудование для размещения клиентов (compute) на новой площадке (всех наших трех типов — стандартные, производительные и высокочастотные серверы);
  • разместить новый control plane на новой площадке (зачем — смотри в бонус-треке);
  • организовать, настроить, растянуть L2 сегменты облака на два дата-центра;
  • настроить процесс непрерывной миграции → перемещения → оборудования → коммутации → переналивки и так по кругу;
  • переключить операторов связи с одной площадки на другую.

В итоге переезд целой локации публичного облака занял у нас два месяца работы в спокойном темпе вместе со всей подготовкой. Когда мы впервые услышали о необходимости переезда, нам казалось, что задача растянется более чем на квартал.

Все сервисы локации перекочевали в онлайн, без перезапусков и остановок продаж. Мы очень сильно старались, чтобы переезд не заметили наши клиенты и будем стараться так делать и дальше =)

Бонус-трек
Мы полностью обновили OpenStack в процессе переезда, для чего и нужно было дублировать control plane. Заодно расширили тарифную линейку производительными серверами на базе AMD EPYC третьего поколения.

Скоро — уже в этом году — запустим линейку GPU в Санкт-Петербурге. Это стало возможно тоже благодаря новой площадке.

Stay tuned, готовим еще много нового!

И напоследок немного фотографий с переезда:





www.reg.ru

Перевернули календарь, а там Жигулевская долина



Сложности выбора площадки: на что смотрели и на чем остановились
Самарская область, а именно Тольятти, — далеко не первый кандидат на размещение новой локации. Коммерческие и продуктовые смыслы тянули в сторону площадки в Казахстане, и мы действительно довольно тщательно прорабатывали этот вопрос. Однако, в силу ограниченных возможностей по защите сети и привычной нам эксплуатации ЦОДов на должном уровне, еще больших проблемах с поставками оборудования и правовых вопросов использования площадки, которые неизбежно привели бы к серьезным задержкам запуска, мы решили изменить вектор. В том числе и для того, чтобы диверсифицировать собственные риски роста и возможные сложности разрастающихся локаций в Москве и Санкт-Петербурге. Ко всему прочему, ходили слухи о скором переезде площадки Санкт-Петербурга (и они оказались реальностью, но об этом в следующий раз). Все это переключило нас на поиск вариантов внутри страны.

Мы рассматривали площадки в Новосибирске, Екатеринбурге, Казани и других крупных городах РФ. Почти все время упирались либо в отсутствие мест (с возможным расширением, но непонятными сроками запуска), либо на несоответствие нашим критериям выбора.

Как выбирали
Собрали верхнеуровневые критерии.
Посмотрели референсы крупных провайдеров.
Главное — сконцентрировались на оптимальном балансе качества и скорости получения результата.

Критерии принятия решения по выбору локации были такие:
  • регион с плотным населением, обеспечение быстрого отклика близлежащих территорий, каналы связи с другими странами;
  • достаточная удаленность от двух столиц (катастрофоустойчивость);
  • технологичность площадки (Tier III, высокий uptime, широкие каналы связи);
  • стойки от 7кВт;
  • наличие места в рядах, машзалах;
  • дублированные крупные операторы связи, независимые оптоволоконные каналы связи;
  • отсутствие конкурентов в конкретном регионе.
  • Дополнительным фактором было наличие грамотных «рук» на площадке, услуг SmartHands.

Наш финалист
Исходя из всех требований, в том числе необходимости быстрого запуска новой локации, посетив некоторые площадки, мы выбрали технопарк «Жигулевская долина». Локация в большей степени соответствовала всем нашим критериям (не без нюансов, о них расскажу чуть ниже). Предложение уникально на рынке, удовлетворяло нас в части технологичности, достаточно удалено от текущих площадок, но при этом находится довольно близко относительно зарубежных каналов до близлежащих стран (согласно карте связности).

Не последним фактором было и то, что Самара — практически малая родина Рег.ру, одно из тех мест, где мы активно нанимаем сотрудников и имеем собственный офис. В близкой транспортной доступности оказалась и часть наших собственных инженеров, готовых подстраховать инженеров ЦОДа. Они участвовали и непосредственно в монтаже.

Ну и конечно, там вкусное пиво!


Немного про Жигулевскую долину
Дата-центр «Жигулевская долина» находится на территории одноименного технопарка в Самарской области. ЦОД соответствует уровню отказоустойчивости Tier III Uptime Institute. Прошел сертификацию Uptime Institute о соответствии стандартам Tier Design и Tier Facility. И — что важно — здесь можно разместить собственное оборудование.

В ЦОДе шесть машинных залов общей площадью 843 кв.м, вмещающих 326 стоек мощностью от 7 до 20 кВт каждая. Сеть передачи данных построена с применением коммутаторов HP FlexFabric и Juniper QFabric. Система бесперебойного и гарантированного электроснабжения построена на дизель-динамических источниках бесперебойного питания. Если электроэнергия прекращает поступать, ротор вращается по инерции и электрическая установка продолжает вырабатывать ток еще несколько секунд. Этого времени хватает на запуск дизель-генератора. Таким образом, работа оборудования не прекращается ни на секунду.


И-и-и, поехали! Или нет?
С какими мы столкнулись трудностями?

Первое: не оказалось свободных портов нужной емкости у текущих операторов, — запустили стройку от двух новых независимых.

Второе: задержка поставки оборудования относительно планового заказа составила 8 месяцев. Если бы мы ждали изначально заказанное оборудование, вероятнее всего, не запустились бы до сих пор. Поэтому мы разместили параллельный заказ и получили оборудование от другого вендора за 3 месяца, что уже не так значительно повлияло на сроки, и мы смогли запуститься в рамках ранее анонсированных обещаний и не слишком выходя за границы roadmap.

Третье: в процессе монтажа, уже на месте, мы выявили некоторую некомплектность заказа. Эти проблемы удалось решить оперативно благодаря собственным запасам. Расходники типа патч-кордов курьеры оперативно привозили прямо на площадку.

Все трудности оказались преодолимы и мы запустились под песню Шуфутинского 3 сентября.

Что у нас получилось
На текущий момент в «Долине» запущено несколько стоек с вычислительными (compute) узлами на базе платформ Gigabyte следующей конфигурации:
  • 2х AMD EPYC 7543;
  • 1024Gb RAM;
  • 4х SSD 7.68Tb NVME;
  • 2x 40G NICs.
Для управляющих узлов (control plane) мы использовали двухпроцессорные платформы на базе Intel Scalable Gold.
Узел связи собран на основе оборудования Cisco и Juniper. Все ноды подключаются дублированным 40Gbit-ным подключением, весь сетевой стек продублирован и подключен 40Gbit-ой агрегацией.


Также продублированы каналы связи двумя независимыми поставщиками.

Пока мы запустили только IaaS на базе «производительной» тарифной линейки, однако уже скоро в регионе станут доступны к заказу и другие ключевые облачные сервисы (DBaaS, KaaS и S3).
www.reg.ru/cloud/vps/

Локация подразумевает возможность расширения. Мы также рассматриваем запросы на размещение частных облаков и аренды выделенных серверов на этой площадке.

С Наступающим! Поздравления, итоги года и скидка





Поздравляем вас с наступающим Новым Годом и Рождеством!
Желаем вам всего наилучшего и больше времени проводить в кругу близких и друзей. Мы искренне рады, что многие из вас стали нашими друзьями, и все эти годы вы с нами!

Каждый день наша команда стремится улучшать наш сервис и расширять предложения. Подводим небольшие итоги года:
  • Обновления на сайте: Наш сайт значительно изменился за год, и теперь предлагает множество полезных функций. Нам было бы приятно получить вашу обратную связь!
  • Глобальное присутствие: Серверы нашей компании теперь находятся в 10 странах (России, Нидерландах, США, Израиле, Молдове, Армении, Турции, Германии, Франции и Гонконге). Мы готовы удовлетворить любые ваши потребности в оборудовании и каналах по всему миру.
  • Новые возможности VPS: Мы запустили продажу виртуальных серверов с каналом 1 Гбит в различных странах и внедрили калькулятор для создания индивидуальной конфигурации сервера.
  • Усовершенствование оборудования: Мы обновили линейку серверного оборудования в России. Теперь у нас есть отличные предложения для решения самых масштабных задач — от 1С Бухгалтерии и корпоративных порталов 1С-Битрикс, Битрикс24 до мобильных приложений и кластеров для виртуальных решений, включая вычислительные мощности для AI — искусственного интеллекта.
  • В честь праздников мы рады предложить вам скидку 10% на заказ и продление услуг!
  • Скидка действует с 24 декабря 2024 года по 8 января 2025 года включительно. Используйте промокод: newyear2025.

Обратите внимание, что с 15.01.2025г. цены на некоторые тарифные планы услуг хостинга, виртуальных серверов и аренды серверов будут изменены в среднем на 10%.

Обращаем ваше внимание, что при пополнении баланса банковским переводом необходимо учитывать, что во время праздничных дней банки не работают, а переводы могут обрабатываться с задержкой. Рекомендуем пополнять баланс заранее, чтобы избежать неудобств и обеспечить своевременное выполнение операций.

Желаем вам счастья, процветания и достижения всех поставленных целей в новом году!

webhost1.ru

Новогодняя скидка 15% на услуги Рег.ру




С наступающим Новым годом!
Команда Рег.ру поздравляет вас с наступающим 2025 годом! Пусть новый год принесёт вам много возможностей для развития и успеха. Мы уверены, что 2025 год будет для вас годом ярких достижений.

Хотим сделать начало нового года ещё более выгодным. Для этого мы подготовили специальный новогодний подарок!

Промокод на скидку 15%
При оформлении заказа нажмите на значок Значок промокода рядом с кнопкой «Оплатить», чтобы ввести промокод.
NEWYEAR2025

www.reg.ru

Запуск S3, облачные серверы с GPU и KaaS: подводим итоги года Облака Рег.ру



Всем привет! На связи команда Облака Рег.ру.
Спасибо, что выбрали наше облако, доверили свои данные, инфраструктуру и бизнес. Сегодня проводим ретро прошедшего бодрого года и заглядываем в планы на предстоящий, чтобы вы смело могли ответить на вопрос «А почему я именно с Рег.ру?».

Выполнили двухлетний план за год
В 2023 году мы запустили новую облачную платформу на OpenStack (подробно рассказали об этом в статье), а 2024 год мы ознаменовали выходом в ТОП облачных провайдеров (№ 3 PaaS по данным TAdviser Analytics), продуктового и технологического соответствия стандартам рынка облачных услуг.

К концу года на счету нашей команды 20+ мажорных релизов, связанных с IaaS- и PaaS-решениями, железом и каталогом приложений. В среднем получилось по 2 релиза в месяц, не считая обновлений и фиксов. Мы активно росли не только в количестве сервисов и фич, но и инфраструктурно: расширили парк серверов, географию присутствия, переезжали в более современные ЦОДы. Самое важное, что нельзя пропустить:

Инфраструктурные сервисы
Запустили новую линейку производительных серверов с процессорами AMD EPYC и NVMe накопителями во всех регионах присутствия. Доступны конфигурации до 48 vCPU, 80 ГБ RAM и объемом диска с NVMe-накопителями до 960 ГБ, что гарантирует высокую скорость.

Продолжили региональную экспансию: у нас есть ЦОДы в Москве, Санкт-Петербурге и Тольятти (aka Жигулевская долина). Последний регион мы запустили в сентябре, и это открывает новые возможности для развертывания полностью геораспределенной ИТ-инфраструктуры. А в октябре переехали в новый ЦОД в Санкт-Петербурге. Переезд занял два месяца, а самое главное ― перекочевали совершенно незаметно для клиентов, без перезапусков и остановок продаж. Про это подробно рассказали в нашем Хабре ― читайте по ссылке.

Закупили, установили на машины видеокарты и запустили облачные серверы с GPU. «Под капотом» — cерверы с мощными процессорами AMD EPYC и быстрыми накопителями NVMe SSD, видеокарты NVIDIA A5000 24ГБ и A100 80ГБ, специальный образ ОС Ubuntu с предварительно установленными библиотеками и настроенными утилитами. И все это по модели оплаты pay-as-you-go.
www.reg.ru/cloud/cloud-gpu

Добавили возможность работать с публичными адресами серверов как с отдельными сущностями. И расширили возможности сетей: пропускная способность между виртуальными серверами, подключенными к одной приватной сети, увеличена до 1 Гбит/с. Исходящий трафик в сеть интернет через публичный IP-адрес — 350 Мбит/с.

Внесли нашу облачную платформу в реестр российского программного обеспечения — это подтверждает соответствие продукта стандартам и требованиям.

Платформенные сервисы
В начале года мы вывели облачные базы данных из беты, обеспечили пользователям удобное управление, добавили возможность выбора локали базы. Сейчас доступны PostrgeSQL и MySQL. Мы оперативно обновляем представленные версии БД — добавили 17 версию PostgreSQL в облачную платформу спустя всего неделю после официального релиза.
www.reg.ru/cloud/postgresql
www.reg.ru/cloud/mysql

В августе мы запустили Kubernetes as a Service (KaaS). Выбор managed-сервиса в виде KaaS был очевиден. Во-первых, наша облачная платформа и сама использует Kubernetes. Во-вторых, Kubernetes востребован на рынке, в том числе и нашими действующими клиентами. Самостоятельное его развертывание занимает в среднем от нескольких часов до нескольких дней, поэтому услуга Kubernetes as a Service экономит время и силы. Здесь мы так же, как и для нашего DbaaS, следим за актуальностью версий, и сейчас у нас представлены версии Kubernetes 1.30.5 и 1.31.1.
www.reg.ru/cloud/managed-kubernetes

S3
Запустили объектное хранилище S3, признанный стандарт для облачного хранения данных. Этот релиз стал одним из самых важных и последним в этом году.
www.reg.ru/cloud/s3-storage

И еще сделали много всего полезного
Весь каталог приложений доступен по ссылке.
www.reg.ru/cloud/apps


Выросли в 3 раза
За 24 двухнедельных спринта мы выпустили более 100 релизов и закрыли около 3000 тикетов. Наши разработчики написали миллионы строчек кода, тестировщики протестировали сотни юзкейсов, верстальщики сверстали 30+ лендингов, поддержка отработала около 30 000 обращений, команда продукта описала 50+ бизнес-требований. Такая скорость работы была необходима для своевременного отклика на продуктовый запрос наших клиентов, действующих и новых, и потребовала трехкратного увеличения команды.
Растущая команда остро нуждается в постоянной коммуникации внутри, потому отдельная наша боль — отказ от дискорда, где велась большая доля обсуждений. Но мы всего за несколько дней переехали в новый софт, не выпадая из общего информационного поля. Кроме ухода привычных сервисов удавалось безболезненно (почти) преодолеть и другие стандартные трудности ИТ-рынка — задержки поставок, обновления требований, поиск достойных кандидатов, регулярные атаки. Аптайм удалось держать на уровне 100% весь год, так что мы точно справились.

Стали ближе к клиентам
Активная клиентская база в этом году приросла на 2 400 организаций и частных пользователей, а количество регистраций в среднем в месяц составило 5 400 пользователей. Важно было узнать, кто наши новички, с какой проблемой и потребностью они пришли, плюс вовремя успевать масштабировать сам продукт и поддержку.
Мы проводили пользовательские исследования, стали запускать паки решений под определенные задачи, улучшали наш UX/UI, выделили под Облако отдельную линию поддержки. С октября «облачная» поддержка отработала более 6 400 обращений, 92% из которых были закрыты в день обращения клиента.


Осенью этого года провели опрос среди клиентов, и теперь знаем вас еще лучше, а также запустили все сервисы, к которым вы показали наибольший интерес. 42% наших клиентов работают в IT, 13% клиентов заняты в производстве, 11% — в eCommerce, а ещё наше облако востребовано в сферах образования, финансов и ритейла.
На этой волне начали запускать паки решений под конкретные задачи. В будущем планируем расширить количество таких решений, а еще собирать их не только под задачи, но и под отрасли в целом.
Решения для интернет-магазинов www.reg.ru/cloud/ecommerce-website
Решения для разработки и тестирования www.reg.ru/cloud/dev-test
VDI (удаленные рабочие столы) www.reg.ru/cloud/cloud-desktop
Завели новую рубрику — success stories клиентов, вот некоторые из них:


Знаем, что искать ответы на возникающие вопросы бывает не так просто, поэтому мы работаем над нашей базой знаний — выпускаем документации, инструкции и how-to статьи. Некоторыми из них мы делились в Хабре, например, лидер по сохранениям — как развернуть сервис imgroxy в Kubernetes.
help.reg.ru/support/servery-vps/
habr.com/ru/companies/runity/articles/856686/

Запустили грантовую программу, ведь прекрасно понимаем, как важна поддержка при запуске своего бизнеса.
www.reg.ru/cloud/grant

Дорога в 2025 год
2025 год видим для себя не менее бодрым, тизерим несколько продуктов и релизов, которые планируем выпустить:
  • Бэкапы как сервис — Backup as a Service — BaaS
  • Сервис для хранения и управления артефактами ПО — Registry as a Service — RaaS
  • Блочное хранилище и сетевые диски
  • Балансировщики как сервис — Load balancer as a Service — LbaaS
  • Новые PaaS-сервисы (Kafka, Rabbit MQ и другие)
  • Новые образы ПО и ОС
  • И многое другое!
И это только то, над чем мы уже активно работаем, плюс мы будем улучшать наши текущие продукты — IaaS, DbaaS, KaaS и S3. Оставайтесь на связи и не пропускайте обновления. А если вы хотите предложить нам что-то включить в наши планы, поругать нас или похвалить, указать на что-то неудобное в продукте или подсказать возможность для улучшения — пишите нам на cloudvps@reg.ru, мы будем рады.

Облачно, возможны осадки в виде подарков
На Новый год не обойтись без подарков, ими и завершим статью. Уверены, что все мы пользуемся ежедневно ТГ, поэтому решили сделать стикерпак от Облака Рег.ру, который вы сможете использовать для ежедневного общения с коллегами и друзьями.
С наступающим!