Отличная работа всей команды!



Мы только что закончили исправление всех клиентов Hosted Private Cloud под vSphere (7, 8), связанное с ошибкой безопасности VMSA Broadcom 2025-004. Чтобы обновить стек VMware нескольких десятков тысяч клиентов, команды работали в режиме 3/8 и 7/7 в течение 3 недель без остановок. Исключительная работа, которую некоторые из наших клиентов действительно оценили! Спасибо!

Пройди опрос и получи бесплатно ЛЮБОЙ VPS-сервер на 30 дней из списка



Мы заметили, что Вы перестали пользоваться нашими услугами. Пожалуйста, уделите 3 минуты своего времени и пройдите короткий опрос для улучшения качества наших услуг — ссылка
forms.gle/qMuYrwDaTAJfgXWH9

В качестве благодарности за Ваше внимание мы предоставим бесплатные VPS-серверы (даже самые мощные тарифы) на 30 дней первым 50-ти пользователям, заполнившим наш опрос. Не упустите свой шанс!

Любой тариф VPS-сервера на 30 дней абсолютно бесплатно
Среди локаций Serverius, Hetzner, TornadoDC

Всего 3 стойкоместа могут принять нагрузку в 50 кВт




Вот несколько инсайтов от нашего генерального директора Василия Степаненко:
  • Всего 3 стойкоместа могут принять нагрузку в 50 кВт. Можно обойтись без межрядных кондиционеров.
  • В одну такую стойку вмещается 26 серверов. Каждый можно оснастить 4 картами NVIDIA Tesla H100.
  • Практически бесшумная работа (можно размещать хоть в офисном здании!).
  • Чтобы установить такую систему охлаждения, придется попрощаться с гарантией производителя, т. к. в процессе установки сервер разбирают, убирают кулеры и меняют термопасту.
  • Водяное охлаждение не требует масштабного техобслуживания — только базовый уход.

Для колокейшена такое решение, правда, не подойдет, но для облачного провайдера, специализирующегося на GPU-сервисах (а Nubes именно такой) — это многообещающая технология.

nubes.ru

Теперь в Nubes можно взять в аренду сервер

Да, коммерческий дата-центр — место практически неприступное. И с физической точки зрения, и с информационной. А еще в нем есть резервирование энергоснабжения, современная система охлаждения, надежная телеком-инфраструктура и специалисты, которые помогают ЦОДу работать без сбоев.

Чтобы все это организовать собственными силами, нужно здорово вложиться. И деньгами, и человеческими ресурсами. Для стартапов (да и не только для них) такие затраты — роскошь на грани разорения. Иногда даже в буквальном смысле.

Мы это понимаем, принимаем и в список услуг добавили одну, которая порадует тех, кто не готов в моменте закупать оборудование, нанимать дополнительных людей в ИТ-команду и планирует быстро масштабироваться.

Теперь в Nubes можно взять в аренду сервер. И не просто взять, а взять на выгодных условиях — 90 000 руб/мес.

Конфигурация сервера:
  • Серверная платформа 270W (8 U.2-NVMe/SATA+4 NVMe+2 M.2 x 3 PCIe4.0x16+1 PCIe4.0x8 + mezz PCIe4.0x16) — 1
  • Intel Xeon Gold 6354 (18 cores, 3.0/3.6 Ghz, 39 MB Cache, 205W TDP) — 2
  • 64GB 3200MHz DDR4 RDIMM ECC — 16
  • SSD NVMe M.2.2280 PCIe 3,0x4 500 Gb — 1
  • SSD U.2 2.5" NVMe 3.84TB PCIe Gen4x4 (7mm) — 8
  • Карта 25 Gbps PCIe gen3/gen4 2 порта SFP28 — 2
  • Оптический трансивер 25GE-SFP28 Optical Transceiver SR — 4

Что по плюсам?
  • Совместим со многими программными продуктами. В том числе с OpenStack (РОСА, RED OS, Astra Linux, ALT Linux, ОСОН Основа и ОСОН Стрелец, Microsoft, RedHat, VMware и др.).
  • Универсальный ЗИП, который позволяет быстро устранять проблемы с компонентами, если они вдруг возникнут.
  • Обслуживанием и мониторингом оборудования занимаются наши специалисты, и нагрузки на ИТ-команду нет.
  • Арендованное оборудование изолируется от всего остального в ЦОДе. Так еще больше повышается уровень безопасности данных.

nubes.ru

Миссия выполнима, или как мы проходили сертификацию Tier III Facility в работающем ЦОДе [Часть 2]

Для получения сертификата ЦОДы проверяют не только на устойчивость системы охлаждения, но и на устойчивость энергетической системы.

Как мы справились с этой частью, рассказал наш главный энергетик Олег Царев.

Первый и, наверное, самый важный шаг при прохождении подобных проверок — разработка плана действий каждого сотрудника. А сотрудников, которых мы привлекли к подготовке, было одиннадцать. И это только те, которые трудятся в штате.

Специалисты, которые участвовали в подготовке к сертификации, и их задачи
  • Технический директор осуществлял общую координацию.
  • Директор по эксплуатации координировал действия дежурной смены.
  • Директор по строительству контролировал работу оборудования в ГРЩ.
  • Главный энергетик выполнял переключения.
  • Старший инженер холодоснабжения следил за работой кондиционеров.
  • Специалист по мониторингу следил за его работой.
  • Двое дежурных эксплуатации контролировали работу оборудования в машзалах.
  • Двое дежурных инженеров и дежурный администратор следили за работой оборудования по мониторингу.

Для удобства мы сконфигурировали отдельный дашборд с отображением всех необходимых при прохождении сертификации параметров:
  • Позальная и полная IT-мощность.
  • Мощность каждого ГРЩ и полная мощность работающих кондиционеров.
  • Мощность работающих ДГУ.
  • Температура охлаждающей жидкости в ДГУ.
  • Уровень топлива в ДГУ.
  • Уровень масла в ДГУ.
  • Мощность потребления каждого ЩИБП, ЩР, ЩК.
  • Статус ИБП (процент заряда батарей, оставшееся время работы на батареях, потребляемая мощность ИБП, общая и по каждой фазе).



Кроме наших сотрудников, к подготовке мы привлекли по два человека от каждой подрядной организации, обслуживающей оборудование. Они делали необходимые переключения и находились на «боевом» дежурстве на случай возникновения аварийной ситуации.

Специалисты подрядных организаций
  • Электрики, обслуживающие РУ 10кВ, отключали и включали по команде силовые трансформаторы, имитируя пропажу городского питания или вывод трансформаторов в ремонт.
  • Электрики, обслуживающие низкую сторону, помогали с подключением тепловых пушек.
  • Дизелисты контролировали работу ДГУ и выводили их в ремонт.
  • Специалисты по ИБП следили за работой ИБП и аккумуляторов, осуществляли разборку ИБП.
  • Специалисты по пожарной сигнализации осуществляли вывод системы в ремонт и производили контроль ее работы.
  • Инженеры холодильного оборудования следили за кондиционерами.

Основной сложностью при прохождении сертификации было наличие действующих клиентов. Любая ошибка или авария — и работа клиентских сервисов могла бы встать. Права на ошибку не было.

Tier III подразумевает вывод любой единицы оборудования в ремонт без воздействия на критическую инфраструктуру при номинальной нагрузке. Например, одного из трех ГРЩ, одного из трех ДГУ, какого-нибудь ИБП или щитка, питающего АБК. А так как мы относительно молодой ЦОД, нагрузка еще не успела вырасти до номинальной, и пришлось добирать ее тепловыми пушками. Поэтому, чтобы тест прошел успешно, важно было сделать две вещи:
  • Рассчитать недостающую нагрузку, чтобы компенсировать ее с помощью пушек.
  • Доработать электрические щиты, чтобы была возможность подключить пушки большей мощности.

Вроде все достаточно просто, но и тут есть нюансы.

Во-первых, во время проведения сертификации прерывание мониторинга недопустимо. Поэтому к щитам мониторинга пришлось подводить второе питание.

Во-вторых, найти в необходимом количестве подходящие пушки, которые будут соответствовать проектной мощности стойки, сложно. Поэтому нам пришлось импровизировать и использовать пушки разной мощности. Частью из них, с нами поделились коллеги из Selectel, за что мы им сильно благодарны.

Наши сотрудники устанавливали маломощные пушки прямо в пустые стойки клиентов, предварительно получив их согласие. В большинстве случаев клиенты понимали важность сертификации и шли навстречу, но были и исключения. Тогда нам приходилось размещать пушки в других местах.

В-третьих, для подключения пушек нужны удлинители, с которыми тоже были сложности. Нам не хватило длины проводов, поэтому пришлось экстренно искать кабели, груши и людей, которые все это соберут воедино.


В-четвертых, постоянно менялась схема расстановки пушек, нужно было быстро реагировать и перемещать их.

В-пятых, у тепловых пушек есть своего рода «климат-контроль», который отключал их, когда температура вокруг становилась достаточно высокой. Из-за этого нам пришлось ставить дополнительные пушки, чтобы компенсировать мощность отключившихся.

Переключать питание пушек во время тестов по отключению одного из лучей — отдельный аттракцион, на который ушло много ресурсов. Все потому, что необходимо было сохранить номинальную нагрузку, а мест для подключения становилось меньше.

Очень опасным в плане надежности электроснабжения был тест с поочередным выведением в ремонт ДГУ. У проводящего сертификацию специалиста были считанные минуты на проверку выполнения теста, пока электроснабжение осуществлялось от аккумуляторных батарей.

Кстати, про ДГУ! Во время тестов именно они должны питать ЦОД, а не городская сеть. Поэтому крайне важно было следить за уровнем топлива постоянно. Здесь все достаточно просто: договорился с поставщиком, согласовал график подвоза топлива, заправил. Мы это делали каждую ночь в моменты перерывов между тестами. Так день начинался с полностью заправленными машинами, и можно было не переживать, что во время теста топливо закончится, и питание отключится.


Да, мероприятия подобного рода — серьезная вещь, но место забавным ситуациям все-таки нашлось.
  • Мы разработали план действий на случай аварийного отключения питания. Этот план должен был снизить перегрев оборудования. Суть его была в том, что, услышав команду «Восстанавливаемся» по рации или в чате, сотрудники должны отключить тепловые пушки.
  • Исполнитель отключил ИБП, замерил показатели и доложил о готовности к включению. В ответ получил: «Восстановление подтверждаю».
  • Из-за схожести команд «Восстанавливаемся» и «Восстановление подтверждаю» случилась путаница. Сотрудники начали отключать пушки. Это показали датчики мониторинга — нагрузка в залах упала.
  • Демонстрацию пришлось переделывать, и мы поняли: команды должны звучать максимально по-разному. Поэтому в следующий раз использовали кодовое слово «банан».

На этом история про аудит заканчивается, но работа над улучшениями продолжается. Ведь следующий шаг — получение сертификата Tier III Operations.

Миссия выполнима, или как мы проходили сертификацию Tier III Facility в работающем ЦОДе

Представьте себе квест, где вам нужно превратить обычный дата-центр в настоящую холодильную камеру, при этом не заморозив клиентское оборудование и не устроив тропический рай там, где должен быть технологический холод. Или, например, нагрузить ЦОД по максимуму, а потом отключать источники питания, да так, чтобы все продолжало работать. И всё это под пристальным взглядом аудиторов, готовых придраться к каждому градусу!

В сентябре ЦОД Nubes прошел этот квест, чтобы заслужить сертификат Tier III Facility от UpTime Institute. И двое наших ребят поведали, как войти в ~5% дата-центров в мире, которые прошли проверку с находящимися в нем клиентами.

В этой статье Алексей Сидоров, старший инженер холодоснабжения, поделился своей историей и рассказал, как выжить в условиях, когда тепловые пушки и серверные стойки играют в свою версию «кошки-мышки», а система мониторинга решила устроить День независимости. Запасайтесь попкорном (только не кладите его близко к серверам) — будет жарко! Точнее, холодно. В общем, читайте сами!

Кто сильнее: тепловые пушки или кондиционеры?

Генеральный директор и директор по эксплуатации ЦОД поставили команде задачу — пройти аудит и получить сертификат Tier III Facility. Это важный для компании документ, который открывает двери для сотрудничества с самыми требовательными клиентами. Так как мы молодой провайдер, получить этот сертификат крайне необходимо.

У меня и моей команды подобного опыта раньше не было, и, если честно, я нервничал. Нервничал и активно готовился к проверке.

Глобально задача у старшего инженера холодоснабжения одна — привести все системы кондиционирования в «боевую» готовность, выйти на максимальную тепловую нагрузку и «простоять» на ней всю неделю, отключая резервные узлы согласно схеме резервирования. Плюсом надо было довести до идеала систему мониторинга и оповещения.



Кажется, что не так уж все и сложно. Пушки по всему ЦОДу врубил, кондиционеры активировал и ждешь себе спокойно семь дней. И так бы, может, оно и было, только первая и самая большая сложность в том, что дата-центр уже функционирует и в нем стоят десятки клиентов. Одна ошибка – и последствия будут печальными для всех.

А давайте-ка включим все на полную мощь и посмотрим, как все будет работать

Подготовка к аудиту — чудесная возможность увидеть недочеты и исправить их. В процессе тестирования мы столкнулись с неочевидными проблемами, которые в штатном режиме вряд ли бы заметили. Вот на что стоит обращать внимание:

1. При запуске всех прецизионных кондиционеров на полную обнаружились недостатки, которые мы не увидели в процессе комплексных испытаний. Например, время выхода компрессора на полную мощность после имитации пропажи питания достигало порядка 10 минут и температура поднималась до пиковых значений по условиям SLA. Нам пришлось долго изучать параметры и экспериментировать с конфигурациями, чтобы найти оптимальные настройки. После внесения корректировок время выхода кондиционера в нужный режим сократилось с 10 до 3 минут.

2. На дашборде мониторинга не отображались некоторые незначительные алармы кондиционеров, местами не соответствовала цветовая индикация, а расположения двух датчиков не соответствовали мнемосхеме. Разумеется, это все мы поправили.



3. На момент аудита в залах уже были клиентские стойки, что очень сильно ограничивало нас в плане размещения пушек. Их необходимо много, и размещать пушки важно так, чтобы поток горячего воздуха не перегревал клиентские стойки. Для этого мы решили изготовить «холодные» коридоры. Но так как количество времени было ограничено, мы могли использовать только те материалы, которые можно достать сверхбыстро. Армированная пленка, профиль и скотч — идеальные варианты!


Минусы, конечно, тоже были. Структура стоек оказалась слишком фактурной, скотч держался плохо, и приходилось постоянно подклеивать образовавшиеся отверстия. В целом такое решение себя полностью оправдало. Прибегнул бы я к нему в схожей ситуации? Однозначно да!


4. Когда кондиционеры начали работать на полную мощность, обнаружилась проблема с LAC-клапанами. После долгого простоя, рабочий шток внутри клапана закисал, оставляя клапан в открытом положении. Кондиционеры с избыточным количеством хладагента вставали по высокому давлению. А так как времени у нас было немного, приходилось буквально «перекусывать» трубки клапана, чтобы принудительно его закрывать. Клапаны, естественно, поменяли на новые.

Хорош не тот, кто не делает ошибок, а тот, кто делает выводы!

В конечном итоге, как вы уже поняли, все у нас получилось, но определенные выводы мы сделали. И если вы, как и я, отвечаете за холод в дата-центрах, то дочитайте до конца.

  • Вывод №1. Проходить сертификацию Tier III Facility лучше до того, как в ЦОД заедут клиенты, чтобы не возникало опасности перегрева клиентского оборудования.
  • Вывод №2. Подготовку к аудиту нужно начинать за 3-4 месяца.
  • Вывод №3. Тестирование с последовательным отключением по уровню N+1 могло бы помочь выявить проблему со скоростью выхода компрессора на полную мощность раньше. Но из-за недостаточной нагрузки в дата-центре такой тест проводился в ограниченном режиме.
  • Вывод №4. Важно фиксировать все изменения конфигураций, следить за количеством заправленного фреона, мониторить систему на предмет утечек и требовать от подрядчика официально оформленных объяснений, в случае если есть вопросы и сомнения.
  • Вывод №5. При приемке оборудования необходимо сымитировать как можно больше ошибок в работе систем холодоснабжения, чтобы проверить их идентичность с системой мониторинга. Да и вообще, все оборудование нужно принимать строго по чек-листу.
  • Вывод №6. Во время пусконаладочных работ клапан необходимо тщательно осматривать. Например, скрип при его работе — явный признак некачественного монтажа, что в дальнейшем приведет к его поломке.

REG.ru Cloud changelog 2024-2025


27 марта 2025
Выделенный CPU

Добавили тариф «Выделенный» со 100% гарантированной долей CPU

20 марта 2025
Astra Linux: Новый образ

Добавили образы Astra Linux 1.8.1 SE Орёл и Astra Linux 1.8.1 SE Воронеж.

18 марта 2025
Приватные сети

Добавили функционал управления приватными сетями и подсетями на платформе OpenStack.

6 марта 2025
Kubernetes: Обновления

  • Добавили операцию добавления группы нод для Kubernetes кластеров. Ранее добавить группу можно было только на этапе создания кластера.
  • Добавили операцию изменения количества нод в группе для Kubernetes кластеров. Ранее выбрать количество нод в группе можно было только на этапе создания нового кластера.
  • Увеличили лимит на количество групп и нод до 10 для Kubernetes кластеров.
  • Добавили операцию удаления группы нод для Kubernetes кластеров. Ранее можно было только создать новый кластер с нужным количеством групп.
  • Добавили новую версию Kubernetes 1.30.8.
  • Добавили операцию смены тарифа группы нод для Kubernetes кластеров.
  • Добавили операцию переименования группы нод для Kubernetes кластеров.
  • Добавили таб с информацией о балансировщике.

3 марта 2025
Обновление системы учета ресурсов

Обновили систему учета ресурсов IaaS. Подробное описание доступно по ссылке

20 февраля 2025
Сертификаты ISO

Получили сертификаты на соответствие требованиями ISO/IEC 27001:2013, 9001:2015 и 20000-1:2018. Подробнее

30 января 2025
CentOS Stream: Новый образ

Добавили образ CentOS Stream 10 для серверов на платформе Openstack.

23 января 2025
Kubernetes: Обновления

Добавили операцию включения и отключения отказоустойчивости для кластеров Kubernetes.

9 декабря 2024
S3-хранилище

Запустили объектное хранилище S3. Оплата только за объем хранения. Тариф — 2,16 руб. за 1 ГБ в месяц.

6 декабря 2024
Astra Linux: Новый образ

Добавили образ российской операционной системы Astra Linux для серверов на платформе Openstack. К заказу доступны версии «Орел» и «Воронеж».

21 ноября 2024
Kubernetes: Обновления

Для заказа стали доступны версии Kubernetes 1.30.5 и 1.31.1

8 ноября 2024
Zabbix

Добавили образ приложения Zabbix для OpenStack платформы серверов.

7 ноября 2024
Производительные сервера в Санкт-Петербурге

Стали доступны серверы с процессорами AMD EPYC в Санкт-Петербурге

7 ноября 2024
Новые тарифы производительных серверов

Вдвое расширили конфигурации — до 48 vCPU, до 80 ГБ RAM и NVMe до 960 ГБ.

29 октября 2024
Серверы с GPU

Теперь доступны для заказа серверы с видеокартами NVIDIA для сложных вычислений и задач ИИ

14 октября 2024
Новый ДЦ в Санкт-Петербурге

Переехали в «Дата-Центр N1» от ОБИТ в Санкт-Петербурге

8 октября 2024
PostgreSQL: Обновления

Добавили версии 16 и 17

16 сентября 2024
Обновление мастера заказа

Изменили общую схему работы и улучшили несколько ключевых функций

2 сентября 2024
Новый регион — Самара

Теперь для заказа стали доступны серверы на платформе OpenStack в новом регионе.

21 августа 2024
BitrixVM

Стал доступен для заказа образ BitrixVM на CentOS 9.

14 августа 2024
Образы приложений: Обновления

Добавили образ OpenVPN для OpenStack платформы серверов.

5 августа 2024
Managed Kubernetes

Стала доступна услуга Kubernetes в облаке (KaaS).

31 июля 2024
Управление настройками БД

Добавили управление настройками БД для кластеров с MySQL и PostgreSQL. Шторку с расширенными настройками можно открыть в мастере заказа и карточке кластера.

24 июля 2024
Fedora Linux: Новый образ

Добавили образ Fedora Linux 40 для серверов на платформе Openstack.

25 июня 2024
PostgreSQL: Обновления

Добавили выбор локалей базы данных в панели и мастере-заказа кластера DBaaS для PostgreSQL.

17 июня 2024
GitLab и GitLab Runner

Теперь для заказа доступны серверы с предустановленными GitLab и GitLab Runner.

21 мая 2024
Docker на Ubuntu 24.04

Добавили возможность заказа Docker на Ubuntu 24.04 в регионах Москва и Санкт-Петербург.

15 мая 2024
Образ Ubuntu 24.04

Добавили возможность заказа сервера с предустановленным образом Ubuntu 24.04

2 мая 2024
Плавающие IP

Обновление для серверов на платформе Openstack: добавили возможность работать с публичными адресами серверов как с отдельными сущностями.

22 апреля 2024
Новая линейка тарифов «Производительный» для серверов на платформе Openstack

Обновление в линейках тарифов: теперь для заказа доступны серверы с повышенной производительностью и эффективностью. Стоимость — от 480 руб./месяц.

20 февраля 2024
Вывели из бета-версии сервис баз данных

Облачные базы данных вышли из статуса беты: приглашаем воспользоваться всеми доступными функциями и поделиться с нами впечатлениями от использования в форме справа.

15 февраля 2024
Удобное управление базами данных

Добавили предоставление доступа к базам данных для конкретного пользователя.
Ранее также можно было предоставить доступ, но только от базы к пользователю. Теперь доступ можно назначать и на странице управления базами, и на странице управления пользователями.

9 февраля 2024
Удобный переход в раздел «Мои заявки»

Добавили ссылку/кнопку «Мои заявки» в выпадающее меню поддержки в левом навигационном сайдбаре.

6 февраля 2024
Управление пользователями PostgreSQL

Изменили логику удаления пользователя в кластере DBaaS для PostgreSQL.
Ранее в интерфейсе нельзя было удалить owner/владельца база данных. Теперь можно удалить любого пользователя, кроме последнего. Роль владельца будет передана при удалении на другого.

17 января 2024
Интернет — 1 Гбит/с Приватная сеть — 350 Мбит/с

Трафик между виртуальными серверами, подключенными к одной приватной сети, теперь 1 Гбит/с. Исходящий трафик в сеть интернет через публичный IP-адрес — 350 Мбит/с.

17 января 2024
Смена пароля пользователя Облачной базы данных

Добавили возможность изменения пароля пользователя для кластеров Облачных баз данных.

16 января 2024
Управление доступами пользователей внутри Облачных баз данных

Добавили создание и удаление баз данных, а также предоставление доступа пользователям к базам данных для кластера Облачных баз данных.

15 января 2024
Создание и удаление пользователей внутри Облачных баз данных

Добавили создание и удаление пользователей для кластеров баз данных.

11 января 2024
Изменение тарифа PostgreSQL

Добавили изменение конфигурации/тарифа для кластера PostgreSQL в услуге Облачные базы данных.
Обращаем внимание, что изменение тарифа для кластера MySQL на текущий момент недоступно.

7 декабря 2023
Новые конфигурации высокочастотных серверов

Добавили новые конфигурации в конфигуратор highcpu Openstack:
  • vCPU — 3, 6 ядер
  • RAM — 3, 6, 12 ГБ
  • Объём диска — 100, 160 ГБ

29 ноября 2023
Реплики для Облачных баз данных

Добавили возможность создавать реплики для кластеров Облачных баз данных.
Создание реплик доступно для PostgreSQL и MySQL. На текущий момент действует лимит – 5 реплик на 1 кластер.

28 ноября 2023
Образ WireGuard

Добавили в продажу образ приложения Wireguard на платформе Openstack в регионах Москва и Санкт-Петербург.

15 июня 2023
Мы запустили Облако Рег.ру

Облако Рег.ру — это масштабируемая отказоустойчивая облачная инфраструктура, с помощью которой удобно запускать сайты, услуги и сервисы. Облако Рег.ру можно использовать для разработки и тестирования, размещения сайтов, интернет-магазинов, телеграм-ботов, игровых серверов, а также для создания облачного хранилища или сервера видеоконференций.
Для серверов действует почасовая или помесячная оплата на выбор. Вы можете остановить сервер в любой момент и не платить за неиспользуемые процессор и оперативную память.
На любом тарифе вам будут доступны:
  • свободная конфигурация CPU, RAM и дискового пространства;
  • быстрые SSD- или NVME-диски;
  • бесплатная защита от DDoS;
  • удобная панель для управления серверами в личном кабинете;
  • круглосуточная поддержка;
  • выделенный IPv4-адрес;
  • API для автоматизации ваших бизнес-процессов;
  • развертывание и запуск сервера за 1-2 минуты.
Для тех, у кого мало опыта администрирования, мы предлагаем панели управления ispmanager и FASTPANEL. Специально для опытных разработчиков представлены стабильные версии Ubuntu, CentOS, Debian, AlmaLinux, Rocky Linux и готовые шаблоны с Docker, Django, LEMP, LAMP, NodeJS. Также доступна автоматическая установка приложений BitrixVM, Jitsi Meet, Nextcloud.


https://www.reg.ru

Рег.ру ускорил работу с облачной аналитикой в два раза



В облаке Рег.ру удалось провести высоконагруженные вычисления с Big Data и почти на четверть повысить точность принятия решений при работе с аналитическими сервисами.

Российская технологическая компания Рег.ру разместила в облаке отказоустойчивую инфраструктуру IT-разработчика «Фабрика Данных». В рамках сотрудничества компании реализовали проект в области облачной аналитики и работы с Big Data.

Облачная платформа Рег.ру используется компанией «Фабрика Данных» для разработки высоконагруженных приложений. За счет использования облачных серверов с GPU удалось ускорить работу с данными и в два раза сократить время выполнения сложных исследовательских задач.

«Фабрика Данных» занимается аналитикой данных, выявлением трендов и мониторингом спроса, прежде всего, в областях FMCG, производства и финансов. С помощью сервисов компании можно получить персонализированные рекомендации по управлению ассортиментом товаров, ценообразованию и маркетинговым стратегиям. В результате совместного проекта с Рег.ру точность и правильность в принятии решений клиентами «Фабрика Данных» увеличились более чем на 20%.

В области аналитики даже краткосрочный простой может привести к потере данных и материальным издержкам, поэтому надежность и масштабируемость стали ключевыми факторами при выборе облачного провайдера. Во время эксплуатации IT-инфраструктура Рег.ру показала отказоустойчивость на уровне 100%
считает Алексей Никулин, генеральный директор «Фабрика Данных».

Облачные серверы с профессиональными GPU серверного класса спроектированы для надежной работы с ML и Big Data. Сервис значительно ускоряет процесс подготовки аналитических отчетов. А благодаря высокой отказоустойчивости облака Рег.ру проекты работают без сбоев, что особенно важно для компаний, принимающих стратегические решения на основе анализа больших массивов данных
отмечает Евгений Мартынов, директор по информационным технологиям Рег.ру.

Рег.ру запустил облачные серверы с GPU в октябре 2024 года. Сервис оснащен двумя типами видеокарт NVIDIA: А5000 24Гб и А100 80Гб. Сегодня продукт активно используются для выполнения ресурсоемких задач и высоконагруженных проектов, таких как работа с AI и ML, графика и видео, 3D, VDI и др.

www.reg.ru
www.datafabrika.ru

Серверы в Лихтенштейне уже в продаже — заказывайте прямо сейчас!





Троекратное ура! Виртуальные серверы в Лихтенштейне доступны для всех желающих — просто выберите подходящий тариф и сразу же начните работу! Мы открыли продажи раньше времени, но сохранили возможность воспользоваться промокодом, чтобы получить самую крутую и максимальную скидку на сверхскоростные серверы в 45-й локации: PRESALE45 действует до 28.03.2025 до 23:59 UTC+3!

Почему именно Лихтенштейн?
Превосходная инфраструктура — дата-центр отвечает строгим международным стандартам, гарантируя надежность и бесперебойную работу серверов.

Самый центр Европы — близость к самым развитым европейскими странами обеспечивает минимальные задержки и высокую скорость передачи данных.

Высокие стандарты защиты — Лихтенштейн известен своими передовыми законами в сфере кибербезопасности и защиты персональных данных.

С PQ.Hosting вы получаете мощные VPS с 10 Gbps, оптимизированные для самых требовательных проектов. Будьте в числе первых, кто оценит новые возможности!

https://pq.hosting

Оплачивайте серверы быстрее и безопаснее с Apple Pay и Google Pay!



Быстрая и удобная оплата одним касанием
PQ.Hosting расширяет возможности и делает процесс заказа сверхскоростных серверов и дополнительных услуг еще удобнее для клиентов по всему миру. Уже сегодня пользователи могут платить за услуги услуги компании с помощью Apple Pay и Google Pay.

Почему это важно?
Apple Pay и Google Pay — глобальные платежные платформы, которыми ежедневно пользуются миллионы людей. Их главные преимущества — скорость и надежность.

Благодаря системам оплата сервисов происходит в один клик без необходимости долгого ввода данных, а все операции проходят через зашифрованные токены. Это гарантирует, что ваши реквизиты не попадут в общий доступ.

Как оплатить через Apple Pay и Google Pay?
Оплата с помощью Apple Pay или Google Pay занимает всего несколько минут:
  • Авторизуйтесь в личном кабинете на сайте PQ.Hosting.
  • Выберите нужный сервер или услугу и добавьте в корзину.
  • Выберите пункт Revolut Pay / Google Pay / Apple Pay
  • Проверьте заказ и нажмите “Оформить”.
  • На открывшейся странице выберите Apple Pay или Google Pay в зависимости от вашего устройства.

Подтвердите платёж с помощью Face ID, Touch ID или пароля.
Услуга будет активирована сразу после завершения транзакции!

pq.hosting