+101.66
Рейтинг

Виталий Никсенкин

Миссия выполнима, или как мы проходили сертификацию Tier III Facility в работающем ЦОДе

Представьте себе квест, где вам нужно превратить обычный дата-центр в настоящую холодильную камеру, при этом не заморозив клиентское оборудование и не устроив тропический рай там, где должен быть технологический холод. Или, например, нагрузить ЦОД по максимуму, а потом отключать источники питания, да так, чтобы все продолжало работать. И всё это под пристальным взглядом аудиторов, готовых придраться к каждому градусу!

В сентябре ЦОД Nubes прошел этот квест, чтобы заслужить сертификат Tier III Facility от UpTime Institute. И двое наших ребят поведали, как войти в ~5% дата-центров в мире, которые прошли проверку с находящимися в нем клиентами.

В этой статье Алексей Сидоров, старший инженер холодоснабжения, поделился своей историей и рассказал, как выжить в условиях, когда тепловые пушки и серверные стойки играют в свою версию «кошки-мышки», а система мониторинга решила устроить День независимости. Запасайтесь попкорном (только не кладите его близко к серверам) — будет жарко! Точнее, холодно. В общем, читайте сами!

Кто сильнее: тепловые пушки или кондиционеры?

Генеральный директор и директор по эксплуатации ЦОД поставили команде задачу — пройти аудит и получить сертификат Tier III Facility. Это важный для компании документ, который открывает двери для сотрудничества с самыми требовательными клиентами. Так как мы молодой провайдер, получить этот сертификат крайне необходимо.

У меня и моей команды подобного опыта раньше не было, и, если честно, я нервничал. Нервничал и активно готовился к проверке.

Глобально задача у старшего инженера холодоснабжения одна — привести все системы кондиционирования в «боевую» готовность, выйти на максимальную тепловую нагрузку и «простоять» на ней всю неделю, отключая резервные узлы согласно схеме резервирования. Плюсом надо было довести до идеала систему мониторинга и оповещения.



Кажется, что не так уж все и сложно. Пушки по всему ЦОДу врубил, кондиционеры активировал и ждешь себе спокойно семь дней. И так бы, может, оно и было, только первая и самая большая сложность в том, что дата-центр уже функционирует и в нем стоят десятки клиентов. Одна ошибка – и последствия будут печальными для всех.

А давайте-ка включим все на полную мощь и посмотрим, как все будет работать

Подготовка к аудиту — чудесная возможность увидеть недочеты и исправить их. В процессе тестирования мы столкнулись с неочевидными проблемами, которые в штатном режиме вряд ли бы заметили. Вот на что стоит обращать внимание:

1. При запуске всех прецизионных кондиционеров на полную обнаружились недостатки, которые мы не увидели в процессе комплексных испытаний. Например, время выхода компрессора на полную мощность после имитации пропажи питания достигало порядка 10 минут и температура поднималась до пиковых значений по условиям SLA. Нам пришлось долго изучать параметры и экспериментировать с конфигурациями, чтобы найти оптимальные настройки. После внесения корректировок время выхода кондиционера в нужный режим сократилось с 10 до 3 минут.

2. На дашборде мониторинга не отображались некоторые незначительные алармы кондиционеров, местами не соответствовала цветовая индикация, а расположения двух датчиков не соответствовали мнемосхеме. Разумеется, это все мы поправили.



3. На момент аудита в залах уже были клиентские стойки, что очень сильно ограничивало нас в плане размещения пушек. Их необходимо много, и размещать пушки важно так, чтобы поток горячего воздуха не перегревал клиентские стойки. Для этого мы решили изготовить «холодные» коридоры. Но так как количество времени было ограничено, мы могли использовать только те материалы, которые можно достать сверхбыстро. Армированная пленка, профиль и скотч — идеальные варианты!


Минусы, конечно, тоже были. Структура стоек оказалась слишком фактурной, скотч держался плохо, и приходилось постоянно подклеивать образовавшиеся отверстия. В целом такое решение себя полностью оправдало. Прибегнул бы я к нему в схожей ситуации? Однозначно да!


4. Когда кондиционеры начали работать на полную мощность, обнаружилась проблема с LAC-клапанами. После долгого простоя, рабочий шток внутри клапана закисал, оставляя клапан в открытом положении. Кондиционеры с избыточным количеством хладагента вставали по высокому давлению. А так как времени у нас было немного, приходилось буквально «перекусывать» трубки клапана, чтобы принудительно его закрывать. Клапаны, естественно, поменяли на новые.

Хорош не тот, кто не делает ошибок, а тот, кто делает выводы!

В конечном итоге, как вы уже поняли, все у нас получилось, но определенные выводы мы сделали. И если вы, как и я, отвечаете за холод в дата-центрах, то дочитайте до конца.

  • Вывод №1. Проходить сертификацию Tier III Facility лучше до того, как в ЦОД заедут клиенты, чтобы не возникало опасности перегрева клиентского оборудования.
  • Вывод №2. Подготовку к аудиту нужно начинать за 3-4 месяца.
  • Вывод №3. Тестирование с последовательным отключением по уровню N+1 могло бы помочь выявить проблему со скоростью выхода компрессора на полную мощность раньше. Но из-за недостаточной нагрузки в дата-центре такой тест проводился в ограниченном режиме.
  • Вывод №4. Важно фиксировать все изменения конфигураций, следить за количеством заправленного фреона, мониторить систему на предмет утечек и требовать от подрядчика официально оформленных объяснений, в случае если есть вопросы и сомнения.
  • Вывод №5. При приемке оборудования необходимо сымитировать как можно больше ошибок в работе систем холодоснабжения, чтобы проверить их идентичность с системой мониторинга. Да и вообще, все оборудование нужно принимать строго по чек-листу.
  • Вывод №6. Во время пусконаладочных работ клапан необходимо тщательно осматривать. Например, скрип при его работе — явный признак некачественного монтажа, что в дальнейшем приведет к его поломке.

REG.ru Cloud changelog 2024-2025


27 марта 2025
Выделенный CPU

Добавили тариф «Выделенный» со 100% гарантированной долей CPU

20 марта 2025
Astra Linux: Новый образ

Добавили образы Astra Linux 1.8.1 SE Орёл и Astra Linux 1.8.1 SE Воронеж.

18 марта 2025
Приватные сети

Добавили функционал управления приватными сетями и подсетями на платформе OpenStack.

6 марта 2025
Kubernetes: Обновления

  • Добавили операцию добавления группы нод для Kubernetes кластеров. Ранее добавить группу можно было только на этапе создания кластера.
  • Добавили операцию изменения количества нод в группе для Kubernetes кластеров. Ранее выбрать количество нод в группе можно было только на этапе создания нового кластера.
  • Увеличили лимит на количество групп и нод до 10 для Kubernetes кластеров.
  • Добавили операцию удаления группы нод для Kubernetes кластеров. Ранее можно было только создать новый кластер с нужным количеством групп.
  • Добавили новую версию Kubernetes 1.30.8.
  • Добавили операцию смены тарифа группы нод для Kubernetes кластеров.
  • Добавили операцию переименования группы нод для Kubernetes кластеров.
  • Добавили таб с информацией о балансировщике.

3 марта 2025
Обновление системы учета ресурсов

Обновили систему учета ресурсов IaaS. Подробное описание доступно по ссылке

20 февраля 2025
Сертификаты ISO

Получили сертификаты на соответствие требованиями ISO/IEC 27001:2013, 9001:2015 и 20000-1:2018. Подробнее

30 января 2025
CentOS Stream: Новый образ

Добавили образ CentOS Stream 10 для серверов на платформе Openstack.

23 января 2025
Kubernetes: Обновления

Добавили операцию включения и отключения отказоустойчивости для кластеров Kubernetes.

9 декабря 2024
S3-хранилище

Запустили объектное хранилище S3. Оплата только за объем хранения. Тариф — 2,16 руб. за 1 ГБ в месяц.

6 декабря 2024
Astra Linux: Новый образ

Добавили образ российской операционной системы Astra Linux для серверов на платформе Openstack. К заказу доступны версии «Орел» и «Воронеж».

21 ноября 2024
Kubernetes: Обновления

Для заказа стали доступны версии Kubernetes 1.30.5 и 1.31.1

8 ноября 2024
Zabbix

Добавили образ приложения Zabbix для OpenStack платформы серверов.

7 ноября 2024
Производительные сервера в Санкт-Петербурге

Стали доступны серверы с процессорами AMD EPYC в Санкт-Петербурге

7 ноября 2024
Новые тарифы производительных серверов

Вдвое расширили конфигурации — до 48 vCPU, до 80 ГБ RAM и NVMe до 960 ГБ.

29 октября 2024
Серверы с GPU

Теперь доступны для заказа серверы с видеокартами NVIDIA для сложных вычислений и задач ИИ

14 октября 2024
Новый ДЦ в Санкт-Петербурге

Переехали в «Дата-Центр N1» от ОБИТ в Санкт-Петербурге

8 октября 2024
PostgreSQL: Обновления

Добавили версии 16 и 17

16 сентября 2024
Обновление мастера заказа

Изменили общую схему работы и улучшили несколько ключевых функций

2 сентября 2024
Новый регион — Самара

Теперь для заказа стали доступны серверы на платформе OpenStack в новом регионе.

21 августа 2024
BitrixVM

Стал доступен для заказа образ BitrixVM на CentOS 9.

14 августа 2024
Образы приложений: Обновления

Добавили образ OpenVPN для OpenStack платформы серверов.

5 августа 2024
Managed Kubernetes

Стала доступна услуга Kubernetes в облаке (KaaS).

31 июля 2024
Управление настройками БД

Добавили управление настройками БД для кластеров с MySQL и PostgreSQL. Шторку с расширенными настройками можно открыть в мастере заказа и карточке кластера.

24 июля 2024
Fedora Linux: Новый образ

Добавили образ Fedora Linux 40 для серверов на платформе Openstack.

25 июня 2024
PostgreSQL: Обновления

Добавили выбор локалей базы данных в панели и мастере-заказа кластера DBaaS для PostgreSQL.

17 июня 2024
GitLab и GitLab Runner

Теперь для заказа доступны серверы с предустановленными GitLab и GitLab Runner.

21 мая 2024
Docker на Ubuntu 24.04

Добавили возможность заказа Docker на Ubuntu 24.04 в регионах Москва и Санкт-Петербург.

15 мая 2024
Образ Ubuntu 24.04

Добавили возможность заказа сервера с предустановленным образом Ubuntu 24.04

2 мая 2024
Плавающие IP

Обновление для серверов на платформе Openstack: добавили возможность работать с публичными адресами серверов как с отдельными сущностями.

22 апреля 2024
Новая линейка тарифов «Производительный» для серверов на платформе Openstack

Обновление в линейках тарифов: теперь для заказа доступны серверы с повышенной производительностью и эффективностью. Стоимость — от 480 руб./месяц.

20 февраля 2024
Вывели из бета-версии сервис баз данных

Облачные базы данных вышли из статуса беты: приглашаем воспользоваться всеми доступными функциями и поделиться с нами впечатлениями от использования в форме справа.

15 февраля 2024
Удобное управление базами данных

Добавили предоставление доступа к базам данных для конкретного пользователя.
Ранее также можно было предоставить доступ, но только от базы к пользователю. Теперь доступ можно назначать и на странице управления базами, и на странице управления пользователями.

9 февраля 2024
Удобный переход в раздел «Мои заявки»

Добавили ссылку/кнопку «Мои заявки» в выпадающее меню поддержки в левом навигационном сайдбаре.

6 февраля 2024
Управление пользователями PostgreSQL

Изменили логику удаления пользователя в кластере DBaaS для PostgreSQL.
Ранее в интерфейсе нельзя было удалить owner/владельца база данных. Теперь можно удалить любого пользователя, кроме последнего. Роль владельца будет передана при удалении на другого.

17 января 2024
Интернет — 1 Гбит/с Приватная сеть — 350 Мбит/с

Трафик между виртуальными серверами, подключенными к одной приватной сети, теперь 1 Гбит/с. Исходящий трафик в сеть интернет через публичный IP-адрес — 350 Мбит/с.

17 января 2024
Смена пароля пользователя Облачной базы данных

Добавили возможность изменения пароля пользователя для кластеров Облачных баз данных.

16 января 2024
Управление доступами пользователей внутри Облачных баз данных

Добавили создание и удаление баз данных, а также предоставление доступа пользователям к базам данных для кластера Облачных баз данных.

15 января 2024
Создание и удаление пользователей внутри Облачных баз данных

Добавили создание и удаление пользователей для кластеров баз данных.

11 января 2024
Изменение тарифа PostgreSQL

Добавили изменение конфигурации/тарифа для кластера PostgreSQL в услуге Облачные базы данных.
Обращаем внимание, что изменение тарифа для кластера MySQL на текущий момент недоступно.

7 декабря 2023
Новые конфигурации высокочастотных серверов

Добавили новые конфигурации в конфигуратор highcpu Openstack:
  • vCPU — 3, 6 ядер
  • RAM — 3, 6, 12 ГБ
  • Объём диска — 100, 160 ГБ

29 ноября 2023
Реплики для Облачных баз данных

Добавили возможность создавать реплики для кластеров Облачных баз данных.
Создание реплик доступно для PostgreSQL и MySQL. На текущий момент действует лимит – 5 реплик на 1 кластер.

28 ноября 2023
Образ WireGuard

Добавили в продажу образ приложения Wireguard на платформе Openstack в регионах Москва и Санкт-Петербург.

15 июня 2023
Мы запустили Облако Рег.ру

Облако Рег.ру — это масштабируемая отказоустойчивая облачная инфраструктура, с помощью которой удобно запускать сайты, услуги и сервисы. Облако Рег.ру можно использовать для разработки и тестирования, размещения сайтов, интернет-магазинов, телеграм-ботов, игровых серверов, а также для создания облачного хранилища или сервера видеоконференций.
Для серверов действует почасовая или помесячная оплата на выбор. Вы можете остановить сервер в любой момент и не платить за неиспользуемые процессор и оперативную память.
На любом тарифе вам будут доступны:
  • свободная конфигурация CPU, RAM и дискового пространства;
  • быстрые SSD- или NVME-диски;
  • бесплатная защита от DDoS;
  • удобная панель для управления серверами в личном кабинете;
  • круглосуточная поддержка;
  • выделенный IPv4-адрес;
  • API для автоматизации ваших бизнес-процессов;
  • развертывание и запуск сервера за 1-2 минуты.
Для тех, у кого мало опыта администрирования, мы предлагаем панели управления ispmanager и FASTPANEL. Специально для опытных разработчиков представлены стабильные версии Ubuntu, CentOS, Debian, AlmaLinux, Rocky Linux и готовые шаблоны с Docker, Django, LEMP, LAMP, NodeJS. Также доступна автоматическая установка приложений BitrixVM, Jitsi Meet, Nextcloud.


https://www.reg.ru

Рег.ру ускорил работу с облачной аналитикой в два раза



В облаке Рег.ру удалось провести высоконагруженные вычисления с Big Data и почти на четверть повысить точность принятия решений при работе с аналитическими сервисами.

Российская технологическая компания Рег.ру разместила в облаке отказоустойчивую инфраструктуру IT-разработчика «Фабрика Данных». В рамках сотрудничества компании реализовали проект в области облачной аналитики и работы с Big Data.

Облачная платформа Рег.ру используется компанией «Фабрика Данных» для разработки высоконагруженных приложений. За счет использования облачных серверов с GPU удалось ускорить работу с данными и в два раза сократить время выполнения сложных исследовательских задач.

«Фабрика Данных» занимается аналитикой данных, выявлением трендов и мониторингом спроса, прежде всего, в областях FMCG, производства и финансов. С помощью сервисов компании можно получить персонализированные рекомендации по управлению ассортиментом товаров, ценообразованию и маркетинговым стратегиям. В результате совместного проекта с Рег.ру точность и правильность в принятии решений клиентами «Фабрика Данных» увеличились более чем на 20%.

В области аналитики даже краткосрочный простой может привести к потере данных и материальным издержкам, поэтому надежность и масштабируемость стали ключевыми факторами при выборе облачного провайдера. Во время эксплуатации IT-инфраструктура Рег.ру показала отказоустойчивость на уровне 100%
считает Алексей Никулин, генеральный директор «Фабрика Данных».

Облачные серверы с профессиональными GPU серверного класса спроектированы для надежной работы с ML и Big Data. Сервис значительно ускоряет процесс подготовки аналитических отчетов. А благодаря высокой отказоустойчивости облака Рег.ру проекты работают без сбоев, что особенно важно для компаний, принимающих стратегические решения на основе анализа больших массивов данных
отмечает Евгений Мартынов, директор по информационным технологиям Рег.ру.

Рег.ру запустил облачные серверы с GPU в октябре 2024 года. Сервис оснащен двумя типами видеокарт NVIDIA: А5000 24Гб и А100 80Гб. Сегодня продукт активно используются для выполнения ресурсоемких задач и высоконагруженных проектов, таких как работа с AI и ML, графика и видео, 3D, VDI и др.

www.reg.ru
www.datafabrika.ru

Серверы в Лихтенштейне уже в продаже — заказывайте прямо сейчас!





Троекратное ура! Виртуальные серверы в Лихтенштейне доступны для всех желающих — просто выберите подходящий тариф и сразу же начните работу! Мы открыли продажи раньше времени, но сохранили возможность воспользоваться промокодом, чтобы получить самую крутую и максимальную скидку на сверхскоростные серверы в 45-й локации: PRESALE45 действует до 28.03.2025 до 23:59 UTC+3!

Почему именно Лихтенштейн?
Превосходная инфраструктура — дата-центр отвечает строгим международным стандартам, гарантируя надежность и бесперебойную работу серверов.

Самый центр Европы — близость к самым развитым европейскими странами обеспечивает минимальные задержки и высокую скорость передачи данных.

Высокие стандарты защиты — Лихтенштейн известен своими передовыми законами в сфере кибербезопасности и защиты персональных данных.

С PQ.Hosting вы получаете мощные VPS с 10 Gbps, оптимизированные для самых требовательных проектов. Будьте в числе первых, кто оценит новые возможности!

https://pq.hosting

Оплачивайте серверы быстрее и безопаснее с Apple Pay и Google Pay!



Быстрая и удобная оплата одним касанием
PQ.Hosting расширяет возможности и делает процесс заказа сверхскоростных серверов и дополнительных услуг еще удобнее для клиентов по всему миру. Уже сегодня пользователи могут платить за услуги услуги компании с помощью Apple Pay и Google Pay.

Почему это важно?
Apple Pay и Google Pay — глобальные платежные платформы, которыми ежедневно пользуются миллионы людей. Их главные преимущества — скорость и надежность.

Благодаря системам оплата сервисов происходит в один клик без необходимости долгого ввода данных, а все операции проходят через зашифрованные токены. Это гарантирует, что ваши реквизиты не попадут в общий доступ.

Как оплатить через Apple Pay и Google Pay?
Оплата с помощью Apple Pay или Google Pay занимает всего несколько минут:
  • Авторизуйтесь в личном кабинете на сайте PQ.Hosting.
  • Выберите нужный сервер или услугу и добавьте в корзину.
  • Выберите пункт Revolut Pay / Google Pay / Apple Pay
  • Проверьте заказ и нажмите “Оформить”.
  • На открывшейся странице выберите Apple Pay или Google Pay в зависимости от вашего устройства.

Подтвердите платёж с помощью Face ID, Touch ID или пароля.
Услуга будет активирована сразу после завершения транзакции!

pq.hosting

Март — объектное хранилище S3, второй этап голосования ЦОДы.РФ и свежие инструкции

Месяц подходит к концу, а значит, пришло время очередного дайджеста. Март был слегка непредсказуемым — и по погоде, и по апдейтам, но вполне интересным для прохождения. И пусть порой хотелось «сохраниться» и начать всё сначала, считаем, что это было не зря. Мы набрались нового опыта и теперь готовы почти что ко всему. По крайней мере, к апрельским сюрпризам точно.

Спойлер, они на подходе.


А пока вы строите прогнозы, что ждёт в недалёком будущем, поделимся с вами свежими статьями и инструкциями, новостями компании и полезными лайфхаками — кто знает, может, они станут вашими чит-кодами на пути к следующему уровню, то есть месяцу.

Статьи и инструкции
Как установить Docker на Ubuntu

Кратко напомним, GitLab — веб-платформа управления репозиториями Git с широким набором инструментов. В ней есть встроенные возможности для непрерывной интеграции и развертывания кода (CI/CD), а также мониторинга и организации DevOps-процессов. Чтобы полностью контролировать ситуацию и настроить работу с репозиториями под себя, можно установить GitLab на сервер. В статье расскажем, как это сделать на примере с ОС Linux Ubuntu.
firstvds.ru/technology/ustanovka-gitlab-na-ubuntu

Примеры использования tcpdump в Linux
Утилита tcpdump — один из популярных инструментов командной строки для мониторинга сети в Linux. Помогает отладить сетевой трафик и провести его аудит, что может быть весьма полезным для устранения и профилактики потенциальных угроз безопасности. Подробнее о том, что умеет утилита и чем она может быть вам помочь, рассказали в статье.
firstvds.ru/technology/primery-ispolzovaniya-tcpdump-v-linux

Habr: самое интересное за февраль
Если вам нравятся неоднозначные материалы, обзоры «железа» или циклы статей на разные темы, то эта подборка точно для вас. Собрали всё самое любопытное — от фундаментальных открытий в информатике до практических гайдов по 3D и базовым концепциям реактивности.
  • Студент опроверг 40-летнюю гипотезу в информатике
  • 3D для каждого: Оптимизация модели. Часть 1, объяснительная
  • Понимая реактивные системы: Производные, эффекты и оптимизация
  • Подборка видеокарт для работы с несколькими мониторами: от бюджетных моделей до профессиональных устройств

Ищем авторов для блога на Хабр
Подготовьте статью на одну из специальных тем или отправьте материал на тему месяца. И если ваша статья подойдёт для блога, получите повышенный гонорар.
Тема апреля: лайфхаки для гиков.
firstvds.ru/blog/vremya-pisat-stati-ischem-avtorov-dlya-blogov-i-bz

Новости марта
Запустили услугу «Объектное хранилище S3»

Буквально на днях у нас появилась новая услуга «Объектное хранилище S3». Теперь можно надёжно хранить десятки гигабайтов данных и при этом иметь к ним быстрый доступ. Места хватит и для медиафайлов с простыми веб-сайтами, и для критически важных резервных копий.
Масштабирование происходит без перерывов в работе хранилища. А сама услуга удобна тем, что позволяет легко интегрировать хранилище в существующие инфраструктуру по API.
firstvds.ru/services/s3

Национальная премия «ЦОДы.РФ 2024/2025»: стартовал второй этап голосования

Если вы следите за нашими новостями, то уже знаете, что в этом году мы участвуем в Национальной премии «ЦОДы.РФ», которая ежегодно собирает профи, работающих в российской отрасли ЦОД. Два наших номинанта успешно прошли первый этап голосования и перешли во второй, который продлится до 7 апреля.
Хотим сказать огромное спасибо всем, кто уже проголосовал за нас. И просим проверить, учтён ли ваш голос за наших номинантов. А если не голосовали, но хотели бы поддержать нас, ещё не поздно принять участие. Чтобы облегчить процесс, мы подготовили подробную инструкцию, как это сделать.
Напоминаем, что проголосовать можно сразу за двух кандидатов:
Будем рады вашей поддержке!
firstvds.ru/rdca24-25

Топ новостей из мира безопасности

В марте было много всего интересного — начиная с прорыва Amazon в квантовых вычислениях с процессором Ocelot и релиза FreeBSD 13.5, видимо, последнего в этой ветке, и заканчивая повышенной активностью ИИ-ботов, которые вызвали сбои в работе популярных опенсорсных проектов KDE, GNOME, Fedora. Всё это не считая уязвимостей в трёх известных библиотеках или таких системах, как Pagure и OBS. Об этом и не только рассказали в новостях:

Amazon представила квантовый процессор Ocelot
Ocelot решает одну из ключевых проблем квантовых вычислений — снижение аппаратных затрат. Процессор использует гибридную архитектуру, объединяющую два типа кубитов: кошачьи кубиты и трансмоны. Кошачьи кубиты устойчивы к ошибкам переворота бита, а трансмоны корректируют ошибки, связанные с фазовым сдвигом. Такая комбинация обеспечивает стабильность вычислений и снижает количество ошибок.
Процессор Ocelot состоит из двух кристаллов площадью 1 см2 каждый, на которых размещены сверхпроводящие материалы, формирующие квантовые схемы. Чип включает 14 компонентов: пять кошачьих кубитов, пять буферных схем и четыре трансмона для обнаружения ошибок. Осцилляторы, используемые для хранения квантовых состояний, изготовлены из сверхпроводящего тантала, что повышает их производительность.
Компания уверена, что Ocelot ускорит создание практичного квантового компьютера, устойчивого к ошибкам, на пять лет.
3dnews.ru/1119000/amazon-predstavila-kvantoviy-protsessor-ocelot-v-kotorom-reshila-odnu-iz-glavnih-problem-kvantovih-vichisleniy/#67c15acb742eece25e8b456f

Уязвимость в Python-библиотеке, насчитывающей 40 млн загрузок в месяц
В популярной Python-библиотеке JSON Logger, ежемесячно загружаемой более 40 млн раз, обнаружена уязвимость CVE-2025-27607. Она позволяла злоумышленникам подменять зависимость при установке через PyPI, что могло привести к выполнению произвольного кода на системах, использующих этот пакет. Проблема устранена в версии 3.3.0, выпущенной 7 марта 2025 года.
Уязвимость возникла из-за наличия в списке необязательных зависимостей библиотеки msgspec-python313-pre, которая была удалена её авторами из PyPI в декабре 2024 года без предупреждения. Это позволило злоумышленникам загрузить в каталог PyPI пакет с тем же именем, который автоматически подключался при установке JSON Logger с опцией разработки (pip install python-json-logger[dev]). Исследователь, обнаруживший проблему, подтвердил возможность выполнения стороннего кода, зарегистрировав поддельный пакет.
Ранее администраторов PyPI неоднократно предупреждали о рисках, связанных с удалением проектов, чтобы избежать инцидентов, подобных left-pad, и предотвратить атаки через цепочку поставок (supply chain). Однако предложения о запрете удаления пакетов не были реализованы, что оставило возможность для повторной регистрации и эксплуатации уязвимостей.
www.opennet.ru/opennews/art.shtml?num=62856

Релиз FreeBSD 13.5
После шести месяцев разработки выпущен финальный релиз FreeBSD 13.5, завершающий ветку 13.x. Поддержка этой версии продлится до 30 апреля 2026 года. Параллельно развиваются ветки FreeBSD 14 (следующий релиз 14.3 запланирован на 3 июня 2025 года) и FreeBSD 15, первый выпуск которой ожидается в декабре 2025 года.
Основные изменения:
  • Jail-окружения: Добавлена возможность запуска утилит sysctl и ip6addrctl в контексте изолированных Jail, что упрощает управление параметрами ядра и сетевых настроек для контейнеров.
  • ZFS: В инсталляторе bsdinstall появилась возможность редактирования параметров создания ZFS-пулов, включая выбор алгоритма сжатия.
  • LLVM: Компиляторы и инструменты LLVM обновлены до версии 19.1.7.
  • UFS1: Решена проблема 2038 года, теперь файловая система поддерживает даты до 2106 года.
  • Сетевые драйверы: Добавлена поддержка алгоритма AIM (Adaptive Interrupt Moderation) для драйверов igc и e1000, что улучшает производительность UDP и снижает нагрузку на CPU.
  • Облачные платформы: Улучшена поддержка Oracle Cloud Infrastructure (OCI), Amazon EC2 и Vagrant, включая увеличение размера виртуальной памяти до 8 ГБ.
  • Обновления ПО: Версии OpenSSH, Unbound, SQLite, libarchive и других компонентов обновлены до последних стабильных выпусков.
Устаревшие функции:
  • В FreeBSD 15 прекратится поддержка 32-разрядных платформ (кроме armv7), драйвера AGP и инструментария gvinum.
  • Утилита shar для создания самораспаковывающихся архивов признана устаревшей из-за потенциальных рисков безопасности.
  • Среда рабочего стола KDE удалена из установочных образов из-за проблем совместимости с OpenSSL 1.1.1.
  • Архитектуры и образы
FreeBSD 13.5 поддерживает архитектуры amd64, i386, armv6, armv7, aarch64, riscv64 и другие. Также доступны образы для виртуализации (QCOW2, VHD, VMDK) и облачных платформ.
Этот релиз завершает эпоху FreeBSD 13.x, открывая путь к новым возможностям в ветках 14 и 15.
www.opennet.ru/opennews/art.shtml?num=62857

В библиотеке FreeType обнаружена критическая уязвимость
Специалисты Facebook сообщили о 0-day уязвимости (CVE-2025-27363) в библиотеке FreeType, используемой для рендеринга шрифтов (применяется в Linux, Android, игровых движках, GUI-фреймворках и онлайн-платформах). Проблема, оцененная в 8,1 балла по шкале CVSS, позволяет злоумышленникам выполнять произвольный код удаленно. Уязвимость затрагивает все версии FreeType до 2.13.0.
Ошибка связана с некорректной обработкой подглифовых структур в шрифтах TrueType GX и переменных файлах. Это приводит к переполнению буфера и возможности записи данных за его пределами, что может быть использовано для выполнения произвольного кода.
Проблема была устранена в версии FreeType 2.13.0, выпущенной в феврале 2023 года. Однако исследователи предупреждают, что уязвимость уже эксплуатировалась в атаках. Рекомендуется обновить библиотеку до актуальной версии 2.13.3.
xakep.ru/2025/03/14/freetype-0day/

GitLab устранил опасные уязвимости в библиотеке ruby-saml
Команда GitLab выпустила обновления для своих версий Community Edition (CE) и Enterprise Edition (EE), чтобы устранить критические уязвимости в библиотеке ruby-saml. Проблемы (CVE-2025-25291 и CVE-2025-25292) могли позволить злоумышленникам обходить механизмы аутентификации, использующие SAML Single Sign-On (SSO).
Причиной уязвимостей стали различия в обработке XML-документов парсерами REXML и Nokogiri. Это создавало условия для атаки типа XML Signature Wrapping (XSW), при которой злоумышленник мог подделать SAML-ответ и выдать себя за другого пользователя. Для успешной эксплуатации уязвимости атакующему требовался доступ к одной из действующих учетных записей, что могло привести к компрометации данных или несанкционированному повышению привилегий.
Исправления включены в версии ruby-saml 1.12.4 и 1.18.0, а также в GitLab CE/EE 17.7.7, 17.8.5 и 17.9.2. Пользователям, которые управляют своими инсталляциями (self-managed), рекомендуется не откладывать установку обновлений вручную. Для клиентов GitLab.com и GitLab Dedicated обновления применены автоматически.
GitHub, обнаруживший уязвимости, подчеркнул, что его платформа не пострадала, так как библиотека ruby-saml не используется с 2014 года. Тем не менее проблема актуальна для других проектов, где применяется эта библиотека. Помимо этого, GitLab устранил еще одну серьезную уязвимость (CVE-2025-27407), связанную с возможностью удаленного выполнения кода через функцию Direct Transfer, которая по умолчанию отключена.
xakep.ru/2025/03/14/ruby-saml-bugs/

Перегрузка инфраструктуры открытых проектов из-за ИИ-скраперов
Крупные open-source проекты, включая KDE, GNOME, Fedora, Codeberg и SourceHut, столкнулись с перебоями в работе из-за агрессивного сканирования ИИ-индексаторами (скраперов). Эти боты собирают данные для обучения нейросетей (например, Claude 3.7 от Anthropic с веб-поиском), игнорируя правила robots.txt и создавая чрезмерную нагрузку.
Среди основных проблем выделяют:
  • Массовые запросы: ИИ-скраперы работают в многопоточном режиме, не соблюдая ограничения.
  • Обход блокировок: боты маскируются под обычные браузеры (подменяя User-Agent) и используют распределённые сети IP-адресов.
  • Угроза безопасности инфраструктуры: особенно страдают Git-хостинги, форумы и Wiki, не рассчитанные на высокую нагрузку.
Ситуация усугубляется тем, что каждая компания использует свой скрапер, что приводит к созданию общей нагрузки на элементы инфраструктуры и разнообразным последствиям для открытых проектов. Например, у GNOME только 3% запросов прошли проверку, остальные — боты, у Fedora наблюдаются сбои в Pagure из-за атак, а также заблокированы целые подсети, включая IP Бразилии, у KDE перегружен GitLab из-за ботов Alibaba, маскирующихся под MS Edge. И это только часть подобных последствий. Проблемы возникли и у платформы совместной разработки SourceHut, развиваемой Дрю ДеВолтом (Drew DeVault), автором пользовательского окружения Sway. Вместо того, чтобы развивать свои проекты, специалистам приходится тратить время на поиск решений для возникших проблем. Так можно отметить «AI Labyrinth» — ловушку для ботов от Cloudflare", выдающую фейковый контент ботам и запускающую повторную обработку данных.
www.opennet.ru/opennews/art.shtml?num=62925

Уязвимости в Pagure и OBS угрожают безопасности Fedora и openSUSE
Исследователи из Fenrisk обнаружили критические уязвимости в системах Pagure (используется Fedora) и Open Build Service (OBS, применяется в openSUSE), которые позволяли злоумышленникам модифицировать пакеты в официальных репозиториях.
Выявлено 4 уязвимости в Fedora, все они требуют наличия учётной записи в Pagure, которую довольно легко получить. Три проблемы позволяют прочитать файлы в системе, а одна — выполнить свой код на сервере:
  • CVE-2024-4981, CVE-2024-47515 – чтение произвольных файлов через символьные ссылки (например, конфигурации администратора).
  • CVE-2024-4982 – обход ограничений каталога (/../../) для доступа к системным файлам (например, /etc/passwd).
  • CVE-2024-47516 – выполнение произвольного кода через инъекцию в параметры Git.
  • Злоумышленник мог перезаписать .bashrc пользователя git, выполнив код с его правами, что давало контроль над репозиториями пакетов Fedora. Уязвимости были оперативно устранены (в течение 3 часов после уведомления).
Что касается уязвимости в OBS (openSUSE), то она (CVE-2024-22033) предполагает CVE-2024-22033 инъекцию команд в сервис obs-service-download_url через параметры wget. Через подмену URL в конфигурации пакета злоумышленник мог читать/записывать файлы (--output-document, --post-file) и запускать произвольный код, используя .wgetrc и prove. Это позволяло получить доступ к ключам подписи пакетов.
Команда безопасности openSUSE считает угрозу преувеличенной, так как сборка происходит в изолированных контейнерах. Уязвимость актуальна только для локальных установок OBS.
Обе уязвимости устранены, но инцидент подчеркивает риски, связанные с инфраструктурой сборки дистрибутивов.
www.opennet.ru/opennews/art.shtml?num=62928

Опасная уязвимость в Apache Tomcat активно эксплуатируется злоумышленниками
На прошлой неделе в Apache Tomcat обнаружили опасную уязвимость (CVE-2025-24813). Она позволяет выполнять произвольный код на сервере (RCE) через простой PUT-запрос. Уже через 30 часов после публикации информации в сети появились первые эксплойты, и начались активные атаки. Проблема затрагивает версии 11.0.0-M1 – 11.0.2, 10.1.0-M1 – 10.1.34 и 9.0.0.M1 – 9.0.98. Она стала причиной масштабных кибератак по всему миру. Эксперты предупреждают о необходимости срочного обновления систем.
Как это работает. Злоумышленники используют простую, но эффективную схему. Отправляют на сервер специально сформированный PUT-запрос с вредоносным Java-кодом (в base64). Код сохраняется в файловом хранилище сессий Tomcat под видом легитимных данных. Последующий GET-запрос с поддельным JSESSIONID приводит к выполнению кода.
Разработчики Apache выпустили обновлённые версии, устраняющие проблему: 11.0.3 и выше, 10.1.35 и выше, 9.0.99 и выше. Администраторам также рекомендуется:
  • как можно скорее установить обновления,
  • отключить поддержку partial PUT,
  • проверить настройки безопасности.
Специалисты считают, что это только первая волна атак. По их мнению, возможно появление новых вариантов атак, включая установку скрытых бэкдоров.
xakep.ru/2025/03/18/apache-tomcat-rce-attacks/

В 2024 году в экосистеме WordPress выявлено около 8000 уязвимостей
Согласно отчету компании Patchstack, специализирующейся на безопасности WordPress, в 2024 году исследователи обнаружили 7966 уязвимостей в экосистеме этой популярной CMS. Подавляющее большинство проблем (96%) касались плагинов, тогда как на темы приходилось лишь 4% от общего числа.
Краткая статистика:
Ядро WordPress: затронуто всего 7 уязвимостей
Популярные плагины:
  • 1018 уязвимостей в плагинах с более 100 000 установок
  • 115 проблем в плагинах, установленных более 1 млн раз
  • 7 критических уязвимостей в плагинах с 10 млн+ установок
Уровень опасности:
  • 69,6% уязвимостей – низкий риск эксплуатации
  • 18,8% – могли использоваться в целевых атаках
  • 11,6% – активно эксплуатировались или представляли высокую угрозу
  • Только треть проблем получила высокие или критические оценки по шкале CVSS.
Типы уязвимостей:
  • XSS (межсайтовый скриптинг): 47,7% случаев
  • Нарушения контроля доступа: 14,19%
  • CSRF (межсайтовая подделка запроса): 11,35%
Требования для эксплуатации:
  • 43% уязвимостей – не требовали аутентификации,
  • 43% – нужны были низкие привилегии (например, роль подписчика),
  • 12% – требовали прав администратора или редактора.
Проблемы с исправлениями:
33% обнаруженных уязвимостей оставались неисправленными даже после публичного раскрытия информации. Аналитики Patchstack призвали разработчиков плагинов оперативнее выпускать обновления для защиты пользователей.
Несмотря на большое количество уязвимостей, большинство из них не представляли серьезной угрозы. Однако риск атак остается высоким из-за медленного внедрения исправлений в популярных плагинах.
xakep.ru/2025/03/19/wordpress-bugs-2024/

Обзор новинок: Colocation, серверы с GPU и Intel Core Ultra 9 285K



Недавно мы запустили три новых продукта и познакомили вас с каждым из них по отдельности. Краткий обзор новинок мы собрали в этом письме.

Colocation в дата-центре Москвы
Размещайте ваше серверное оборудование в ЦОД IXcellerate Tier III.
  • Стоимость от 6810 руб./мес. за 1U.
  • На выбор: безлимитный трафик до 100 Мбит/с или 1 Гбит/с до 30 Тб трафика.
  • Бесплатный публичный IPv4-адрес.
  • Удалённый доступ к серверу по IP-KVM.
  • Техподдержка 24/7.
1dedic.ru/colocation

Выделенные серверы с GPU
Мощные конфигурации для повышения производительности параллельных вычислений, ML, LLM, анализа больших объёмов данных, 3D‑моделирования, рендеринга и работы с видео на базе процессоров AMD EPYC и AMD Ryzen.
  • Безлимитный трафик 100 Мбит/с или 1 Гбит/с, 30 Тб включено.
  • Возможность расширения канала до 10 Гбит/с и выше.
  • Бесплатный публичный IPv4‑адрес.
  • Техподдержка 24/7.
1dedic.ru/gpu-servers
Мы подготовили статью, которая поможет выбрать оптимальный GPU-сервер под ваши задачи.
1dedic.ru/articles/chto-takoe-gpu-server-i-zachem-on-nuzhen

Флагманский Intel Core Ultra 9 285K
Высокопроизводительный процессор для сложных вычислений, созданный на архитектуре Arrow Lake:
  • 24 ядра / 24 потока,
  • Turbo Boost до 5.7 ГГц,
  • поддержка памяти DDR5-6400.
Количество ограничено!

1dedic.ru

Мы протестировали разные облака на скорость PostgreSQL




Мы тут запускаем последнее в России коммерческое облако, и один из побочных эффектов этого процесса — настраиваем тесты всех конкурентов, чтобы понимать объективную картину. Прошлый тест был про переподписку ядер процессора, и он вызывал нехилое такое пригорание пятой точки у суперпереподписанного Таймвеба (хотя по цене за производительность они оказались вполне в порядке).

Так вот, нашу подсеть уважаемый конкурент забанил, чтобы было неповадно их тестировать. А затем, похоже, подкрутил тесты для наших машин так, что они показали скорость света.

Облака в тесте:
  • Selectel.
  • Cloud.ru.
  • Timeweb.
  • VK.
  • Yandex.
  • Rostelecom.
  • H3LLO.CLOUD.

Коротко о результатах


Radar chart по трём показателям: производительность, стоимость к производительности и задержка инвертированная. Больше площадь — лучше
  • Timeweb показал одну из самых низких производительностей, но при этом снова хорошую цену за единицу вычислений.
  • VK Cloud и Яндекс оказались аутсайдерами: и производительность не впечатляет, и стоит дорого. У Яндекса есть ограничитель на максимальную производительность.
  • Потом вы просили добавить нас в тесты, чтобы потом можно было предъявить, если что, и мы добавили. Нам надо было установить цену для своих тарифов, мы взяли её как медианное значение между Cloud.ru и Selectel.

Нельзя просто взять и протестировать
Мы не ожидали, что это обернётся почти масштабным научным исследованием, а не простым «запустил и померил». Делов-то было на 20 минут, как казалось вначале. Ну, поставим бенчмарк, запустим скрипт, получим циферки, забабахаем красивые графики. А в итоге погружаешься в какую-то научную диссертацию, где каждое число может быть оспорено, а каждое методологическое решение требует обоснования.

Потому что вы нас немного заклевали за подход «херак-херак и в продакшен» на первом тесте. Хотя он вполне решал свою задачу — оценить производительность связки vCPU-RAM на машинах с одинаковыми характеристиками у разных провайдеров. Или, проще говоря, выяснить, кто же больше охренел )

В общем, методология. Сразу решили не изобретать велосипед и взяли встроенный в PostgreSQL тест pgbench. Он создаёт три таблицы разного размера, которые отличаются друг от друга в 10 и в 100 000 раз по числу записей. Выбрали фактор масштабирования 200, и это дало нам таблицы размером 200, 2000 и 20 миллиона записей. Достаточно, по нашему мнению, чтобы проверить, как облака справляются с нагрузкой.

Главная проблема методологии: если вы запускаете тесты с локального компьютера, то результаты будут зависеть от вашего интернет-соединения. Человек в другом городе с другим провайдером получит совершенно иные цифры. Все тесты запускались с виртуальных машин, которые находились в той же подсети и зоне доступности, что и тестируемые базы данных. Так мы исключили влияние внешних сетей.
  • База данных Postgres 16.
  • 4vCPU + 16 Гб RAM + 40 Гб SSD (где был выбор между дефолтным флейвором БД и настраиваемым сайзингом, мы выбирали дефолтный флейвор).
  • Где был выбор между Ice Lake vs Cascade Lake мы выбирали Ice Lake.
  • Без пулинга, репликации и бекапов.
  • Без тонкой настройки дополнительных параметров конфигурации Postgres.
  • Для бенчмаркинга выбрали стандартный pgbench, который входит в состав Postgres.
  • Для минимизации времени отклика pgbench запускался из виртуальных машин находящихся в той же приватной подсети, что и Managed Postgres, без SSL.
  • Проводили 4 итерации: 1 разогревочная + 3 фактических.
  • Бенчмаркинг проводился в рабочее время.

4 стандартизированных нагрузки pgbench:
  • default, «Стандартная нагрузка TPC-B»
  • simple_update, скрипт обновляет баланс в таблице `pgbench_accounts`
  • select_only, скрипт выполняет выборку данных из таблиц `pgbench_accounts`, `pgbench_branches` и `pgbench_tellers`
  • complex_write, скрипт обновляет балансы в таблицах `pgbench_accounts`, `pgbench_tellers` и `pgbench_branches`, моделируя сложную транзакцию

Отказались от использования 2 нагрузок, поскольку по результатам предварительных тестов бенчмаркинга они не добавляли информативности к результатам от уже существующих стандартных тестов, а только удлиняли бенчмаркинг:
  • join_heavy: скрипт выполняет соединение таблицы `pgbench_accounts` самой с собой несколько раз, что позволяет оценить производительность при выполнении joins
  • insert_with_indexes: скрипт вставляет новую запись в таблицу `pgbench_history` и обновляет баланс в таблице `pgbench_accounts`, что позволяет оценить производительность при выполнении операций вставки и обновления с использованием индексов

Измеряли 2 метрики:
  • Количество транзакций в секунду (TPS): Сколько операций база данных может выполнить за одну секунду.
  • Время отклика запросов: Сколько времени требуется базе данных для выполнения запроса.

Коэффициент стоимости считался в руб/час/TPS.

Параметры бенчмаркинга:
  • scale factor = 200 (это значит что в базе будут 3 таблицы, по 20 млн записей, 2 тыс. записей и 200 записей соответственно).
  • Одновременные клиенты базы данных client_counts = [16, 32, 64].
  • Рабочие потоки thread_counts = [32, 64, 128].
  • run_time одной итерации = 30 секунд.

Всего для каждого провайдера было проведено 108 тестов: 3 различных client_counts * 3 различных thread_counts * 4 типа нагрузки * 3 итерации.

Где только можно, отключали репликацию и пулинг подключений. С пулингом интересный момент: он реально помогает базе данных не захлебнуться при нагрузке, но мы его специально отключали, чтобы увидеть «чистую» производительность самой СУБД без костылей.

В Timeweb такой возможности вообще не было. Так что мы до сих пор не знаем, тестировали мы их с пулингом или без.

Сберклауд и Яндекс просто не дают подключиться к базе извне их экосистемы. То есть, если у вас приложение не в их облаке, вы к своей базе данных подключиться не сможете. Занавес.

Обе этих компании демонстрировали потрясающий user experience — он был совершенно не приспособлен для обычного человека, который достаточно издалека знает, что такое сеть. По-хорошему нужно в этих сценариях с этими провайдерами приглашать нормального сетевика, который вам всё настроит. Если вы не профессиональный сетевой инженер, настроить подключение — это квест уровня «найди все тайные комнаты в Хогвартсе». Причём на старых аккаунтах всё работает совсем не так, как на новых.

На новых всё запускалось предельно плохо, непонятно, с какими-то невнятными ошибками уровня «обратитесь в поддержку, мы не можем что-то создать». Решение такое: старые аккаунты мы не удалили, но убрали из них старые организации и перевоссоздали новые организации в рамках старого аккаунта. И там всё было совершенно иначе. Вообще другой UX.

Таймвеб нас забанил тогда, когда мы начинали тестировать с локальной машины. Несколько раз мы запускали и перезапускали скрипт. Надо сказать, что мы его запускали синхронно с другими провайдерами. И в определённый момент мы увидели странное поведение от Таймвеба. Сначала посыпались ошибки, а потом скрипт сам перестал работать, потом перестал работать сайт Таймвеба с нашего публичного IP )

Мы не делали ничего необычного — просто запускали стандартный pgbench, который создаёт нагрузку не больше, чем обычное приложение. Примерно так интернет-магазин обращается к своей базе данных. На следующий день Timeweb нас разблокировал, и мы попытались запустить тесты уже с виртуальной машины внутри их сети. И тут произошло что-то странное: они сделали что-то со своим кластером managed db, что он вдруг резко стал показывать производительность гораздо выше, чем всё, что у нас было в тестировании — даже выше, чем наш собственный локально размещённый сервер GEN11 на Xeon 6430.

Какую магию они там применили — мы так и не узнали, но решили, что эти результаты слишком подозрительны, чтобы включать их в финальный отчёт. Когда мы попытались повторить тесты, система начала выдавать ошибки. В общем, похоже, это активное противодействие тестам с их стороны. Привет, коллеги. Приходите снова писать в комментарии, какие мы ужасные, только на этот раз не забудьте сразу удалить у пользователя место работы, пожалуйста. А то будет как прошлый раз, когда его сначала заминусовали, а потом через несколько часов он убрал место работы из профиля и внезапно рейтинг восстал из мёртвых за несколько минут )

Ростелеком — наш гомерический смех продолжается! Их мы вообще исключили из теста. Потому что снова бюрократия. Мы не смогли запустить облако. Потому что база данных до сих пор на согласовании у их менеджера.

Казалось бы, 21-й век. Но нет, Ростелеком продолжает жить в эпохе «ждите звонка менеджера». Я готов предположить, что они так сделали для того, чтобы избежать потока людей с непонятной репутацией.

Результаты
Зависимость скорости транзакции к задержке


Количество транзакций в зависимости от соединений


Количество транзакций в секунду по типам нагрузки


Кривая распределения по совокупности тестов всех вместе. Чем выше верхняя группа точек, тем лучше и больше вероятность получить более высокую скорость транзакции


Отношение стоимости к производительности


Распределение количества транзакций в секунду


Среднее количество транзакций по провайдерам


Средние задержки по провайдерам


По результатам тестов явно выделились два лидера: Клаудру и Селектел с практически идентичными показателями. Разница между ними была в пределах статистической погрешности.

ВК Cloud оказался примерно на 30–40% ниже лидеров. Это, кстати, полностью коррелирует с нашими предыдущими тестами виртуальных машин на Geekbench — похоже, у ВК просто железо послабее.

С Яндексом получилась совершенно абсурдная ситуация. Как только мы пытались подключить 64 клиента — тесты валились с ошибками. Мы просто не могли провести полноценное тестирование, отрезав весь верхний диапазон производительности. Как это интерпретировать? Да никак. Как будто вы пришли тестировать машину на автодроме, а вам говорят: «Извините, больше 60 км/ч ехать нельзя, у нас такие правила».

У большинства хостингов кривая выходит на плато или даже падает при увеличении числа соединений. А у нас для сравнения — практически линейный рост — то есть чем больше клиентов подключается к базе, тем выше общая производительность. Мы не ожидали такого эффекта. Железо действительно решает!

В результате по цене — Timeweb, несмотря на низкую абсолютную производительность, выглядит довольно неплохо. Они компенсируют технические ограничения привлекательной ценой. Как я уже говорил, VK Cloud и Яндекс — производительность не впечатляет, стоит дорого.

Среднее количество транзакций. Мы уверенно обходим всех. По цене получилось 9 тысяч рублей за кластер в месяц. Возможно, имеет смысл перетестить его )


Дисклеймер

Важный момент: все тесты мы проводили только в рабочие дни и только в дневное время.

Никаких ночных или выходных измерений.

Ограниченное количество конфигураций тестов: 3 варианта thread counts и 3 варианта client counts, только 1 вариант scale factor. Фиксированная конфигурация — тестировалась только одна конфигурация CPU/RAM/SSD (4vCPU + 16 Гб RAM + 40 Гб SSD).

Есть влияние факторов, не зависящих от работы сервиса Managed Postgres, таких как сетевая задержка, переподписка, колебания нагрузки в рабочее время у разных провайдеров. Мы минимизировали сетевые задержки за счёт проведения теста на виртуальных машинах в той же зоне доступности и подсети, что и тестируемый сервис Managed Postgres. Тесты выполнялись параллельно, где это было возможно, чтобы минимизировать влияние времени суток на нагрузку на инфраструктуру облачного провайдера; там, где было невозможно обеспечить параллельность, мы выполняли тест в другие дни в примерно одинаковое время суток.

Длительность исследования (несколько дней) и продолжительность итерации (30 секунд) могут быть недостаточны для выявления снижения производительности в долгосрочной перспективе. Мы включили 3 итерации для статистической значимости плюс 1 предварительная прогревочная итерация.

Не принимаются во внимание кастомные модификации в конфигурациях Postgres, которые могут иметь место у различных провайдеров.

Итого: тест — не измерительный инструмент, а ориентир! Результаты стоит рассматривать как примерный подход. Если вы выбираете хостинг для своего проекта, лучше провести собственное тестирование с учётом специфики вашей нагрузки.

Все скрипты и материалы нашего исследования мы выложили на GitHub, чтобы любой желающий мог воспроизвести результаты или провести свои тесты по той же методологии.

h3llo.cloud
auth.h3llo.cloud/register

Архив



Октябрь 19, 2022
Исходящая рабочая ПСС выросла до 5 Гбит/c, а входящая — до 1.5 Гбит/c. И кое что ещё — максимально возможные показатели, в часы низкой нагрузки, достигают 10 Гбит/c. Реализуйте требовательные проекты вместе с нами.

Июнь 10, 2019
С радостью сообщаем вам, что все виртуальные серверы были переведены с обычных SSD дисков на NVMe хранилище, которое позволило увеличить производительность дисковой подсистемы ваших серверов в 2 раза.

servermall.online

Размещение серверов в дата центре (Colocation)
servermall.online/order/colocation/rf-sankt-peterburg

Nokia усиливает безопасность хостинга Worldstream

Nokia усиливает безопасность хостинга Worldstream с помощью усовершенствованной защиты от DDoS-атак в Нидерландах.


Корпоративные клиенты, пользующиеся услугами хостинга, получат выгоду от быстрого сетевого устранения большинства сложных и масштабных кибератак и угроз, связанных с искусственным интеллектом.

Автоматизированная защита от DDoS-атак нового поколения в режиме реального времени, обеспечивающая бесперебойную работу предприятий и не допускающая их воздействия
во время атак.

Эспоо, Финляндия – Сегодня Nokia объявила, что Worldstream, ведущий поставщик облачной инфраструктуры, будет использовать технологию сетевой безопасности Nokia для защиты предприятий в Нидерландах и по всему миру от крупномасштабных DDoS-атак.
Маршрутизаторы Nokia Deepfield Defender и 7750 SR были развернуты в сети Worldstream, чтобы предложить восьмикратное увеличение мощности по смягчению DDoS-атак.
Благодаря этому обновлению сетевой безопасности клиенты Worldstream теперь могут рассчитывать на быстрое сетевое смягчение даже самых сложных и масштабных кибератак и угроз, управляемых искусственным интеллектом.

Киберпреступность развивается, и с развитием ИИ, в частности, решения по обеспечению безопасности должны развиваться быстрее, чем когда-либо прежде. Мы видим, что для хостинг-провайдеров традиционные методы смягчения DDoS-атак уже недостаточны.
Благодаря решению Nokia Deepfield Worldstream теперь оснащена высокопроизводительной сетевой
защитой, которая мгновенно реагирует, быстро обнаруживает и устраняет угрозы до того, как они повлияют на бизнес
прокомментировал Матье Бургиньон, старший вице-президент по сетевой инфраструктуре в Европе в Nokia.

До развертывания Worldstream была ограничена в своей защите от крупномасштабных ковровых атак, нацеленных на несколько IP-адресов, которые могли бы нарушить работу целых сетей клиентов.
Благодаря маршрутизаторам Nokia Deepfield Defender и 7750 SR Worldstream теперь обеспечивает
автоматическую защиту от DDoS-атак следующего поколения в режиме реального времени, которая масштабируется вместе с сетью, гарантируя, что предприятия останутся незатронутыми и без дорогостоящего перенаправления трафика или задержек, вызванных устаревшей защитой.

Безопасность стала столь же важной, как и производительность в хостинговых услугах.
Компании ожидают устойчивости, и им нужно быть уверенными, что их инфраструктура не будет выведена из строя одной атакой. С технологией Nokia DDoS мы сделали большой скачок в защите. Теперь наши клиенты получают выгоду от сверхбыстрого смягчения, гарантируя, что их цифровые услуги останутся доступными независимо от того, что им бросают
сказал Рубен ван дер Цван, генеральный директор Worldstream.




Nokia Deepfield Defender в сочетании с маршрутизаторами 7750 SR гарантирует, что клиенты хостинга Worldstream получат выгоду от обнаружения угроз в реальном времени и смягчения их последствий за считанные секунды.
Решение обеспечивает защиту на скорости линии на всех пиринговых интерфейсах, устраняя ограничения, связанные с односерверным смягчением DDoS. Сверхбыстрый DDoS также обеспечивает защиту от всех типов DDoS, включая сложные
потоки приложений на основе TCP и типы атак на основе ботнетов и прокси, защищая
нескольких клиентов от крупномасштабных атак одновременно.



О Нокиа
В Nokia мы создаем технологии, которые помогают миру действовать сообща.
Как лидер инноваций в области технологий B2B, мы являемся пионерами сетей, которые чувствуют, думают и действуют, используя нашу работу в мобильных, фиксированных и облачных сетях.
Кроме того, мы создаем ценность с помощью интеллектуальной собственности и долгосрочных исследований, возглавляемых отмеченной наградами Nokia Bell Labs, которая отмечает 100 лет инноваций.
Благодаря действительно открытым архитектурам, которые легко интегрируются в любую экосистему, наши высокопроизводительные сети создают новые возможности для монетизации и масштабирования.
Поставщики услуг, предприятия и партнеры по всему миру доверяют Nokia в предоставлении безопасных, надежных и устойчивых сетей сегодня — и работают с нами над созданием цифровых услуг и приложений будущего.

О Worldstream
Основанная в 2006 году друзьями детства, которых объединяла страсть к играм, Worldstream превратилась
в международного поставщика облачной инфраструктуры.
С момента основания ее миссией было сохранение предсказуемости и прозрачности базовой инфраструктуры.
Он предлагает доступную облачную инфраструктуру с прозрачным и предсказуемым ценообразованием, чтобы помочь руководителям ИТ-бизнеса уверенно наращивать свою ИТ-зрелость.
Благодаря своей приверженности высококачественной инфраструктуре, практичной поддержке и простым моделям ценообразования он дает руководителям ИТ возможность восстановить контроль над безопасностью и расходами своих цифровых рабочих нагрузок.