+101.66
Рейтинг

Виталий Никсенкин

Разработка многопользовательской платформы GKE для миграции Yahoo Mail



Yahoo находится в самом разгаре многолетнего процесса миграции своего знаменитого приложения Yahoo Mail в Google Cloud. В приложении задействовано более 100 сервисов и компонентов промежуточного ПО, поэтому Yahoo Mail в первую очередь использует подход «переноса и переноса» для своей локальной инфраструктуры, стратегически трансформируя и перенастраивая ключевые компоненты и промежуточное ПО для использования возможностей облачной инфраструктуры.

Чтобы обеспечить успешную миграцию, команды Google и Yahoo Mail активно сотрудничали, собирая информацию о текущей архитектуре и принимая решения относительно границ проекта, сетевой архитектуры и настройки кластеров Google Kubernetes Engine (GKE). Эти решения были критически важны ввиду глобального характера приложения, которое должно быть высокодоступным и избыточным для обеспечения бесперебойной работы пользователей по всему миру.

По мере того, как Yahoo Mail продвигается к миграции первой волны рабочих нагрузок в производственную среду, мы выделяем ключевые элементы архитектуры, в частности, многопользовательскую платформу GKE, которая сыграла ключевую роль в создании прочной основы для миграции. Благодаря многопользовательской поддержке приложение Yahoo Mail может эффективно работать в Google Cloud, помогая удовлетворять разнообразные требования различных арендаторов приложений.

Процесс проектирования
Организация Google по предоставлению профессиональных услуг (PSO) начала процесс проектирования с детального анализа текущего использования системы и требований к емкости. Это включало проведение бенчмарков, сбор исходных данных о существующих рабочих нагрузках и оценку необходимого количества узлов на основе типов машин, которые наилучшим образом соответствовали бы требованиям к производительности и ресурсам для этих рабочих нагрузок. Одновременно мы обсуждали оптимальное количество кластеров GKE и их типы, а также наилучшее размещение и организацию рабочих нагрузок в кластерах. Другим аспектом процесса проектирования было определение количества сред (помимо производственной среды). Мы стремились найти баланс между сложностью эксплуатации, ростом зависимости от локальных сервисов при развёртывании и снижением потенциальных рисков, связанных с дефектами и ошибками приложений.

Но прежде чем принимать решения о кластерах GKE, нам необходимо было определить количество проектов и VPC. На эти решения влияли различные факторы, включая требования заказчика к рабочей нагрузке и масштабируемости, а также ограничения сервисов и квот Google Cloud. В то же время мы хотели минимизировать эксплуатационные расходы. Анализ количества кластеров GKE, VPC и т.д. был довольно простым: достаточно было задокументировать плюсы и минусы каждого подхода. Тем не менее, мы тщательно следовали обширному процессу, учитывая значительное и далеко идущее влияние этих решений на общую архитектуру.

Мы использовали несколько критериев для определения необходимого количества кластеров GKE и организации рабочих нагрузок в них. Основными характеристиками, которые мы учитывали, были требования к потреблению ресурсов различными рабочими нагрузками, схемы межсервисного взаимодействия и баланс между эксплуатационной эффективностью и минимизацией радиуса воздействия сбоя.

Архитектурная схема
Ниже представлено упрощенное представление текущей архитектуры. Основная архитектура состоит из четырёх кластеров GKE на каждую группу регионов (например, в регионах «Восток США» — один VPC) и на каждую среду. Архитектура охватывает несколько регионов, обеспечивая отказоустойчивость и высокую доступность на уровне сервисов. Существует четыре группы регионов, и, следовательно, четыре VPC. Внешний пользовательский трафик направляется в ближайший регион с помощью политики геолокации, настроенной в публичных зонах Cloud DNS. Внутри трафик маршрутизируется между группами регионов через прокси-приложение, а трафик между кластерами GKE — через внутренний балансировщик нагрузки (ILB), где каждый ILB имеет собственную запись DNS.


Характеристики многопользовательской платформы GKE
Как указано в общедоступной документации Google, при запуске и эксплуатации кластера GKE необходимо учитывать ряд факторов. Команда платформы усердно работала над решением следующих вопросов и удовлетворением требований различных команд арендаторов:
  • Размещение рабочей нагрузки: команда платформы назначает метки пулам узлов для поддержки соответствия рабочей нагрузки, а арендаторы используют комбинацию маркеров и допусков, чтобы гарантировать распределение рабочих нагрузок по правильным пулам узлов. Это необходимо, поскольку каждый пул узлов предъявляет особые требования к межсетевому экрану в зависимости от типа обрабатываемого трафика (HTTPS, POPS и т.д.). Кроме того, теги диспетчера ресурсов используются для управления правилами межсетевого экрана и связывания пула узлов с соответствующим правилом межсетевого экрана.
  • Управление доступом: управление доступом на основе ролей (RBAC) в Kubernetes — основной способ управления и ограничения доступа пользователей к ресурсам кластера. У каждого арендатора есть одно или несколько пространств имён в кластере, и кластер загружается со стандартными политиками в процессе подключения арендатора.
  • Сетевые политики: все кластеры организованы на основе dataplane v2, а Yahoo Mail использует стандартную сетевую политику Kubernetes для управления потоками трафика. В основе лежит Cilium — решение с открытым исходным кодом для обеспечения, защиты и мониторинга сетевого соединения между рабочими нагрузками.
  • Квоты ресурсов: для оптимизации использования ресурсов и предотвращения чрезмерного потребления команда платформы применяет квоты ресурсов для ЦП/памяти в пределах пространства имен.
  • Масштабирование: определяется командой платформы на основе запросов квот, поданных арендатором при подключении. Из-за определённых ограничений функций, связанных с автоматической подготовкой узлов, связанных с использованием безопасных тегов для правил брандмауэра и определением определённого типа и формы машины, это не удалось реализовать, но мы совместно с командой инженеров разработали запросы функций для устранения этого пробела.

Проблемы
В ходе этой миграции как Yahoo Mail, так и Google столкнулись с техническими ограничениями и проблемами. Ниже мы описываем некоторые из основных проблем и подходы, принятые для их решения:
  • Подключение к плоскости управления: Как и большинство корпоративных клиентов, Yahoo Mail предоставила частные кластеры GKE и нуждалась в подключении между плоскостью управления и инструментом CI/CD (отвёрткой) извне сети VPC. Команда платформы развернула хосты-бастионы, которые использовались для проксирования подключения к плоскости управления, но столкнулась с проблемами масштабируемости. Google совместно с клиентом протестировала два решения, использующие шлюз Connect и конечную точку на основе DNS, чтобы исключить необходимость в хосте-бастионе.
  • Сквозной mTLS: одним из ключевых принципов безопасности Yahoo Mail было обеспечение сквозного mTLS, который должен быть реализован как в архитектуре в целом, так и в базовых сервисах Google Cloud. Это привело к серьёзным проблемам, поскольку один из ключевых продуктов балансировки нагрузки ( Application Load Balancer ) на тот момент не поддерживал сквозной mTLS. Мы исследовали альтернативные решения, такие как внедрение специализированного прокси-приложения и использование балансировщиков нагрузки уровня 4 во всём стеке. Профессиональные сервисы также сотрудничали с инженерами Google Cloud для определения требований к поддержке mTLS в рамках Application Load Balancer.
  • Интеграция с Athenz: Yahoo Mail использовала внутренний инструмент управления идентификацией и доступом Athenz, с которым должны были интегрироваться все сервисы Google Cloud для реализации федерации идентификационных данных рабочей нагрузки. В контексте Kubernetes это означало, что пользователям по-прежнему требовалась аутентификация через Athenz, но федерация идентификационных данных рабочей нагрузки использовалась в качестве посредника. Поскольку федерация идентификационных данных рабочей нагрузки также была относительно новой функцией, для успешного внедрения в среду Yahoo Mail нам потребовалось тесное сотрудничество с инженерами Google Cloud.
  • Kubernetes externalTrafficPolicy: Одной из отличительных функций, о которой Yahoo Mail горячо и с нетерпением рассуждала, была взвешенная маршрутизация для балансировщиков нагрузки. Эта функция позволяла оптимально направлять входящий трафик к бэкендам. Хотя эта функция поддерживалась для управляемых групп экземпляров, на тот момент встроенной интеграции с GKE не было. В связи с её отсутствием команде платформы пришлось исследовать и экспериментировать с режимами externalTrafficPolicy, такими как локальный и кластерный режимы, чтобы определить влияние на производительность и ограничения.
  • Планирование ресурсов: Наконец, что не менее важно, специалисты Google Professional Services выполнили планирование ресурсов – краеугольный камень успешной миграции в облако. В данном случае это включало в себя совместную работу нескольких команд разработчиков приложений для определения базового уровня потребностей в ресурсах, формирования ключевых предположений и оценки ресурсов, необходимых для удовлетворения текущих и будущих потребностей. Планирование ресурсов – это высоко итеративный процесс, который должен меняться по мере изменения рабочих нагрузок и требований. Поэтому регулярные проверки и поддержание четкой коммуникации с Google имели первостепенное значение для обеспечения адаптации поставщика облачных услуг к потребностям клиента.

Следующая веха Yahoo Mail
Миграция такого большого приложения, как Yahoo Mail, — это сложнейшая задача. Благодаря двуединому подходу — «поднятию и переносу» для большинства сервисов и стратегической перестройке архитектуры для некоторых — Yahoo уверенно движется к настройке своей почтовой системы для следующего поколения клиентов. Хотя небольшая часть системы Yahoo Mail уже находится в эксплуатации, ожидается, что большинство её сервисов будут запущены в течение следующего года. Подробнее о том, как Google PSO может помочь с другими аналогичными сервисами, см. на этой странице.
cloud.google.com/consulting/portfolio

Приглашаем на митапы about:cloud — infrastructure



Разработчики Yandex Cloud и Yandex Infrastructure приглашают вас посетить митапы about:cloud — infrastructure. В этом году мы впервые проводим их офлайн в нескольких городах.

Даты и города
Выберите город для участия и пройдите регистрацию.
21 августа — Казань
28 августа — Санкт‑Петербург
4 сентября — Новосибирск
11 сентября — Екатеринбург
16 октября — Москва (офлайн + онлайн)
events.yandex.ru/events/aboutcloud/index
В формате неформальной встречи обсудим нюансы разработки и устройство инфраструктуры «под капотом», расскажем о сложностях в разработке и как их избежать, подсветим самые нетривиальные подходы к развертыванию и эксплуатации облачных сервисов.

О чём расскажем
  • Как мы разделили плейны для обеспечения отказоустойчивости сети, а также про опыт развертывания и эксплуатации сетевого control-plane.
  • Как мы строим инфраструктуру поверх инфраструктуры.
  • Про разработку «железного» сервиса и нестандартную методику его тестирования.
  • Как обеспечиваем оптимальную работу сетевых дисков с сохранением производительности.
  • Про наш подход к автоматизации управления метаданными и оптимизацию их хранения в S3
  • Про проблему «серых» отказов в сети и как нам удалось её разрешить.

Важное обновление: изменения в наших условиях и положениях



Мы обновляем наши Условия и положения с 27 августа 2025 года, чтобы ввести новый пункт в раздел «Аннулирование доменного имени или веб-сервиса и/или сервиса электронной почты».

Что меняется?
Мы добавляем следующий абзац:

  • В случае аннулирования клиентом доменных имен, не продления регистрации доменных имен к моменту истечения срока действия, несмотря на напоминание о приближающемся истечении срока действия, или неуплаты сборов за продление, Регистратор имеет право деактивировать это доменное имя по своему усмотрению, изменить записи DNS («деактивация»), вернуть его в Реестр для удаления или дальнейшего управления в Реестре («удаление»), а также распорядиться, выставить на аукцион, передать третьим лицам, забрать на собственное удержание («использование» или «использование» — это означает использование домена в собственных целях по своему усмотрению). Регистратор начнет выполнять такие действия не ранее, чем через пять (5) дней после истечения срока действия доменных имен с льготным периодом продления или по истечении срока действия доменных имен без такого периода. Клиент соглашается с тем, что аннулирование или непродление регистрации доменного имени, а также неуплата надлежащих сборов за продление, означает его согласие с действиями, описанными выше, а также с продлением регистрации доменного имени в объеме, необходимом для их обязательство при условии, что Клиент не возражает прямо до окончания срока и не существует иного соглашения».

Мы хотели бы напомнить вам о важности продления доменного имени до истечения срока его действия. Если плата за продление не будет оплачена и домен не будет продлен до истечения срока действия, вы можете потерять права на своё доменное имя.

Лучшие практики по защите вашего домена
Продлите регистрацию домена до истечения срока. Мы также отправим вам несколько электронных писем с напоминаниями о необходимости сделать то же самое.

Рассмотрите возможность включения автоматического продления для вашего домена и сохраните данные действительной кредитной/дебетовой карты в своей учётной записи. Вот как это сделать. Это обеспечит автоматическое продление домена, и вам не придётся беспокоиться о том, что вы пропустите срок продления.

Мы обновили льготный период продления (время, предоставляемое для продления домена после истечения срока его действия). Мы предлагаем льготный период до 30 дней в зависимости от зоны домена, но оставляем за собой право отменить или изменить его в будущем.

Важное обновление: изменения в политике регистрационных данных ICANN



Мы хотим держать вас в курсе предстоящих изменений в Политике регистрационных данных ICANN (RDP), которые вступят в силу 21 августа 2025 года. Эти обновления являются частью усилий ICANN по стандартизации и защите регистрационных данных у регистраторов и реестров.

Ключевые изменения:
Реестры переходят на тонкие модели данных

Для некоторых реестров теперь потребуются ограниченные (THIN) контактные данные.
Влияние: От вас не требуется никаких действий. Мы продолжим собирать все 4 типа контактов (регистратор, администратор, технический специалист, плательщик) в обычном режиме, но на стороне сервера мы будем отправлять только те данные, которые требуются каждому реестру.
Организация-регистратор как законный владелец

Начиная с 21 августа 2025 года:
  • Если поле «Организация» заполнено, эта организация становится держателем зарегистрированного имени (законным владельцем) домена.
  • Если поле пустое, владельцем будет считаться указанное лицо.
  • Поле «Организация регистранта», если оно указано, будет по умолчанию отредактировано в RDDS (WHOIS/RDAP).

Уведомления панели управления
Чтобы сделать это понятным вашим клиентам, мы добавляем уведомления на панель управления доменом, чтобы информировать их о редактировании поля «Организация регистранта» и предоставлять им возможность согласиться на публикацию сведений о своей организации, если они того пожелают.

Что мы делаем:
  • Обновление витрин, панелей управления и API для соответствия этим новым требованиям.
  • Обеспечьте информирование своих клиентов посредством уведомлений на экране до вступления политики в силу.
  • Предоставление обновленной документации API, которая поможет вам интегрировать эти изменения.

Требуемые действия:
Никаких немедленных действий с вашей стороны не требуется, но мы рекомендуем:
  • Информирование клиентов о важности поля «Организация».
  • Пересмотр существующих процессов для подготовки к внедрению 21 августа.

Приглашаем на Selectel Tech Day



Присоединяйтесь к флагманской конференции Selectel для бизнеса
8 октября соберем IT-директоров, менеджеров продуктов, технических специалистов, инженеров и техноблогеров в Цифровом Деловом Пространстве. Обсудим лучшие практики в управлении и развитии IT-инфраструктуры:
  • опыт технологических компаний;
  • ML- и AI-инфраструктуру;
  • DevOps, Kubernetes, сети и безопасность.

techday.selectel.ru/2025

flowTrack Service Discovery теперь доступен через наш API

flowTrack Service Discovery теперь доступен через наш API — ознакомьтесь с ним здесь: https://apidoc.aurologic.com/?urls.primaryName=DDoS-Protection#/antiddos/getAntiddosFlowtrackServiceDiscovery

Мы работаем над оркестровкой сервисов на основе машинного обучения. Дальнейшие разработки будут опубликованы после того, как будут готовы к запуску в эксплуатацию

Наконец-то нормальный транзит в Хельсинки — 22 мс до Германии, дальше — Pops


Пару недель назад мы развернули дополнительную систему охлаждения центра обработки данных. Новое решение работает с жидкостным охлаждением и обеспечивает валовую выходную мощность около 500 кВт. Его можно использовать в качестве поддержки для блоков прямого расширения, у которых возникали серьезные проблемы с уменьшением выходной мощности охлаждения в жаркие летние дни.

Обновление инфраструктуры в Нидерландах: AMD EPYC, 40G Private Network и Private Cloud под ключ



У нас отличные новости для тех, кто работает с высоконагруженными задачами, развивает AI-инфраструктуру, DevOps-платформы, запускает RPC-ноды или строит собственные облака. Мы обновили инфраструктуру в Нидерландах, Амстердам и теперь вы можете использовать мощные выделенные серверы на базе AMD EPYC и Ryzen, подключённые к новой сети с uplink до 100Gbit/s и частными 40Gbit/s-соединениями между серверами.

Что нового в Амстердаме?
  • Выделенные серверы с высокой производительностью: AMD EPYC и Ryzen — идеальны для MLOps, CI/CD, баз данных и прочих масштабируемых задач. Посмотреть конфигурации Конфигурации с процессорами AMD EPYC и RYZEN: NL4-(5,8,9,17), NL3-(18-22)
  • Частная сеть до 40Gbit/s: В Амстердаме запущена новая сетевая инфраструктура, которая позволяет создавать частные L2-сети между вашими серверами — с пропускной способностью до 40Gbit/s. Подходит для Ceph, Kubernetes, кластеров хранения, AI/ML, RPC-нод и HPC.
  • Uplink до 100Gbit/s: Публичная сеть высокой пропускной способности до 100Gbit/s. Это решение идеально для медиаплатформ, AdTech/RTB, гейминга и любой heavy I/O нагрузки.
  • Private Cloud за 30 минут: Сочетание нового железа и сетей позволяет нам разворачивать приватные OpenStack/Kubernetes облака — на выделенных серверах, без vendor lock-in и с полной изоляцией. Вы получаете predictability, скорость и контроль.
  • Кастомные конфигурации: Нужна специфическая архитектура? Мы поможем собрать индивидуальный кластер под ваш стек, включая GPU, кастомные маршруты, SR-IOV и любые особенности. Просто опишите задачу — остальное мы берём на себя.
  • Хотите обсудить кейс или собрать пилотный кластер? Ответьте на это письмо или создайте тикет в личном кабинете — наша инженерная команда предложит вариант под ваш проект.
  • Оставить заявку в отдел продаж

cp.inferno.name/cart.php?gid=42

С уважением,
Команда is*hosting

Проблемы с sms – подключайте Telegram!



Мы заметили, что SMS-сообщения часто не доходят из-за технических особенностей операторов связи. Чтобы вы всегда оставались на связи и получали важные уведомления вовремя, рекомендуем подключить Telegram.

Почему Telegram?
  • Надежная доставка сообщений;
  • Мгновенные уведомления;
  • Никакой рекламы и спама!

Как подключиться?
Перейдите в настройки учётной записи на вкладку «Соц. сети».
Нажмите на значок Телеграма
На сайте telegram.org подтвердите подключение к нашему боту;
На странице уведомлений и безопасности настройте уведомления в Телеграм.

Также рекомендуем выключить 2ФА по SMS и настроить TOTP аутентификацию.
Если у вас возникнут вопросы, будем рады помочь!

mchost.ru

Отчет по DDoS-атакам от Selectel



Отчет по DDoS-атакам за первое полугодие 2025 года
С каждым годом увеличиваются количество и мощность DDoS-атак на инфраструктуру клиентов. Последствия для компаний могут быть разными — от финансовых потерь и утечек данных до репутационного ущерба.

Мы в Selectel подготовили аналитический отчет о DDoS-атаках и выяснили, что на одного клиента приходится до 4 156 атак за месяц. Подобный объем невозможно отбить вручную, поэтому базовая бесплатная защита — важная часть услуг облачного провайдера.

Введение
Согласно отчетам за первое и второе полугодие 2024 год, количество и мощность DDoS продолжали расти. Сегодня мы наблюдаем, что в H1’25 тенденция сохраняется. У этого могут быть негативные последствия для компаний — например, финансовый или репутационный ущерб в случае простоев из-за атак.

Что такое DDoS?
Более 28 000 клиентов Selectel генерируют сетевой трафик свыше 300 Гбит/с. Так мы в Selectel собрали отчет о DDoS-атаках, отраженных с помощью бесплатного сервиса защиты за первое полугодие 2025. Уникальные данные, полученные в процессе анализа инцидентов, помогают нам оценить риски для облачной инфраструктуры, а клиентам — скорректировать настройки своих IT-систем для защиты.

Ключевые выводы
Согласно полученным данным, в первом полугодии 2025 общее число атак идет на спад по сравнению со вторым полугодием 2024, но растет относительно первого. При этом продолжительность осталась примерно на том же уровне в сравнении с H2’25.


С января по июнь 2025 года бесплатным сервисом защиты от DDoS были отражены 61 212 атак общей продолжительностью более 9 652 часов.

Максимальный объем составил около 204 Гбит/с, а скорость — 100 миллионов пакетов в секунду. В среднем, инфраструктура Selectel отражала порядка 340 атак ежедневно в течение всего полугодия. При этом самыми популярными типами DDoS остаются TCP PSH/ACK Flood, TCP SYN Flood и UDP Flood, которые занимают 76% от общего количества атак. В прошлом полугодии их доля составляла 70%.


Самые мощные атаки зафиксированы в январе и июне, а наиболее продолжительные — в январе. Средняя продолжительность атак на одного клиента не превышала 11 часов, при этом максимальное время, в течение которого один клиент находился под атакой, составило 553 часа. По сравнению с 2024 годом это на 383 и 61 час больше, чем в первом и втором полугодии соответственно.

В первом полугодии 2025 максимальное количество атак за месяц на одного клиента, которое зафиксировал и отразил бесплатный сервис защиты, составило порядка 4 156 инцидентов. Это на 2 996 атак больше, чем в первом полугодии 2024, но на 465 атак меньше, чем во втором.

В сравнении с аналогичным периодом в 2024 году, атаки становятся не только более частыми, но и продолжительными, что может указывать на рост числа повторных и затяжных инцидентов. Можно сказать, атакующие сместили фокус с экстремально мощных атак на более частые, распределенные, но менее объемные и интенсивные по пиковым значениям сценарии.
Изменение характера атак связано и напрямую коррелирует с кратным увеличением размера ботнетов. Если в 2024 году они состояли всего из нескольких сотен тысяч устройств, то в 2025 это значение достигает почти пяти миллионов.
Почему стратегия атакующих изменилась? Ответ лежит на поверхности: постоянные атаки небольшой и средней интенсивности приводят к деградации производительности, но могут быть незаметны для средств защиты, настроенных на пиковые значения.
Антон Ведерников руководитель направления продуктовой безопасности в Selectel

Аналитика атак
Количество

За период с января по июнь 2025 года бесплатным сервисом защиты от DDoS-атак Selectel были отражены 61 212 атак.

Наибольшее число инцидентов пришлось на январь. В среднем мы отражали 10 202 атак в месяц. На каждого атакованного клиента приходится 51 инцидент. В 2024 это значение составляло 27 и 65 инцидентов в первом и втором полугодии соответственно.

Максимальное число атак на одного клиента в первом полугодии 2025 года значительно варьировалось по месяцам и в среднем составляло 2 426 инцидентов. Наибольшее количество инцидентов зафиксировано в мае — 4 156.


Мощность
Основные характеристики, определяющие мощность атаки на сетевом и транспортном уровнях, — это объем и скорость.

Атаки, характеризующиеся высоким объемом переданных бит за секунду и направленные на переполнение полосы пропускания, достигли своего максимума в январе, составив 204 Гбит/с.

Несмотря на рекордный объем атаки в январе, средний объем переданных данных за один инцидент в этом месяце был практически минимальным. Наибольшее среднее значение объема переданных данных за атаку — 78 ГБ — было зафиксировано в феврале. При этом количество переданных пакетов значительно колебалось: максимальное значение — 284 миллиона, также зафиксированное в феврале, почти в пять раз превышает минимальный показатель, зарегистрированный в январе.

Атаки с большой скоростью направлены на исчерпание вычислительных ресурсов сетевого оборудования.

Самая скоростная DDoS-атака была зафиксирована в июне и достигла 100 миллионов пакетов в секунду. Это более чем в восемь раз выше по сравнению с максимальной скоростью в феврале.


Продолжительность
Суммарная продолжительность атак с января по июнь 2025 года составила 9 652 часа.


Наибольшая продолжительность атак зарегистрирована в январе. Она достигает 1 977 часов. При этом изменение показателя от месяца к месяцу незначительное.

За исключением февраля, средняя длительность атаки не превышала 10 минут, а максимальная длительность одной атаки зафиксирована в апреле — 222 часа, что почти в 14 раз больше значения в марте.

По сравнению с 2024, актуальная продолжительность атак на 66 и 20 часов больше, чем в первом и втором полугодии соответственно.


Средняя общая продолжительность атак на одного клиента не превышала 11 часов.


Максимальная общая продолжительность атак на одного клиента превысила 553 часа за один календарный месяц.



Типы атак
Распределение типов атак по месяцам менялось незначительно. Самыми популярными были атаки типа TCP PSH/ACK Flood, TCP SYN Flood и UDP Flood. Они занимают 76% от общего количества атак.


UDP Flood осуществляется путем отправки большого количества UDP-датаграмм на выбранные или случайные порты целевого узла. Получатель проверяет каждый пакет, определяет соответствующее приложение, убеждается в отсутствии активности и отвечает ICMP-сообщением: «Адресат недоступен». Эти процессы требуют значительных вычислительных ресурсов, и при их массовом выполнении могут привести к перегрузке атакуемого узла.

TCP SYN Flood реализуется путем отправки множества SYN-запросов на подключение, при этом ответные SYN+ACK пакеты, отправленные сервером, игнорируются. Это приводит к тому, что на сервере появляется очередь из полуоткрытых соединений, которые не позволяют установить новые — легальные — подключения. Как итог — сервер теряет возможность подключения легитимных пользователей или длительного ожидания.

TCP PSH/ACK Flood работает по принципу отправки множества фальсифицированных ACK-пакетов на определенные или случайные номера портов атакуемого узла, которые не принадлежат ни одной из сессий в списке соединений. Тот, в свою очередь, вынужден тратить вычислительные ресурсы на проверку поддельных пакетов.



Динамика изменения показателей
Анализ показателей за первое полугодие 2025 года выявил устойчивый и значительный рост числа атак и их продолжительности. В то же время, мощность и скорость атак постепенно снижаются. Массовый характер атак сохраняется, при этом при целенаправленных атаках злоумышленники проводят длительные кампании, пытаясь нанести ущерб инфраструктуре. В это же время количество инцидентов на отдельный сервис или организацию может исчисляться тысячами.




Количество атак выросло почти вдвое — с 31 436 до 61 212. Это свидетельствует о значительном росте активности злоумышленников и увеличении числа атак на инфраструктуру. Общая длительность атак увеличилась еще более заметно — в 2,5 раза (с 3 895 до 9 652 часов). Атаки становятся не только более частыми, но и более продолжительными, что может указывать на рост числа повторных и затяжных атак.

При этом, максимальный объем и скорость атак снизились с 332 до 204 Гбит/с (на 38,6%) и со 166 до 100 миллионов пакетов в секунду (на 39,8%) соответственно. Атакующие сместили фокус с экстремально мощных атак на более частые, распределенные, но менее объемные и интенсивные по пиковым значениям сценарии. Изменение характера атак связано и напрямую коррелирует с кратным увеличением размера ботнетов — несколько сотен тысяч устройств в 2024 году, против почти пяти миллионов в 2025 году.

Действительно, экстремально мощные атаки временно утратили лидерство — они трансформировались в атаки типа Pulse Wave, при которых потоки вредоносного трафика идут волнами с паузами, и это длится часами.
Также подтверждаем тенденцию к развитию ботнетов. Об этом говорит почти двукратный прирост в числе уникальных IP-адресов, одновременно участвующих в атаке (по сравнению с 2024 годом).
Дмитрий Никонов Руководитель направления защиты от DDoS на уровне веб-приложений в DDoS-Guard

Самыми популярными атаками остаются UDP Flood, TCP SYN Flood и TCP PSH/ACK Flood. Их доля в общем объеме увеличилась с 70% до 76% всех инцидентов.

12 выделенных серверов в Москве — успей забрать по акции!



Мощность, которую не нужно ждать — 12 серверов в наличии в Москве!

Мы открываем аренду уникальной партии выделенных серверов для любых задач — от высоконагруженных сервисов до больших хранилищ.

Конфигурация каждого сервера:
  • CPU: 2× Intel Xeon Gold 6252 (48 ядер / 96 потоков)
  • RAM: 384 GB
  • Диски: 2×240GB SSD + 2×1600GB SAS SSD + 7×4000GB HDD
  • Сеть: 2×10Gbit/s + 2×25Gbit/s (локалка 2×25Gbit/s)
  • Подключение: 1 Gbit/s (50 TB) (возможен безлимитный внешний канал)

Гибко под задачи — конфигурацию можно изменить по запросу.

Стоимость по акции: всего 35 000 ₽/мес

Можно взять от 1 сервера
При аренде всей партии — выгодная скидка

В наличии — всего 12 штук. Кто успел, тот и забрал!

https://serv-tech.ru