«Поздравляем с терабитом». Та самая статья про DDoS-2023 — без цензуры





Дисклеймер ↓
Этот материал должен был выйти в декабре 2023, прямо перед Новым годом, — и это классический пример про «лучшее враг хорошего». Сначала нам не нравилось, что мало подробностей. Потом — что их излишне много. Была версия с цитатами, но без скринов. Со скринами, но без цитат. Мы записали столько интервью с сетевиками, что сами в них запутались.

Но в итоге сегодня наша статья наконец-то выходит в свет. Из цензуры — только внимательная рука корректора. Передаем слово Максу Яковлеву.

Меня зовут Максим, я руковожу отделом сетевых инженеров в Таймвебе. Как вы уже поняли из заголовка, речь пойдет про наш прошлогодний DDoS. Это не стандартный постмортем, а скорее история от первого лица. Расскажу и покажу, каково это было изнутри — жить на энергетиках и пересобрать ядро сети всего за пару месяцев.



❯ Некоторое время до
Про Таймвеб вы, скорее всего, знаете. И скорее всего — как про хостинг, работающий по модели shared, с саб-сервисами вроде регистрации доменов, конструктора сайтов и пр. Еще есть облако, выросшее из хостинга, — о нем и пойдет речь.

В 2023 мы начали потихонечку распиливать легаси-сеть хостинга и делать ее похожей на сеть IaaS-провайдера. Но в целом архитектура на момент дня Х была довольно типичной для хостинга: несколько маршрутизаторов, стопка растянутых VLAN, три транзита и пара обменников.

В хостинговом бизнесе объем каналов рассчитывается от объема общего трафика на сеть, плюс запас на случай аварий и атак, обычно не превышающий 10х от трафика в ЧНН. Отсюда выстраивается защита инфраструктуры и клиентов: оценивается максимально ожидаемая совокупная мощность атак, берется небольшой запас и подбираются механизмы противодействия, чтобы и отдельного клиента защитить, и самим при этом не упасть.

Важно понимать, что любой типичный хостинг находится под DDoS-атакой практически 24/7: хоть одного клиента в каждый момент времени да атакуют. Поэтому DDoS для нас — это даже несколько банально. За 17 лет мы повидали много чего и в принципе знаем ключевые (и не только) паттерны, откуда, что, куда и как.

❯ Добрый вечер
14 сентября, ближе к 18:00, в нас влетел очередной DDoS, с которым известно что делать. Отбили — пошли отдыхать. И не успел я допить чай, как атака повторилась, потом опять, а потом еще раз. Каждый раз интервал уменьшался, а объем нарастал.

Скриншот от StormWall в тот момент

Далее для любителей краткого изложения перечислю возникшую причинно-следственную связь по инфраструктуре.

В площадку наливается больше, чем та способна переварить → роутеры перегружаются вплоть до потери сигнализации → мы через OOB блокируем атаку через RTBH/FS или переключаем сеть на сторонний центр очистки трафика → цель атаки меняется в течение пяти минут.

Из дополнительных проблем в СПб: аплинки подключены через свитчи с переподпиской, QOS или не работает, или не хватает буфера → разваливается сигнализация. Дополнительно существуют громадные растянутые VLAN, из-за чего атака на одну подсеть затрагивает огромное количество клиентов. Мониторинг и контрмеры работают слишком медленно.

Иногда приходилось расставлять приоритеты

И в остальных локациях: нет своей сети, а ЦОДы нас блочат, защищая свою инфраструктуру. Когда сеть отдается напрямую с железок дата-центра, нет не то что возможности заблокировать атаку, затруднена даже идентификация паттерна: раз — и ноды отвалились. Из доступной информации только триггер в Заббиксе. Самые печальные моменты — когда у нас сутками лежало несколько локаций целиком и наглухо. Даже аплинки наших провайдеров в дата-центрах просто говорили, что мы не готовы это фильтровать, поэтому мы вас отключаем. Как атаки прекратятся, подключим обратно.

❯ Мы накидываем план
Первое: научиться блокировать хотя бы часть атаки на уровне маршрутизаторов провайдеров. Цель — снизить воздействие на клиентов, защитить инфраструктуру. Второе: научить нашу сеть переваривать всю аплинковую емкость без спецэффектов, параллельно ее расширяя.

По железу: разобрать кучу мелких маршрутизаторов и поставить шасси, расширить каналы или пересадить их напрямую на роутеры либо убрать переподписку. Параллельно: доработать DDoS-защиту до состояния, когда мы можем блокировать атаку быстрее, чем это заметят клиенты, на которых не идет паразитный трафик.

И стратегически: построить свои сети во всех локациях. И собственную защиту.

В первую очередь отказываемся от существующей системы подавления DDoS, потому что она приносит больше вреда, чем пользы. Сетевики начинают спать по очереди, текущий flow-мониторинг меняем на семплированный Inline IPFIX с payload-ом. Таким образом не ждем, пока соберется поток, и принимаем решения за секунды. Этот шаг помог уменьшить среднее время обнаружения каждой атаки: чтобы понять, что она началась и как нужно действовать, нам сначала нужна была пара минут, чуть позже — 15 секунд, а сейчас автоматика реагирует почти мгновенно.

Рабочая обстановка

Изначально управление было ручным, чуть позже принятие решений стало автоматизированным: мониторинг научился блокировать DDoS сразу же после обнаружения. В итоге за период с 14 по 20 сентября мы заблокировали более 20 тысяч отдельных паттернов.

В это время по всем каналам — в телеге, в соцсетях, в тикетах — клиенты переживали, ругались и задавали вопросы. И я их прекрасно понимаю. Кстати, о прекрасном:


Дорабатываем защиту: делаем ее быстрее, технологичнее, чтобы принимала максимально правильные решения. Разбираем всю старую архитектуру и избыточные куски сети — все под нагрузкой и идущими атаками и так, чтобы воздействие на клиентов было минимальным.
Примерно в это же время атакующие понимают, что мы что-то сделали, поэтому меняют паттерны. Мы стали получать мощные краткосрочные волны трафика, на которые не успевала реагировать ни наша программа, ни большинство предлагаемых на рынке защит: заливало настолько разнообразно и быстро, что наши стыки и некоторые обменники начали складывать в нас сессии по prefix-limit. В эти периоды бывало и такое:


❯ Строим свою сеть
Начинаем с Питера. План включал в себя апгрейд маршрутизатора с установкой дополнительных плат и подключение к различным каналам и точкам обмена трафиком. Цель — увеличить пропускную способность: нам нужно было научиться принимать трафик атак и блокировать более точечно, а не просто кидаться блекхолами и снимать префиксы. Кроме того, стало понятно, что объемы атак могут расти и нам нужно будет научиться расширять емкость более оперативно, не проходя весь цикл «найти железо → найти емкость → собрать».

Главный роутер в СПб. На скрине MX480 в составе 2xSCBE2, 2xRE-S-2X00x6, 4xMPC7E MRATE

Обычные маршрутизаторы не всегда эффективны для такой деятельности: они обладают слишком сложным и дорогим конвейером обработки трафика, предназначенным для других задач. Исходя из этого мы решили действовать комплексно: помимо расширения каналов и увеличения портовой емкости сервисных и пограничных маршрутизаторов начали внедрять пакетные платформы на базе Juniper PTX. Они хоть и попроще, но в них много дешевых 100G/400G-портов, как раз то, что нам нужно.

Благодаря хорошим отношениям с поставщиками мы смогли быстро найти сетевое оборудование: поставка заняла всего полтора месяца. Для техники такого класса это очень быстро.

В итоге в Питере мы добили емкость по основным направлениям до 500+ гбит, а по автономке у нас сейчас суммарно около терабита. Уже через две недели после этого ситуация в СПб стабилизировалась: емкости хватало, фильтры отрабатывали оперативно. В остальных локациях сеть была арендованная: и в Казахстане, и в Европе. По этой причине параллельно с выравниванием ситуации в Питере у нас появилась новая приоритетная задача: поставить в заграничные локации собственные маршрутизаторы и дотянуться до них из Питера — тянуться решили через M9.

Девятка до сих пор крупнейшая пиринговая точка и сосредоточение телеком-инфраструктуры РФ и СНГ. Кроме основных трасс для всей России, туда же заходят каналы от СНГ — зачастую единственные.

Магистральные каналы между площадками дают несколько преимуществ:
  • Возможность отправлять и получать трафик через любые другие стыки Таймвеба во всех странах.
  • Возможность предоставлять клиентам дополнительные сервисы в виде каналов связи.
  • Наше управление не развалится никогда, даже если внешние стыки в локации будут забиты под полку.

Собственно, начинаем с Казахстана. Протянули канал до девятки и пустили трафик уже через свою сеть.


MX204 на девятке, собирает магистрали и внешние линки. Скоро заменим его 960-м и будем забивать сотками

Кстати, с доставкой в Казахстан повезло не с первого раза. На казахской таможне менялся состав — и все встало мертвым грузом. Ситуацию решили творчески: отправили одного из наших сотрудников везти 204. Забавно, что изначально мы собирались отправлять MX104 — довольно старую и давно снятую с поддержки платформу, которой, впрочем, с запасом хватает на нужды этой площадки.

MX104 со склада — кусочек истории телекоммуникаций

Но из-за ее громоздкости отправили 204 — и теперь в казахстанском ЦОДе у нас стоит платформа, которой хватит на целый машинный зал облака, а не на наши несколько стоек. На память осталась только фотка со стикером из аэропорта Екб:


К декабрю дотянулись и в Европу: теперь у нас есть узлы во Франкфурте и Амстердаме с арендованной магистральной емкостью. Там появились выходы и в интернет — через Tier-1 операторов, и на европейские обменники.

Следующий логичный шаг — перевели площадки в Амстердаме и Польше на свою сеть. Теперь нас никто не отключит в случае атак, как бонус — интернета стало больше и появились выделенные каналы для клиентских выделенных серверов, скоро будут и во всем Клауде. В итоге вы сможете не только заказать себе сервер с 10G-интернетом, но и расширить локальную сеть до любой нашей точки присутствия — с гарантированной полосой и любыми удобными вам настройками.

Раз уж пошли по локациям, то добавлю, что в этом году запустились и в Москве, в IXcellerate. Это Tier-3 с уникальной системой охлаждения по типу «холодная стена». Я там был на экскурсии — наверное, самое интересное, что я видел в России и СНГ, а поездил я немало. Пиво еще вкусное у них было — тоже плюс.

Москва, кстати, у нас сразу же запустилась с нормальной архитектурой: широкие линки на стойку, 200G до девятки, масштабируемый слой агрегации. По умолчанию даем на все виртуальные серверы по гигабиту в секунду вместо 200 мегабит, на всех дедиках доступно 10G/40G по запросу. В результате, если клиентам это необходимо, мы можем дать гораздо больше емкости, чем могли бы в Петербурге еще полгода назад.

2xQFX5120-32C в IXcellerate

❯ Почему мы не спрятались за подрядчиками
На самом деле мы обращались к нескольким компаниям, но на тот момент уже стало понятно, что у нас не получится использовать их как общее средство защиты для всей сети.

Решения по комплексной защите от DDoS, по сути, делятся на два вида: это готовые решения, устанавливающиеся непосредственно на сети компании, и сторонние центры очистки трафика, через которые этот самый трафик нужно пропускать. На тот момент у нас существовали собственные чистилки и был опыт постройки подобных решений. Посоветовавшись с коллегами по цеху, решили двигаться именно по такому сценарию: принимать трафик → очищать большие потоки на уровне сети, привлекая центры очистки в отдельных случаях → заниматься тонкой очисткой с помощью вендорских решений.

Важно отметить, что при использовании внутренних решений для защиты от DDoS необходима сеть, способная обрабатывать и фильтровать трафик, не затрагивая других клиентов или локации. То, что отфильтровать не удалось, должно быть направлено на системы тонкой очистки с минимальной задержкой и воздействием на чистый трафик.

Необходимо было сначала усовершенствовать сеть до этого состояния, а затем заниматься внедрением коробочных решений. Мы переводили атакуемые подсети в партнерские центры очистки, хоть иногда это больше аффектило на нормальный трафик, чем помогало.

Такое положение дел было связано с характером самого трафика и с тем, что атаки были короткими и частыми: классифицировать «чистый» трафик в подсети, состав серверов которой меняется от недели к неделе, если не чаще, — малореально. А переключить маршрутизацию за время между атаками часто и вовсе не получается: цели меняются быстрее, чем BGP-апдейты распространяются по интернету.

❯ Что сейчас
Подобные атаки прилетают, но в целом мы научились их фильтровать: чистить на уровне сетевого оборудования или деприоритизировать/блокировать клиента, если объем превышает пороги.

Работы еще много: всю эту новообразовавшуюся сеть нужно резервировать и расширять. На М9 мы взяли целую стойку и собираемся ставить шасси MX960 — с большим запасом на будущее. Оно будет выполнять роль магистральной развязки, принимать внешние стыки и выступать ядром сети дата-центров по Москве, у нас там большие планы. Не забываем и про Северную столицу: платформа PTX10003 станет ядром нового узла на Кантемировской («Радуга»), где будет перемыкать магистрали и стыки с внешними сетями, выступая частью инфраструктуры очистки трафика в Санкт-Петербурге.

Находимся на этапе тестирования с Servicepipe: будем пробовать систему уже тонкой очистки трафика — если атака на клиента не угрожает инфраструктуре, не полностью все блокировать, а принимать трафик атак на себя и отдавать клиенту уже очищенный, вплоть до L7.

Много работы будет по пирингам: думаем, что скоро мы сделаем прямые подключения к Google, AWS, Azure и другим гиперскейлерам. Хотим организовывать серьезные продуктовые преимущества для наших клиентов: если ваш продукт требует очень хорошей связности с мировыми облаками или у вас мультиклауд — мы сможем обеспечить как хорошую связность по интернету, так и выделенные линии, если потребуется.

Для выделенных серверов по части сети у нас получилось очень интересное предложение. По запросу скорости мы даем вплоть до 100—200 гигабит на сервер, так мало кто умеет. Кроме простого интернета — широкий набор сетевых решений: тут и более-менее стандартные L2/L3 VPN на MPLS, и любые манипуляции с внешней маршрутизацией. Для владельцев своих AS соберем транзит, притянем любую популярную точку обмена трафиком. Для тех, кто хочет ими стать, — поможем выпустить ASN, арендовать или купить сети, анонсировать их в мир.

Глобально у нас были компетенции, ресурсы и возможность их тратить на инвестиции в сеть, были контакты и налаженные взаимоотношения с огромным количеством людей. Все это очень сильно нам помогло.

❯ И напоследок — неудобный вопрос от маркетинга
Почему не начали делать все это раньше, а триггером стало то, что на нас пришла атака?
Расширение в целом планировалось, Таймвеб всегда делал упор на качество сети, но процесс шел постепенно. Исторически мы сфокусировались на нашем центральном хабе в СПб, а стройка в остальных локациях планировалась по мере их расширения.

А почему атаки стали триггером? Все банально. Во-первых, мы поняли, что начали расти сильно быстрее, чем планировали. Стало понятно, что нужно больше емкости, больше сервисов — и не когда-то, а сейчас. Во-вторых, появились новые угрозы, которые не отражаются стандартными средствами. В какой-то момент мы переросли «стандартные» подходы, которые мог бы использовать игрок меньшего размера, — нужно было пилить какой-то кастом или средствами сторонней компании, или самостоятельно. Мы выбрали второе.

Изменения в регламентирующих документах

С 26 марта 2024 года корректируется размер комиссии RU‑CENTER при проведении сделок в Магазине доменов. В связи с этим вносятся изменения в Регламент 1/33 к Договору об оказании комплексных услуг.

Обновленная версия документа опубликована на сайте.
www.nic.ru/news/2024/0312-edinaia-komissiia-v-magazine-domenov/

Выделенный сервер со скидкой -50% от SERVER.UA



Дорогие клиенты и партнеры SERVER.UA!

Мы рады поделиться с Вами выгодным предложением, которое значительно упростит жизнь бухгалтерам и веб-разработчикам, которые ищут надежное и эффективное серверное решение. Только семь дней, с 12 по 19 марта, мы предлагаем уникальную возможность получить высокопроизводительный сервер за половину цены!

Конфигурация акционного сервера:
  • CPU 2*E5-2430L v2
  • 12 ядер 24 потока
  • RAM 32GB
  • Диск SSD 1 TB
  • Порт подключения 1 Gbit

Особое предложение:
2956 грн/месяц (старая цена: 5912 грн/мес.)
server.ua/ua/dedicated

Количество серверов, участвующих в акции, ограничено. Также предлагаем Вам ознакомиться с другими акционными предложениями выделенных серверов от 1221 грн/месяц на сайте дата центра SERVER.UA
Для получения дополнительной информации или заказа сервера – обращайтесь в нашу службу поддержки по номеру 0800-210-404 или в Телеграмм t.me/Server_ua_Support
С наилучшими пожеланиями,
команда SERVER.UA

Важные обновления в вашем аккаунте продаж Leaseweb Deutschland GmbH



В рамках нашего стремления постоянно улучшать качество обслуживания клиентов и уровень предоставляемых нами услуг, мы обновляем наши системы до новой и усовершенствованной коммерческой системы. Это позволит нам обеспечить бесперебойный процесс заказа, единый на нашем веб-сайте, клиентском портале Leaseweb, а также поддержку со стороны наших отделов продаж. Чтобы вы могли использовать эту расширенную систему, мы продолжим административные изменения вашей существующей учетной записи для этой новой системы Commerce.

С 18 марта 2024 г. вы заметите некоторые изменения в своей учетной записи Leaseweb Deutschland GmbH.

КАКИЕ ИЗМЕНЕНИЯ?
Вы можете быть уверены, что это административное изменение в нашей новой системе не окажет никакого влияния на ваши Услуги. Вы заметите только следующие изменения в вашей существующей учетной записи:
  • Номер заказа/идентификатор услуги: ваш существующий номер(а) заказа/идентификатор(ы) услуги изменится. Это будет видно на Портале для клиентов, в ваших предстоящих счетах и ​​в наших сообщениях.
  • Это изменение применимо только к вашей учетной записи Leaseweb Deutschland GmbH. Если у вас есть договор(ы) купли-продажи с другими торговыми организациями Leaseweb, вы будете уведомлены отдельно, как только такое изменение будет реализовано в других ваших учетных записях.

Обратите внимание, что с 17:00 14 марта по 8:00 18 марта 2024 г. вы не сможете вносить какие-либо изменения в свой договор Leaseweb Deutschland GmbH через портал клиентов Leaseweb. В течение этого времени вы также не сможете размещать новые заказы на нашем веб-сайте/портале для клиентов.

Нужна помощь?
Мы надеемся, что эта информация поможет вам лучше понять предстоящие изменения и даст ответы на любые вопросы, которые могут у вас возникнуть. Конечно, если у нас есть какие-либо конкретные вопросы, с которыми мы можем помочь, пожалуйста, свяжитесь с вашим менеджером по работе с клиентами или создайте заявку через клиентский портал Leaseweb. Мы всегда рады помочь.

С наилучшими пожеланиями,
Служба поддержки клиентов Leaseweb

Новый горизонт для Вашего бизнеса с SpaceCore: Запуск серверов в Нидерландах!



Новый горизонт для Вашего бизнеса с SpaceCore: Запуск серверов в Нидерландах!

Отличные новости для ценителей больших возможностей и космической скорости! Мы рады представить нашу новейшую локацию серверов — Нидерланды.

Новая локация в сердце Европы предлагает не только улучшенную связь и низкую задержку для европейских проектов, но и особенно привлекательные тарифы, где каждый найдет что-то для себя.



ПРОМО-ТАРИФ: Intel Xeon E5-2680v4 (3.3 GHz) 2 vCore / 4 GB RAM / 100 GB SSD / 100 Mbps / Anti-DDoS Standard — всего за 3 евро/мес.

И еще больше вариантов для требовательных проектов:
  • 8 евро/мес — Intel Xeon 4 vCore / 8 GB RAM / 200 GB SSD / 100 Mbps
  • 15 евро/мес — Intel Xeon 6 vCore / 12 GB RAM / 400 GB SSD / 200 Mbps
  • 38 евро/мес — Intel Xeon 10 vCore / 60 GB RAM / 1 TB SSD / 400 Mbps
  • 8 евро/мес — AMD Ryzen 16 vCore / 4 GB DDR5 / 100 GB NVMe / 100 Mbps
  • 15 евро/мес — AMD Ryzen 16 vCore / 8 GB DDR5 / 250 GB NVMe / 100 Mbps
  • 29 евро/мес — AMD Ryzen 32 vCore / 16 GB DDR5 / 350 GB NVMe / 100 Mbps

Все планы включают в себя стандартную защиту от DDoS-атак, чтобы Ваш проект был в безопасности.

Заходите на сайт и выберайте идеальный тариф для своего проекта в Нидерландах. Позвольте Вашему бизнесу взлететь на новые высоты с надежным и высокоскоростным хостингом от SpaceCore!

Оформить заказspacecore.pro/ru/virtual-servers/

Ограниченное предложение - Серверы на AMD Ryzen 9 7950x в США



Представляем вашему вниманию уникальную конфигурацию сервера! В наличии выделенные серверы на процессоре AMD Ryzen 9 7950x в Далласе, США. Этот сервер позволит моментально обрабатывать огромные объемы данных, запускать сложнейшие расчеты и моделирования.
В новинку входит:
  • 16 ядер AMD Ryzen 9 7950x с частотой до 5.7GHz
  • 128GB оперативной памяти
  • 2 накопителя NVMe SSD Samsung PM9A3 ёмкостью 3.84TB каждый
  • 2 порта 10Gbit/s
  • Возможность объединения серверов в локальную сеть
  • Возможность установки GPU
Благодаря высокой частоте процессора вы можете выполнять невероятное количество циклов в секунду, что только подтверждает сверхмощность и высокую скорость обработки данных конфигурации. Канал до 20Gbit/s лишь добавляет конфигурации в Далласе технической привлекательности.

Успейте заказать сервер по выгодной цене! При оформлении заказа от 3 месяцев стоимость будет снижена с $290 до $260 в месяц.

Ограниченное предложение! Первым 5 клиентам оформившим заказ на новую конфигурацию по прокомоду AMDOFF10 доступна дополнительная постоянная скидка 10%!
Важно! Количество новых высокопроизводительных серверов ограничено. Техническая поддержка is*hosting готова ответить на любые вопросы о новой конфигурации и начать его подготовку для ваших целей.

Дайте своему бизнесу мощный рывок с is*hosting – ваш успех находится всего в паре кликов!
cp.inferno.name/cart.php?gid=7

Cкидка 30% на аренду VPS на любой период времени!



Мы рады предложить вам эксклюзивную возможность экономии. Всем без исключения предоставляется скидка в размере 30% на аренду VPS на любой период времени. Цена с учетом скидки зафиксирована и будет сохраняться на протяжении всего периода аренды. Такое предложение — редкость, поэтому не упустите свой шанс.
Данное специальное предложение распространяется на такие локации, как: Литва, Австрия, Канада, Латвия, Польша, Испания, Норвегия, Бельгия, Португалия, Дания, Турция, Россия(Ryzen 9 7950x), Нидерланды(Ryzen 9 7950x).

Не упустите возможность улучшить производительность ваших проектов и сократить свои затраты. Обратите внимание, что количество серверов ограничено.
Оформить заказ можно на сайте: https://4vps.su

Обновлённое оборудование на продажу от НетПоинт

Уважаемые партнёры, у нас обновился список серверного оборудования и PC, которое Вы можете купить и получить гарантию на него.
Список доступен по ссылке: docs.google.com/spreadsheets/d/1QaPkU_9xIy2kXQxV4x3TyTDLooIw2ays1pgGGGCAPOE/

По приобретению/бронированию обращаться в отдел продаж к Наталье письмом на почту: nov@netpoint-dc.com или на номер 8-952-181-18-32 (тел./ватсап)

Увеличили общую энергоемкость в дата-центре «Э2»



После проведения плановых работ по увеличению общей энергоёмкости дата-центра «Э2», расположенного на шоссе Энтузиастов, подведенная к объекту мощность увеличилась на 300 кВт.

Центр обработки данных был запущен в коммерческую эксплуатацию еще в 2019 году. Один из крупнейших ЦОДов 3data имеет удобную транспортную доступность и располагает тремя этажами машинных залов с полным соответствием международным требованиям к надежности и безопасности на уровне Tier 3.

Дата-центр «Э2» в течение нескольких лет был полностью законтрактован клиентами, но увеличение подведенной мощности позволяет осуществить масштабирование действующих заказчиков, а также предоставить возможность размещения своей инфраструктуры для новых. Общая энергоемкость ЦОДа выросла на 25% и составляет 1,4 МВт.

«У нас крупнейшая сеть дата-центров в стране по количеству ЦОДов и нам необходимо не только строить новые площадки, но и развивать действующие. Заказчикам часто требуется масштабирование, и мы не можем не учитывать это в наших планах. На «Э2» наблюдается повышенный спрос, поэтому наши технические специалисты проделали большую работу по обеспечению новых мощностей на объекте», — отметил генеральный директор сети дата-центров 3data Илья Хала.

Общая вместимость ЦОДа «Э2» составляет 225 стойко-мест. Также в дата-центре развернут кластер облачной платформы RCloud by 3data, которая обеспечивает заказчиков различными облачными услугами и сервисами.

3data в 2023 году



Сеть дата-центров 3data в 2023 году активно развивала все направления своей деятельности, зафиксировав рост важных количественным и качественным показателей. Мы продолжили совершенствовать наши услуги и сервисы, что привело к существенному увеличению числа новых заказчиков и к масштабированию действующих.

По данным аналитиков из IKS-Consulting 3data поднялась в ТОП-4 лидеров отрасли по количеству стойко-мест и в ТОП-3 по показателю подведенной электрической мощности. Это стало возможным благодаря вводу компанией в эксплуатацию флагманского дата-центра в Медведково в рамках проекта 3data HyperScale.

В октябре уходящего года мы завершили строительство нового дата-центра шаговой доступности «П29», ставшего 16-ым по счету ЦОДом 3data. Это позволило компании закрепить статус крупнейшей сети дата-центров в России. ЦОД располагается на северо-западе Москвы в районе Митино и уже стремительно законтрактовывается клиентами.

Ежегодно мы совершенствуем и увеличиваем мощности уже действующих площадок 3data. После проведения работ по расширению машинных залов в дата-центре «П6» нам удалось в три раза увеличить возможность размещения оборудования заказчиков.

Важным достижением 2023 года стала победа нашей облачной платформы RCloud by 3data в главном конкурсе отрасли ЦОД «DC Awards 2023» в номинации «Лучшая облачная платформа». Жюри премии, в состав которого вошли признанные эксперты отрасли, высоко оценило агрегатор облачных услуг и сервисов, отметив удобство концепции «единое окно управления», где в одном месте собраны различные сервисы и услуги платформы и партнеров.
hosting.kitchen/rcloud-ru/novosti-2021-2023.html

Уходящий год стал юбилейным для компании 3data и в рамках празднования своего десятилетия мы не только строили новые дата-центры, но и реализовали ряд социальных проектов. На территории Ботанического сада МГУ «Аптекарский огород» мы провели благотворительное мероприятие, выступив спонсором экспозиций сада: «Флора Кавказа» и «Дальний Восток». Вместе с нашими клиентами и партнерами мы посадили много разных редких растений и цветов, внеся свой вклад в развитие сада.

2023 год стал по-настоящему знаковым для 3data. Мы благодарим всех наших многочисленных клиентов за оказанное нам доверие, а партнеров за надежное сотрудничество.