Архитектура национального видеохостинга: путь RUTUBE к 10 Тбит/с с использованием своей CDN

За полгода с июля 2024 года большинство аудиторных и технических показателей RUTUBE выросло в разы: количество ежедневных пользователей выросло почти в 4 раза; количество видео, ежедневно загружаемых на видеохостинг — в 3 раза, с 330 тыс. до 1 млн единиц контента; CDN-трафик — в 4 раза и в пиковые часы превышает 7 Тбит/с. Как архитектура сервиса показала себя в условиях продолжительного «нагрузочного тестирования» и как команда переживала такой рост нагрузки, читайте в этой статье.



Меня зовут Эльдар Ниязов, я директор департамента развития и эксплуатации ИТ-инфраструктуры RUTUBE. В статье разберу верхнеуровневое устройство основных компонентов видеохостинга: раздачу видео и CDN, загрузку на платформу, хранение, воспроизведение и прямые трансляции. А в следующих статьях этого блога мы с коллегами рассмотрим каждый элемент подробнее и копнём вглубь реализации.

RUTUBE сегодня
Пробежимся по продуктовому ландшафту и стеку технологий, чтобы лучше понимать применимость тех или иных технических решений.

Видеохостинг работает на вебе, Android, iOS, Smart TV. Поддерживает просмотр горизонтальных и вертикальных видео, прямые трансляции и вещание ТВ-каналов.

По данным Mediascope за декабрь 2024 г. сервис посетило 78,3 млн человек, а среднее количество ежедневных пользователей составляет 18 млн. RUTUBE смотрят по всей России: из городов миллионников и населённых пунктов поменьше (почти половина зрителей живут в городах с населением менее 100 тыс. чел.).


Объём видеохранилища на сегодня составляет более 250 Пбайт, в нём хранится около 400 млн видео и каждый день их количество увеличивается в среднем на 1 млн — столько новых видео пользователи в среднем загружают на платформу.

Чтобы обеспечить быстрый и надёжный доступ к контенту, наша собственная геораспределенная сеть доставки контента (CDN) состоит из 6 ЦОДов в Москве и одного в Санкт-Петербурге, 4000 серверов (из них 700 серверов для обработки видео), более 200 CDN-серверов, более 25 городов присутствия, страны СНГ и даже США. Ёмкость сети составляет более 10 Тбит/с.


Видеохостинг разрабатывает собственная, полностью in-house команда, которая так же как и ИТ-инфраструктура смогла гибко перестроиться и масштабироваться.

RUTUBE — это более 100 микросервисов. Кодовая база бэкенда написана преимущественно на одном из трёх языков: Python3 — 600 тыс. строк, Node.js — 600 тыс. строк, Golang — 300 тыс. строк. В инфраструктуре у нас высокий уровень автоматизации: IaC (Terraform, Ansible) составляет примерно 200 тыс. строк.


CDN (раздача)
В век клипового мышления нужно как можно быстрее доставлять контент пользователям. Чтобы минимизировать задержку, мы, во-первых, разнесли контент по CDN в разных городах, чтобы кешировать его ближе к пользователю. Во-вторых, разделили CDN на два уровня: горячий (более x запросов в сутки) и холодный. За видео, которое не было востребовано в течение долгого времени, например, целого месяца, мы обратимся к основному хранилищу.


Такое разделение позволило:
  • повысить скорость доставки контента до конечного пользователя;
  • сэкономить на хранилище и оптимизировать использование серверных ресурсов;
  • снизить затраты на передачу данных по сети.

Подходящий узел CDN мы можем определять по GeoIP (т.е. ближайший) или по ISP (Internet Service Provider). Наши CDN-серверы, естественно, тоже подключены к сети через провайдеров, и в некоторых случаях с точки зрения задержки выгоднее избежать лишних стыков между провайдерами, чем выбрать ближайший, но находящийся в другой сети CDN. В предельном случае грамотное использование CDN позволило нам снизить время доставки с 300 мс до 10 мс.

Стандартный сетап сервера CDN с холодным контентом: 512 Гбайт оперативной памяти, 100 Тбайт дисков под хранение и 2 диска под ОС, 2 сетевые карты — 100 Гбит/с на отдачу, 25 Гбит/с на подгрузку контента из основного хранилища.

Горячий CDN-сервер мощнее и в нём стоят одинаково быстрые сетевые карты на 100 Гбит/с на download и на upload.

График раздачи в течение типичной недели выглядит примерно так.


Зеленая линия — трафик с CDN первого уровня, раздача холодного контента, красная линия — трафик с CDN второго уровня, синяя линия — суммарный трафик

Воспроизведение видео
Рассмотрим, что происходит, когда пользователь запускает видео в плеере RUTUBE.
  • GET-запрос отправляется в балансировщик, который по GeoIP и ISP рассчитывает «расстояние» до CDN-серверов.
  • Балансировщик видео получает из нашего хранилища FileHeap адрес CDN, на котором есть видео, и адрес самого видео.
  • Отдает плееру М3U8-манифест c указанием основного и запасного CDN-узла и адрес исходного видео.
  • Плеер идёт за видеочанками сначала на CDN второго уровня. Если контент не популярный и его нет в горячем кеше, то плеер запрашивает видео с CDN первого уровня, если и там не оказалось — то идет в основное хранилище.


Загрузка видео
  • В среднем каждый день пользователи RUTUBE загружают на видеохостинг 1 млн новых видео. Загрузка видео — важный и нагруженный сервис и один из самых сложно масштабируемых. Расскажу, что происходит, когда пользователь в личном кабинете нажимает «+», «Загрузить видео».
  • Балансировщик загрузки отдаёт адрес сервера, на который отправляется загрузка (под загрузку у нас выделено более 800 серверов).
  • Наш собственный сервис Watchduck, который по нашей традиции назван в честь животного, нарезает видео на разные качества. Watchduck написан на Python3, умеет транскодировать видео и на GPU, и CPU, что нам очень пригодилось в момент бурного роста нагрузки и невозможности быстро увеличить парк видеокарт. Нарезкой разных качеств и обложек занимается ≈ 700 серверов.
  • После нарезки Watchduck идёт в FileHeap, под который отведено по 10 серверов в основных ЦОДах и который обеспечивает балансировку нагрузки на хранилище. FileHeap получает адрес, куда и в какое именно хранилище положить загрузку.
  • Естественно вся загрузка и нарезка происходит чанками — по 3–6 Мбайт.


Устройство видеохранилища. Альтернатива S3
Для хранения видео мы используем не стандартный S3, а собственное приложение. Наше решение существует давно, хорошо себя зарекомендовало и в своё время было быстрее, чем альтернативы, например, Ceph.

Главный минус S3 для нас — это необходимость в кеширующих серверах, причем в определённом соотношении с бакетами, чтобы не тормозило. А большое количество дополнительных серверов — это большие затраты на покупку и обслуживание оборудования. ​​


Кроме экономии на оборудовании собственная реализация хранилища даёт следующие плюсы:
  • возможность глубокого мониторинга на каждом этапе;
  • гибкая адаптация под свои нужды;
  • не надо платить за лицензии и поддержку;
  • скорость и производительность.

Мы используем партнёрские S3 в качестве резерва, арендуем мощности у крупных известных поставщиков. Однако максимальная скорость отдачи, которую нам могут обеспечить сторонние S3, составляет всего 60 Гбит/с. Иначе их сервисы деградируют и страдают другие клиенты.

Видеохранилище RUTUBE состоит по сути из трёх частей:
  • DS-origin — само хранилище, разнесенное по разным ЦОДам;
  • FileHeap — балансировщик;
  • CDN-серверы.

Оно устроено предельно просто, что помогает легко организовать любой мониторинг и при необходимости что-то подтюнить.

Что в результате? Ниже графики нагрузки в обычную неделю без происшествий и пиковой посещаемости, это скорость отдачи контента напрямую с основного хранилища DS-origin (т.е., когда контента не оказалось на CDN первого и второго уровня) и с использованием партнёрских S3.


Красная линия — график отдачи трафика с основного собственного хранилища RUTUBE, пиковая скорость в среднюю неделю составляет порядка 500 Гбит/с. Синия линия — отдача с партнерских S3, скорость составляет 35–60 Гбит/с
Прямые трансляции
Когда пользователь хочет провести прямой эфир через RUTUBE и создает трансляцию, под капотом сервиса происходит следующее:
  • видеопоток от пользователя поступает на RTMP-балансировщик;
  • RTMP-балансировщик распределяет поток в разные ЦОДы (основной и запасной);
  • далее поток попадает в сервис live-транскодирования на FFmpeg, где нарезается в разные разрешения — от 144 до 4к;
  • транскодирование также проходит через балансировщик, выполняется в разных ЦОДах и резервируется по двум ссылкам;
  • из балансировщика поток попадает на CDN, ближайший к зрителю трансляции.

Наши трансляции минимально отстают от реального времени — на 3–5 секунд.


Схема работы прямых трансляций RUTUBE. Genetta — собственный сервис, агент по управлению ffmpeg на live-транскодерах

Что мы делали при резком росте нагрузки
В августе 2024 года количество пользователей RUTUBE стало расти гораздо быстрее, чем до этого. В один прекрасный день мы поняли, что с таким темпом увеличения нагрузки мы скоро исчерпаем наши ресурсы — надо срочно масштабироваться и расширять инфраструктуру.

Первым делом мы развернулись в облаках. Это дорого и даёт только временную отсрочку, но зато достаточно надёжно и позволяет быстро добавить мощностей.

Где потребовались дополнительные ресурсы при росте нагрузки:
  • Загрузка и обработка — первое, где требовалось масштабирование. Обработка видео, его нарезка во все качества — ресурсоемкий процесс, а когда авторы резко начинают заливать в видеохостинг все свои ролики, накопленные за годы творчества, это может стать потенциальной проблемой. Мы арендовали 1000 дополнительных серверов у партнёров, а сам процесс не потребовал изменений, просто у балансировщика появился больший пул серверов.
  • Хранение — новые видео надо где-то хранить. На всякий случай подстраховались арендными S3 и увеличили количество кеш-серверов.
  • Раздача и трансляции имеют больший запас прочности из-за особенностей архитектуры, поэтому тут удалось подстраховаться тем, что быстро купили несколько серверов в частном порядке и выиграли время на полноценную закупку.

Специфика видеохостинга в том, что нагрузки на запись гораздо меньше, чем нагрузки на чтение. Поэтому мы держим по одному мастеру в каждом ЦОДе и много реплик на чтение.


Итого
Основные элементы архитектуры RUTUBE, заложенные разработчиками сервиса ранее, позволили нам горизонтально масштабироваться при кратном росте нагрузки. Конечно, когда в течение августа 2024 г. трафик увеличился примерно в два раза, нам с командой пришлось попотеть: перераспределять имеющиеся ресурсы, сетапить новые, подключать арендные мощности, готовиться к сценариям плавной деградации и т.д. Для нас главное — команда быстро и чётко прошла критическую фазу масштабирования. Теперь мы можем в чуть более равномерном, но по-прежнему высоком темпе наращивать мощности: и железные, и человеческие. Потому что планы у нас амбициозные ;)

PUE 1,03

Регулируется автоматически с использованием данных из Prometheus, которые передаются в специально разработанное приложение Go, управляющее центробежными вентиляторами и заслонками воздухообработки, как в холодную погоду

Когда у нас сгорает диск - ставим 2 диска raid1 так уж и быть (Кемерово)



  • Поэтому постепенно старые серверы 2023 года заменяются новыми дисками в raid1
  • Если кто-то желает чтобы его мигрировали — пишите тикеты
  • Тем кому данные не важны просьба не отвлекать за зря
  • Касается — локации Кемерово

bill.yacolo.net/billmgr


От Ryzen до EPYC: как процессоры AMD обеспечивают работу современных игр



Неудивительно, что игры продолжают расширять границы возможного, и инфраструктура, на которой они основаны, тоже должна идти в ногу со временем.

Взять, к примеру, движки Unreal Engine и Unity: последние несколько лет они предъявляют новые требования к оборудованию, особенно к тактовой частоте. Игры на Unreal Engine часто сильно зависят от производительности одного ядра, где скорость каждого ядра важнее, чем их общее количество. Хотя Unreal Engine 5 делает шаги к лучшему масштабированию многоядерных процессоров, более высокие тактовые частоты по-прежнему обеспечивают бесперебойную работу большинства современных игр.

С точки зрения разработчика, удовлетворение этого спроса заключается не в выделении дополнительных ресурсов на решение этой задачи. Это баланс: оптимизация производительности оборудования и контроль стоимости игры в расчете на одного игрока. Одно невозможно без другого.

Рост и оптимизация идут рука об руку, и для достижения этого баланса в современной игровой индустрии один процессор выделяется среди остальных…

Введите AMD
Компания AMD ворвалась на рынок игровых процессоров с Athlon 64 X2 в 2003 году и с тех пор продолжает разрабатывать процессоры для потребительского рынка.

Прошло двадцать лет, и теперь AMD Ryzen — имя, известное геймерам по всему миру (я до сих пор с гордостью ношу 5800x3d).

Итак, когда AMD анонсировала в 2022 году Ryzen 7950X — самый мощный на сегодняшний день процессор потребительского класса — он произвел фурор в отрасли. Будучи частью серии 7000, 7950X обладал 16 ядрами, высокой производительностью в однопоточном и многопоточном режимах и лучшими тактовыми частотами среди всех массовых процессоров на тот момент. Журнал PC Mag далее описал 7950X как «самый быстрый процессор, который можно купить, не перейдя на серверное оборудование».

Но на этот раз не только геймеры остались недовольны: предприятия также начали устанавливать 7950X в своих центрах обработки данных.

С успехом приходит спрос
AMD знала, что с серией 7000 они на верном пути. Но я уверен, что они не ожидали такого спроса на 7950X во всей игровой индустрии. Процессоры Zen3 EPYC — корпоративная серия AMD — уже существовали некоторое время, но разработки Ryzen в 2022 году быстро превзошли все процессоры, которые студии и хостинг-провайдеры использовали ранее. Очень быстро 7950X превратился из B2C-продукта в B2B-продукт.

Преимущества в игре очевидны: более высокая производительность потоков и более высокая тактовая частота позволяют поддерживать больше игроков на одном компьютере без ущерба для игрового процесса. Как я уже упоминал, прогресс в разработке игр — это всегда баланс между ростом и оптимизацией; мощь 7950X укрепляет игровую инфраструктуру, обеспечивая более плавный и захватывающий игровой процесс без дополнительных затрат. Выигрыш для всех.

Фактически, многие наши партнёры — от крупных разработчиков AAA-контента, которых мы поддерживаем напрямую, до компаний частного хостинга B2C и провайдеров управляемого хостинга B2B — уже используют процессоры Ryzen, снижая затраты и получая доступ к более мощным технологиям. Ведущие игровые студии знают, что создание современных игр требует важного сочетания мощных технологий и квалифицированных экспертов по их использованию.

Второй игрок готов
Ryzen 7950X завоевал сердца и умы как потребителей, так и предприятий. Три года спустя он даже возглавил список «Лучшие процессоры AMD 2025 года» по версии TechRadar.

Но такой уровень спроса имел свою цену. Теперь AMD приходилось учитывать интересы как геймеров, так и дата-центров, а в сочетании с возрождением майнинга криптовалют, также использующего процессоры, в прошлом году акции AMD с трудом справлялись с ситуацией.

В мае 2024 года AMD решила выпустить EPYC 4004 — новую линейку процессоров корпоративного класса, основанную на той же архитектуре Zen 4, что и серия Ryzen 7000. У AMD уже был рецепт успеха с 7950X, поэтому целью EPYC было предложить аналогичные процессоры, но предназначенные для предприятий, а не для потребителей: круглосуточную нагрузку на центры обработки данных, поддержку ECC (памяти с коррекцией ошибок) и зеркалирование памяти для повышения уровня резервирования.

Встречайте EPYC 4564P — флагманский процессор серии 4004, созданный для удовлетворения потребностей бизнеса в процессорах серии 7950X. И, как видите, их конфигурации практически идентичны:


Более того, процессоры EPYC также выигрывают от более низкой совокупной стоимости владения (TCO), поскольку серверы будут иметь корпоративные гарантии, меньше простоев и меньше замен.

Для разработчиков и хостинг-провайдеров взгляды на процессоры изменились. Чистая скорость важна, но не менее важно и то, как она сохраняется со временем, и именно здесь AMD EPYC 4564P блистает. Созданный на той же архитектуре Zen 4, что и Ryzen 7950X, он обеспечивает ту же однопоточную производительность, но оптимизирован для центра обработки данных благодаря функциям надежности, необходимым для непрерывных рабочих нагрузок: высокой степени параллелизма, бесперебойности работы и стабильности.

Чипы EPYC также обладают преимуществами Ryzen в области однопоточной производительности, так что по сути это тот же мощный процессор, просто созданный для сред, которые никогда не спят.

Я вижу, что всё больше партнёров выбирают EPYC именно по этим причинам, признавая, что технология, которую геймеры так любят в своих настольных компьютерах, теперь превратилась в полноценный процессор для центров обработки данных. Та же производительность, та же архитектура, но оптимизированная для постоянно меняющегося мира современных игр.

Что будет дальше?
За последние четыре года разработчики, издатели, сервисы управляемого хостинга и поставщики частных серверов B2C достигли больших успехов в оптимизации своих многопользовательских игр. Прогресс в разработке игр, похоже, идёт в ногу с развитием игровой инфраструктуры, на которой они размещены, и обсуждение Ryzen EPYC — яркое тому подтверждение.

В то время как AMD Ryzen 7950X продолжает обеспечивать исключительную производительность для геймеров, те, кто арендует серверы у поставщиков, использующих EPYC 4564P, могут рассчитывать на ту же мощность с дополнительными преимуществами корпоративной надежности и эффективности.

На сайте servers.com мы ежедневно наблюдаем эти изменения, работая с хостинг-провайдерами, которым важна стабильная производительность и доступность. Будучи геймером, я понимаю стремление к производительности; моя задача — обеспечить нашим клиентам необходимую производительность и поддержку благодаря инфраструктуре на базе EPYC для бесперебойной многопользовательской игры.

Я надеюсь, что со временем чип EPYC станет таким же популярным среди корпоративных пользователей, как 7950X среди потребителей.

Как сократить расходы на масштабирование Kubernetes



Расскажем, как сократить расходы на Kubernetes
Приглашаем на вебинар 13 ноября в 16:00. Расскажем, как снизить затраты на масштабирование Kubernetes при помощи Karpenter. Познакомим с решением и поделимся результатами, которые вы получите от взаимодействия с Karpenter. Будет полезно DevOps-инженерам, техлидам и СТО, а также системным администраторам и архитекторам.
selectel.ru/blog/events/karpenter-kubernetes/

Что будет
  • Обзор возможностей Karpenter и его сравнение с Cluster Autoscaler.
  • Воркшоп: как настроить Karpenter в кластерах Managed Kubernetes.
  • Кейсы применения Karpenter. Оптимизация GPU-инфраструктуры с Karpenter.
  • Ответы на вопросы.

Всё самое интересное за октябрь



Привет! Прошел месяц, и мы, как обычно, спешим поделиться с вами нашими новостями и событиями мира облачных технологий. В октябре главной темой стал ИИ — в общих трендах, публикациях и обновлениях GPU-платформы mClouds.

Прокачали облако mClouds для работы с нейросетями
Мы продолжаем обновлять нашу облачную инфраструктуру и адаптировать ее для работы с большими языковыми моделями:
  •  В нашей GPU-платформе видеокарты NVIDIA L40S 48GB теперь работают с последними драйверами от NVIDIA.  
  • Для некоторых сценариев получили ускорение до 10% на картах L40S в реальных ИИ-задачах.
mclouds.ru/pricing/gpu-for-ai-ml/

В октябре мы не сидели дома и посетили сразу два мероприятия, которые помогли нам получить ответы на вопрос «Что будет завтра?». Это была отличная возможность своими глазами увидеть, как работают новые технологии, и перенять лучшие практики.


habr.com/ru/companies/mclouds/articles/958118/



Подготовились к зиме: новая коллекция мерча уже доступна
К наступлению холодов мы подготовили новую линейку мерча — надеемся, что с ним вам будет тепло
и уютно! Среди новинок — кружки, термосы, бафы, шоперы и ремувки.
Получить стильный и теплый мерч просто: будьте нашим клиентом! Раздаем мерч
в активностях и дарим просто так за вашу лояльность.
t.me/mclouds/916

Опубликовали статьи на Хабре
Кому нужны игровые видеокарты NVIDIA с 48 ГБ VRAM и почему их до сих пор нет

Топовые игровые видеокарты с 24 ГБ VRAM могут не справляться с тяжелыми задачами и уровнем графики — нужны видеокарты на 48 ГБ. Однако подобных потребительских карт на рынке пока нет. В статье разбираемся, что мешает запустить их в серию и стоит ли ждать их появления.
habr.com/ru/companies/mclouds/articles/957108/

Windows, которую мы помним: от 1.0 до 11 — история ОС, ставшей частью нашей жизни
В октябре 2025 года Windows прекратила поддержку одной из самых популярных ОС — Windows 10. Вспоминаем, какой путь прошла ОС и чем она запомнилась пользователям: от первого, практически провального релиза до ускоренного ИИ.
habr.com/ru/companies/mclouds/articles/955220/

24 000 чипов NVIDIA и 2600 Rhea1 в действии: как устроен самый мощный европейский суперкомпьютер JUPITER
В немецком исследовательском центре Юлиха начал работу JUPITER — первый европейский суперкомпьютер, способный выполнять квинтиллион (10^18) операций в секунду. Рассказываем, как устроен суперкомпьютер, сколько он стоит и какие задачи будет решать.
habr.com/ru/companies/mclouds/articles/952182/

Как загрузить GPU на максимум. Разбираем узкие места в инфраструктуре для ИИ
 Без быстрых дисков, продуманной внутриузловой топологии и высокоскоростной сети даже мощные GPU будут простаивать.
В статье разобрали, как спроектировать сбалансированную инфраструктуру.
habr.com/ru/companies/mclouds/articles/959872/

В октябре вышла новая статья 
Выбираем GPU для ИИ: Видеокарты NVIDIA RTX 4090 и 5090 vs L40S 48GB.

Она поможет подобрать наиболее подходящую видеокарту под ваши задачи.
В 2025 году всё больше компаний используют ИИ не только для решения IT-задач, но и в маркетинге, продажах, сервисном обслуживании. Именно поэтому мы
и дальше будем внедрять новинки в области ИИ и наращивать мощность нашей облачной инфраструктуры, чтобы оставаться надежным партнером для вас.
mclouds.ru/2025/10/nvidia-rtx-4090-5090-vs-l40s/

Серверы в наличии 196x США 352х ЕС

Квант как услуга

VHcloud Quantum: ваш привилегированный доступ к квантовым вычислениям
Квантовые вычисления меняют наш подход к решению сложных задач, особенно в областях оптимизации и моделирования. Квантовая платформа OVHcloud обеспечивает надёжную и доступную отправную точку для освоения этой новой эры вычислений.

www.ovhcloud.com/fr/public-cloud/quantum-computing/
www.ovhcloud.com/fr/public-cloud/prices/#quantum-computing

UFO.Hosting запускает регистрацию доменных имён — теперь всё для старта онлайн-бизнеса в одном месте!



UFO.Hosting запускает регистрацию доменных имён — теперь всё для старта онлайн-бизнеса в одном месте!

Теперь вы можете не только арендовать серверы, но и регистрировать доменные имена прямо в личном кабинете.

Больше не нужно переключаться между разными сервисами — всё необходимое для запуска проекта собрано в одном командном центре.

Вы сможете подобрать запоминающееся доменное имя, выбрать из более чем 100 популярных и нишевых доменных зон (включая .com, .ru, .shop, .dev, .online и многие другие), моментально оплатить и привязать домен к своему хостингу или новому проекту.

Такой подход экономит время, избавляет от рутины и снижает риск ошибок при настройке — чтобы вы могли сосредоточиться на развитии своего бизнеса, а не на технических деталях.

Как зарегистрировать домен в UFO.Hosting
  • Перейдите в биллинг.
  • Откройте раздел «Товары/Услуги».
  • Выберите вкладку «Домены».
  • Найдите и зарегистрируйте подходящее имя — за пару кликов!

https://ufo.hosting

Пока призраки отвлекают техподдержку…



В серверных замечены таинственные сбои и вспышки активности — похоже, духи Хэллоуина не собираются уходить просто так.

Наша бригада зачистки трудится день и ночь, чтобы вернуть спокойствие в дата-центры. Вы можете нам помочь!

До 13 ноября закажите VDS со скидкой 25%. Акция действует на серверы в Москве, Амстердаме и Казахстане.



Промокод со скидкой 25% на заказ новых VDS для всех.
Сертификаты на пополнение баланса номиналом 150 ₽ для тех, кто с нами больше года.
Срок проведения акции — с 31.10.2025 10:00 по 13.11.2025 23:50 по мск.

firstvds.ru/actions/halloween-2025-prizraki-v-servernoy