РТК-ЦОД запустил новую площадку «Облака КИИ» в московском дата-центре



ЦОД «Остаповский-2» стал второй инфраструктурной площадкой «Облака КИИ» в Москве. По последним исследованиям «iKS-Consulting», в стране насчитывается более 50 тыс. значимых объектов критической информационной инфраструктуры, принадлежащих более чем 5 тыс. организаций.

Облачная инфраструктура для КИИ от РТК-ЦОД — первое на рынке импортозамещенное решение. Примененные в продукте технологии внесены в реестр МинПромТорга, а программное обеспечение — в реестр Минцифры. Безопасность и соответствие площадок «Облака КИИ» строгим требованиям Приказа ФСТЭК России № 239 подтверждаются аттестатами соответствия, которые распространяются на всю облачную платформу и позволяют размещать в облаке объекты КИИ до второй категории значимости, государственные информационные системы первой категории и работать с персональными данными до первого уровня значимости включительно.

Дата-центр «Остаповский-2» введен в эксплуатацию в 2024 году и вмещает 2 048 стоек. ЦОД соответствует уровню защищенности Tier III, что гарантирует работу инженерных систем объекта в случае чрезвычайных ситуаций. Новая аттестованная площадка «Облака КИИ» станет частью отказоустойчивой инфраструктуры компании, которая уже включает площадку в дата-центре «Медведково-1». Расположение двух центров обработки данных в Москве на расстоянии около 20 км друг от друга позволяет обеспечить высокий уровень доступности сервисов и бесперебойность их работы.

Облако КИИ" стало первым решением, без которого наши заказчики столкнулись бы с трудностями на пути импортозамещения, защиты своих систем от киберугроз и приведения к соответствию требованиям регуляторов. Наше решение позволило значимым объектам КИИ избежать выбора между безопасностью и эффективностью в работе с облачными сервисами
Алексей Забродин, технический директор РТК-ЦОД

Сегодня бизнесу нужны практические инструменты для выполнения жестких требований. Мы видим свою роль в том, чтобы сделать этот процесс максимально простым и предсказуемым. Наше аттестованное облако с реализованной геоизбыточностью позволит компаниям сосредоточиться на своей основной деятельности, а не на решении вопросов соответствия инфраструктуры требованиям регуляторов к их объектам КИИ
сказал директор по продуктам РТК-ЦОД Александр Обухов.

Открыт новый дата-центр «Нижний Новгород»





РТК-ЦОД ввел в эксплуатацию свой 25-й дата-центр — «Нижний Новгород». Строительство началось в конце 2023 года в Сормовском районе Нижнего Новгорода. К 15 марта 2025 года закончен монтаж инженерных систем, а к 15 мая завершены пусконаладочные работы с опережением срока сдачи на полгода.

На площади 3 539 кв. м расположены два здания ЦОД, по два машинных зала в каждом. ЦОД рассчитан на 401 стойко-место. Общая установочная мощность — 5 МВт.

Дата-центр «Нижний Новгород» соответствует уровню защищенности Tier III. В ЦОД обеспечены:
  • отказоустойчивая сетевая инфраструктура с двумя независимыми волоконно-оптическими вводами;
  • система автоматического газового пожаротушения;
  • круглосуточный мониторинг инженерного оборудования и техническая поддержка;
  • оптимальный микроклимат в машинных залах.

ЦОД оснащен системами гарантированного и бесперебойного энергоснабжения, системами резервирования кондиционирования. ДГУ зарезервирован по двум независимым лучам электропитания. В случае отключения постоянных источников электропитания дата-центр будет работать независимо от городской сети еще 12 часов.




28672 vCPU для бизнеса: запущена новая площадка «Публичного облака» РТК-ЦОД





РТК-ЦОД ввел в эксплуатацию новую площадку «Публичного облака» — «Медведково–2». Она расширяет облачную инфраструктуру в Центральном федеральном округе и увеличивает доступные вычислительные ресурсы для заказчиков.

Характеристики площадки:
  • vCPU (3,0 ГГц): 28672
  • RAM: 64256 ГБ
хранилище:
  • SSD: 278528 ГБ
  • SAS: 382976 ГБ
  • SATA: 483089 ГБ
Такой объем ресурсов ориентирован на задачи с высокой нагрузкой — от размещения ресурсоемких проектов до обработки больших объемов данных.

Площадка подключена к системе управления облачной платформой и обеспечивает пользователям прямой доступ к цифровым сервисам:
  • виртуальная инфраструктура;
  • резервное копирование;
  • гарантированный и негарантированный интернет;
  • миграция и репликация данных.

Запуск «Медведково–2» — часть масштабного проекта по развитию доступности «Публичного облака». На текущий момент облачная платформа РТК-ЦОД представлена в пяти федеральных округах и продолжает расширяться.

«Публичное облако» создано на базе собственной облачной платформы, зарегистрированной в реестре отечественного программного обеспечения. В составе продукта — облачные IaaS-, PaaS- и SaaS- сервисы.

www.cloud.rt.ru

Экскурсия по дата-центру «Медведково-2»



Наш ЦОД «Медведково», о котором мы уже рассказывали, в 2024 году стал кластером, так как рядом был построен еще один дата-центр — «Медведково-2». В этой статье мы покажем, как устроен новый ЦОД.

Здание «Медведково-2» возвели за год, параллельно проводили интеграцию инженерных систем. К 2024 году ЦОД полностью подготовили для проведения аудита и сертификации. Дата-центр успешно прошел испытания Uptime Facility и получил сертификат Tier III.



Главное отличие «Медведково-2» — это вертикальная архитектура, так называемый стакан. За счет этого для нагрузки 36 МВт, как в «Медведково-1», потребовалась меньшая площадь застройки.

Всего в «Медведково-2» семь этажей, высота здания — 40 метров. 16 машзалов рассчитаны на 4000 стоек — по 250 на каждый зал. Площадь технологических помещений составляет 22 000 кв. м. На двух нижних этажах расположены четыре независимых энергоцентра: РУ 10 кВ, ГРЩ, ТП, ИБП, на остальных — машинные залы, которые относятся к одному из четырех энергоцентров. На кровле размещены чиллеры.



В ЦОДе соблюдается единый стандарт обслуживания клиентов РТК-ЦОД: круглосуточный доступ в дата-центр, бесплатная парковка, комфортная зона для переговоров.





Физическая безопасность
Работает круглосуточная охрана. Во всех помещениях и на территории ЦОДа ведется видеонаблюдение. Все соответствует национальному стандарту Российской Федерации «Системы охраны и безопасности» ГОСТ Р 52551-2016 и стандартам ISO 27001, PCI DSS.




Машинные залы
Машинные залы защищены от пыли, колебаний уровня влажности и температуры. Внутри поддерживается оптимальный микроклимат, есть система автоматического пожаротушения, ведется круглосуточный мониторинг инженерного оборудования.

Топология размещения серверных стоек реализована по принципу холодных и горячих коридоров. Расстояние между рядами стоек в холодном коридоре составляет 1200 мм.

Подача охлажденного воздуха к серверным стойкам идет через перфорированную плитку фальшпола в холодных коридорах. Высота фальшпола — 1350 мм. Пропускная способность перфорированных плиток составляет не менее 38% от общей площади плитки.

В холодных коридорах поддерживается температура 23±3 °С и влажность 30–70 %. Увлажнители размещены внутри корпусов кондиционеров. Каждый модуль рассчитан на отвод 6 МВт тепловой нагрузки от ИТ-оборудования.





По вопросам установки и эксплуатации клиентского оборудования круглосуточно доступны филды и дежурные инженеры (услуга Smart Hands).

Климат
В системе холодоснабжения «Медведково-2» работает 170 прецизионных кондиционеров внутри ЦОДа и 74 чиллера на крыше. Они обслуживают 16 машинных залов и помещения MMR, MDA, ИБП, КСБ.



Вентиляционные коридоры с кондиционерами отделены от машинного зала с клиентским оборудованием. Это позволяет службе эксплуатации проводить плановые работы без посещения основного пространства машинного зала.



Мощность каждого кондиционера — 230 кВт. Оборудование оснащено датчиками протечки воды. Каждый кондиционер на теплообменнике имеет фильтр для обработки проходящего через него воздуха (класс очистки — М5).

Оптимальный уровень влажности по SLA обеспечивают увлажнители и осушители. Схема резервирования системы холодоснабжения N+1.



При номинальной проектной нагрузке одновременно работают все восемь кондиционеров в машзале, включая резервные. Если один кондиционер выходит из строя, оставшиеся семь автоматически распределяют тепловую нагрузку между собой с изменением уставки на повышенный расход воздуха. Неисправный кондиционер автоматически выводится из работы, чтобы не произошла подача горячего воздуха в машинный зал.

На крыше находятся аккумулирующие баки емкостью 3000 литров каждый. В них — охлажденный этиленгликоль на случай отказа электропитания компрессоров в чиллерах. Если пропадает электропитание в общегородской сети, во время перехода на дизель-генераторные установки (ДГУ) часть компрессоров в чиллерах перезапускается. Для выхода на рабочую мощность чиллерам нужно до 3 минут. Баки обеспечат до 4 минут поддержания температуры гликоля. В схеме электроснабжения насосных групп чиллеров присутствует ИБП, при переходах на резервный источник питания насосы не перезапускаются.

Мощность каждого чиллера — 470 кВт. Чиллеры имеют один холодильный контур с винтовыми и безмасляными центробежными компрессорами. Предусмотрена плавная регулировка холодопроизводительности. Уровень резервирования холодильных машин N+1: из 16 чиллеров два — резервные с учетом топологии ЦОДа. 14 работающих чиллеров производят 100% холода для четырех машинных залов каждого энергоцентра.

При температуре воздуха снаружи ниже +10 °С чиллеры переходят в режим фрикулинга, что дает большую энергоэффективность ЦОДа. Если температура окружающей среды выше +10 °С, чиллеры запускаются в компрессорном режиме.





Система холодоснабжения оборудована баками компенсации давления. В случае увеличения давления гликоля в системе холодоснабжения это позволяет стабилизировать давление в контуре на нужном уровне.



Станция подпитки гликолем постоянно функционирует в дежурном режиме. Если возникнет нехватка гликоля в результате протечки или потери давления, то дежурный персонал оперативно подпитает систему. Станция оснащена подогревом. В зимний период при выводе холодильной машины или чиллера в сервис мы включаем насос, и гликоль циркулирует через станцию подогрева гликолевого контура, чтобы не остывать ниже рекомендуемой производителем температуры эксплуатации (–28 °С).

Энергетика
ЦОД запитан по высокому напряжению от электросетей: по 10 кВт от городского питания и от резервного источника питания КДГУ. К электропитанию потребителей ИТ-нагрузки по напряжению 0,4 кВт приходит 4 луча электропитания по топологической схеме резервирования 4/3 N. Магистральный шинопровод электропитания организован в вертикальной проекции и горизонтально расходится по этажам в машзалы.

В составе ЦОДа предусмотрены четыре независимых энергоцентра: РУ 10 кВ, ГРЩ, ТП, ИБП, РП ДГУ, ШП, ЩР. На каждый энергоцентр приходится 6 МВт ИТ-нагрузки и 3 МВт — механической для инженерных систем, на каждую стойку — от 5 до 15 кВт.





К каждому энергоцентру подведены независимыми маршрутами два отдельных ввода электропитания.

Действует система гарантированного и бесперебойного энергоснабжения на базе ДГУ и ИБП, в экстренной ситуации для автоматического переключения между вводами и ДГУ сработает автоматический ввод резерва АВР.

Заземление всех конструкций и оборудования организовано по единому контуру.

В отличие от «Медведково-1», где ИБП со свинцовыми аккумуляторами, в новом дата-центре используются литий-ионные аккумуляторы. При той же мощности у них меньший объем, сами устройства более экономны и долговечны. В батарейные блоки встроены модули, которые обеспечат тушение при повышении температуры выше 80 °С. В батарейных модулях используется негорючий литий, что подтвердили испытания, которые были проведены совместно с нашими инженерами на заводе АКБ VISION в Китае.

При переходе с высокой стороны на низкую (400 вольт) в энергоцентрах используются сухие трансформаторы. За счет отсутствие масла эксплуатация удобнее и экологичнее, выше пожарная безопасность.

Система гарантированного энергоснабжения
Рядом с ЦОДом установлено 24 контейнерных дизель-генераторных установки (КДГУ) суммарной мощностью 48 МВт. Объем топливохранилища — 192 тонны, по 8 тонн на каждую КДГУ. Энергопроизводительность каждой машины — 2 МВт.

Запаса топлива хватает на 17 часов автономной работы дата-центра. Топливо доставляют два независимых поставщика. Гарантированный срок поставки топлива для дозаправки ДГУ — четыре часа.

Двухэтажная площадка КДГУ двухэтажная оборудована дополнительными кожухами шумопоглощения и со стороны спальных районов города закрыта 15-метровой шумопоглощающей стеной.




Пожарная безопасность
В ЦОДе ведется круглосуточный мониторинг, работают система раннего обнаружения продуктов горения (СРОП) и система газового пожаротушения на основе газа хладон-227еа. Общий объем станции газового пожаротушения — 48 тонн. Схема резервирования системы — 2N.

Телеком
В ЦОД выстроена отказоустойчивая сетевая инфраструктура на основе двух независимых волоконно-оптических сетевых вводов. Есть Meet-Me-Roomи восемь отдельных помещений пассивного оптического кросса. Поддерживается сетевой нейтралитет, можно подключать каналы связи любого оператора или использовать ВОЛС РТК-ЦОД.

Дата-центр «Медведково-2» обеспечивает стабильную работу тысяч информационных систем. Вместе с «Медведково-1» ЦОД признан «Кластером ЦОД года» по версии премии «ЦОДы.РФ» 2025 года. Жюри высоко оценило масштаб, соответствие высоким стандартам отказоустойчивости, инновационную архитектуру и надежность кластера.



cloud.rt.ru/registration
cloud.rt.ru/showcase/tariffs

Лаборатория R&D РТК-ЦОД стала лучшей по версии «ЦОДы.РФ»



На церемонии вручения премии «ЦОДы.РФ» наша лаборатория R&D получила награду «Эксперт №1 в области R&D» за вклад в развитие отечественных технологий, уникальный опыт и высококлассный программно-аппаратный комплекс, с помощью которого наши коллеги проводят испытания IT-оборудования и ПО.

За четыре года команда провела более 100 исследований и испытаний серверов, СХД, S3, SDS, СРК, СПД, HPC, системного ПО и систем виртуализации, проанализировала рынок и разработала собственные программы и методики испытаний (ПМИ).

Исследования нашей лаборатории R&D напрямую влияют на развитие российских IT-продуктов и roadmap производителей. Многие отечественные решения, которые успешно прошли тестирование в лаборатории РТК-ЦОД, используются в крупнейших государственных проектах.

Личный кабинет для Colocation



РТК-ЦОД расширил функциональность личного кабинета облачной платформы, добавив возможности для работы с услугой Colocation.



Теперь новые пользователи могут:
  • отслеживать актуальную информацию о стойках, оборудовании и авторизованных лицах;
  • создавать заявки на размещение оборудования в ЦОД, изменение действующих или добавление новых услуг;
  • оформлять заявки на пропуск в дата-центр и перемещение оборудования в соответствии с типовой формой договора;
  • создавать обращения в техническую поддержку.

Компания «РТК-ЦОД» открыла новую площадку «Публичного облака» в Москве



Компания «РТК-ЦОД» (дочерняя компания «Ростелекома») запустила в эксплуатацию новую площадку «Публичного облака» — «Медведково-2». Теперь клиентам «Публичного облака» в Центральном федеральном округе доступен для заказа больший объем ресурсов.

Общая мощность «Медведково-2» — более 28 тыс. виртуальных процессоров (vCPU) частотой 3,0 ГГц, 64 ТБ оперативной памяти (RAM) и почти 1,2 ПБ хранилищ c дисками различного типа (SSD, SAS и SATA). Это позволяет запускать ресурсоемкие проекты, увеличивать размеры инфраструктуры под нагрузку и работать с большими объемами данных.

Площадка подключена к системе управления облачной платформой — это обеспечивает пользователям прямой доступ к цифровым сервисам. Через личный кабинет клиенты уже сейчас могут заказать виртуальную инфраструктуру, гарантированный и негарантированный интернет, резервное копирование. Кроме того, на площадке можно использовать функцию миграции и репликации данных.

Мы продолжаем масштабировать инфраструктуру “Публичного облака”, чтобы наши клиенты –– нынешние и потенциальные –– могли развивать свои цифровые сервисы. Запуск площадки “Медведково-2” повышает доступность облачных решений для бизнеса и расширяет их использование. Наша цель –– создание единого цифрового ландшафта, который охватит все федеральные округа страны
Александр Обухов, директор по продуктам РТК-ЦОД, владелец продукта «Публичное облако»

Публичное облако» от «РТК-ЦОД» создано на базе собственной облачной платформы, зарегистрированной в реестре отечественного программного обеспечения. В составе продукта — облачные IaaS-, PaaS- и SaaS-сервисы.

rt-dc.ru

«РТК-ЦОД» — сервис-провайдер ИТ полного цикла. Группа компаний реализует под ключ комплексные проекты: от инфраструктуры и систем связи до облачных решений и ПО.

РТК-ЦОД занимает лидирующие позиции на рынке коммерческих дата-центров (по версии CNews c 2020–2024 год, iKSConsulting 2020–2024 год). Является лидером поставщиков IaaS-услуг по версии CNews 2020–2023 год. А также занимает первое место рейтинга «Крупнейшие операторы коммерческих дата-центров в России» (по версии Comnews Vision 2024).

Экспертиза «РТК-ЦОД» включает в себя многолетний опыт построения и обслуживания геораспределенной сети дата-центров, сервисы обеспечения связности, инфраструктурное ПО, облачную платформу и широкий набор сервисов на ее основе. Компания предоставляет виртуальную инфраструктуру для крупнейших заказчиков как в государственном секторе, так и в сферах ритейла, банков, энергетики, нефтегаза.

Ребрендинг РТК-ЦОД



Друзья, мы рады сообщить о ребрендинге кластера РТК-ЦОД.

Смена корпоративной айденики является частью нашей стратегии по реорганизации ИТ-кластера и выходу на IPO.

Обновленный бренд — это прямая визуализация нашей экспертизы, которая включает полный цикл ИТ-услуг от инфраструктуры до облачных решений. Мы сохраняем свои ориентиры на инновационность и надежность, и под новым брендом продолжаем работать над укреплением лидерских позиций кластера на российском рынке ЦОД и облачных сервисов, — Сергей Викторович Бочкарев, генеральный директор РТК-ЦОД.

Мы ценим наше комьюнити и благодарим вас за поддержку и доверие в этот важный для нас период.

www.cloud.rt.ru/registration
www.cloud.rt.ru/showcase/tariffs

Кластер High Capacity в составе «Публичного облака»



«РТК-ЦОД» (дочерняя компания «Ростелекома») запустила новый кластер High Capacity (кластер высокой производительности) в составе своей облачной платформы. High Capacity — это сервис, предназначенный для размещения виртуальных машин и приложений, которые ежедневно обрабатывают большие массивы данных. Новый кластер «РТК-ЦОД» сочетает в себе высокую вычислительную мощность и масштабируемость, что особенно важно для оптимизации затрат.

Главная особенность сервиса — готовые конфигурации виртуальных машин (флейворы), которые разработаны с учетом потребностей различных бизнес-сценариев. Клиенты могут выбрать параметры от 48 до 192 виртуальных процессоров (vCPU) и оперативной памяти до 1920 ГБ. Все это подкреплено стабильной производительностью процессоров с частотой 3,0 ГГц.

Кроме того, кластер High Capacity имеет сетевую связность со стандартным кластером «Публичного облака» и серверами BareMetal. Это позволяет клиентам создавать гибридные решения, выбирая ресурсы в зависимости от технических требований и адаптируя инфраструктуру под свои задачи.

Напомним, что осенью 2024 года «РТК-ЦОД» обновила также сервис BareMetal 2.0 c GPU-картами. Разница между кластером High Capacity и BareMetal заключается в наличии виртуализации и подходе к распределению ресурсов. High Capacity — это часть облачной платформы, где вычислительные ресурсы (процессор, память, диски) распределяются между несколькими пользователями. Пользователи могут легко изменять параметры своих виртуальных машин в зависимости от текущих задач. Физические серверы за счет применения виртуализации используются несколькими клиентами. В свою очередь, Bare Metal предоставляет клиенту эксклюзивный доступ к физическому серверу без виртуализации, что подходит для задач с критическими требованиями к скорости и низкой задержке. Все ресурсы этого сервера доступны только одному клиенту, что повышает безопасность и уровень контроля.

Бизнес все чаще сталкивается с задачами обработки больших объемов данных — это актуальная потребность рынка. High Capacity — производительное и при этом гибкое решение, которое позволит справляться с такими вызовами. Новый сервис станет находкой для компаний, которые работают с аналитическими платформами, системами управления данными, базами данных. High Capacity позволяет справляться с пиковыми нагрузками, не теряя в производительности, а также дает возможность масштабировать ресурсы под текущие потребности
Александр Обухов, директор по продуктам компании «РТК-ЦОД»

www.cloud.rt.ru/registration

Архив покупки активов



www.cloud.rt.ru/registration
www.cloud.rt.ru/showcase/help
www.rt-dc.ru
www.rt-dc.ru/about/licenses/
  • Ростелеком-ЦОД
  • NGENIX
  • MSK-IX
  • Технический центр Интернет
  • Базис
  • Ростелеком М9
  • РТК Цифровые технологии
  • Центр Технологий ЦОД

4 апр 2024
Как мы тестируем серверы

7 ноя 2023
Как мы создали и развиваем лабораторию R&D

17 авг 2023
Упрощаем мониторинг заданий в Veeam Backup and Replication

23 мар 2023
Новая точка на карте ЦОДов Москвы
Мы открыли новый дата-центр «Ростелеком-ЦОД» в Медведково. Строительство началось в июле 2022 года на базе складского комплекса класса А+, первый этап был реализован за 9 месяцев.
Сегодня в эксплуатацию принято 4 машинных зала из шестнадцати. Каждый из них может вместить до 312 стандартных серверных шкафов, т.е. всего 1248 стойко-мест. Общая электрическая мощность четырех машинных залов и поддерживающей инженерной инфраструктуры составляет 9 МВт.


22 дек 2022
Как найти проблему с производительностью ВМ на VMware ESXi

6 окт 2022
Частые вопросы по миграции базы данных 1С с MS SQL на PostgreSQL

15 сен 2022
Нашему ЦОДу в Новосибирске исполнилось полтора года. За это время в дата-центре выросла зона доступности облака DataLine для заказчиков из Сибири и Дальнего Востока, а также появились новые услуги. Сейчас в новосибирском облаке размещаются почтовые сервисы, облачные диски клиентов, объектные хранилища, сервисы DBaaS, Kubernetes, сервисы ИБ, DR-площадки и резервные копии.
На востоке растут облака: новосибирский дата-центр «Ростелеком-ЦОД» сегодня

2 июн 2022
Тестируем комплексную защиту от DDoS в 2 этапа

5 мая 2022
Кастомизируем дашборды в Grafana для инженеров по холодоснабжению ЦОДа

14 апр 2022
Тестируем шлюз безопасности UserGate на железе зарубежного NGFW

31 мар 2022
Как оценить риски для зарубежных NGFW и выбрать схему подключения отечественного аналога

24 мар 2022
Миграция из Office 365: задачи, способы и сроки

13 янв 2022
“А вы точно DBA?” Что спросить у провайдера перед подключением Managed DBaaS

16 дек 2021
Как документировать сервер и контролировать его управление, даже если у вас небольшой стартап

18 ноя 2021
Как быть с сетью, если резервируешь инфраструктуру между городами и провайдерами

11 ноя 2021
Инфраструктура в разных концах города: как не проворонить сетевую связность

28 окт 2021
Почему «падают» серверные стойки

2 сен 2021
За парту в дата-центре, или Как мы строим распределенный центр подготовки инженеров

26 авг 2021
Тестируем переезд ВМ через Hystax и уходим от ручных настроек сети

12 авг 2021
Правила жизни дата-центра в дождь, шторм и аномальную жару

22 июл 2021
Как мы наблюдаем за метриками в дата-центре и развиваем наш мониторинг

10 июн 2021
Уроки стойкости, или Выбираем стойки для ИТ-оборудования правильно

27 мая 2021
Почему виртуалки “на вырост” начинают тормозить, и что с этим делать новичку

29 апр 2021
Чтоб сервер не рассыпался по дороге: как мы перевозим дорогое ИТ-оборудование

15 апр 2021
На пути к умной стойке: как мы тестировали метки для учета серверов в ЦОДе

8 апр 2021
Чек-лист внедрения VDI: что учесть, чтобы виртуальные рабочие столы работали как надо

25 мар 2021
На коленке: агрегация VPN, или Надежная связь на ненадежных каналах

4 мар 2021
Статистика и ЦОД: откуда берутся 5 кВт на стойку и почему это немало

25 фев 2021
Калининский район Санкт-Петербурга и со всех сторон посмотрим на дата-центр «Ростелеком-ЦОД», который запустился в декабре 2020 года. Новый ЦОД построили «с нуля» недалеко от корпусов завода ЛОМО по адресу: ул. Жукова, 43.
Пять лет назад здесь было заброшенное строительство мазутохранилища (любим строить на территориях старых заводов).
Гуляем по новому дата-центру “Ростелеком-ЦОД” в Санкт-Петербурге


28 янв 2021
Как мы разгоняли кластер для нагруженных баз Microsoft SQL и получали заветные 200 000 IOPS

25 дек 2020
2020 глазами дежурного инженера, или Один в ЦОДе
www.youtube.com/watch?v=6Y4FhJmRWCc

17 дек 2020
Что может Citrix Session Recording – решение для записи сессий на виртуальных рабочих столах

10 дек 2020
Из грязи в RPKI-князи-1. Подключаем валидацию маршрутов в ВGP

12 ноя 2020
И целого WAF’а мало: как мы проапгрейдили сервис защиты веб-сайтов

1 окт 2020
Найти 15 инженеров за две недели карантина

24 сен 2020
Как мы защищаем виртуальные рабочие столы клиентов от вирусов, шпионов и атак

9 июл 2020
Между Москвой и Санкт-Петербургом: экскурсия по мегаЦОДу «Удомля»


2 июл 2020
Невыдуманные истории про сеть: как я учил физику на своих и чужих ошибках

18 июн 2020
MMS-система в дата-центре: как мы автоматизировали управление техническим обслуживанием

4 июн 2020
Смертные грехи безопасности сайта: что мы узнали из статистики сканера уязвимостей за год

2 апр 2020
А продемонстрируйте, или Как мы проходили аудит Operational Sustainability в Uptime Institute

26 мар 2020
Чем плоха СМС-аутентификация и как защититься от угона SIM-карты

19 мар 2020
Воздушки, релейки, кабель в окно: как не напороться на провайдера-монополиста в бизнес-центре

12 мар 2020
АВР и все, все, все: автоматический ввод резерва в дата-центре

30 янв 2020
Катастрофоустойчивое облако: как это работает


12 дек 2019
С Hyper-V на VMware и обратно: конвертация виртуальных дисков

28 ноя 2019
Как мы тестировали WD ActiveScale P100 для нашего S3-хранилища

21 ноя 2019
Операция “Миграция”: как происходит переезд в облако DataLine

17 окт 2019
PDU и все-все-все: распределение питания в стойке


10 окт 2019
5+ способов подключиться к облаку DataLine

6 авг 2019
DISKOBALL: соревнования по метанию HDD-дисков, 23 августа, г. Москва
У нас было 150 дисков, 300 литров пива и 150 айтишников, готовых пустить все это в дело.
Это мы про DISKOBALL: первые в России соревнования по метанию HDD-дисков, которые пройдут 23 августа в Москве.

6 дек 2018
Как строятся оптоволоконные сети


29 ноя 2018
Три истории модернизации в дата-центре

30 авг 2018
Независимая приёмка ЦОД

6 фев 2018
10-гигабитный Ethernet: советы новичку

26 дек 2017
Чек-лист неприятностей, которые могут случиться при переезде
Совсем недавно мы открыли облако в Санкт-Петербурге. Оборудование для него перевозили из Москвы.

11 авг 2017
Эволюция сайта — взглядом Linux-админа дата-центра

28 июл 2017
Бюджет на эксплуатацию дата-центра: инструкция по составлению

20 июл 2017
Когда деревья были большими: как маленький дата-центр ураган пережил

29 июн 2017
Эксплуатация дата-центра: что нужно делать самим

30 мая 2017
Dumb ways to die, или отчего “падают” дата-центры

19 мая 2017
Чтобы карета не превратилась в тыкву, или зачем нужны тестовые восстановления из резервных копий

4 мая 2017
Опыт DataLine: работа службы техподдержки

20 апр 2017
Вредные советы по настройке резервного копирования и несколько баек

14 апр 2017
Гуляем по дата-центру TIER III
У нас для вас пятничный видеотур по дата-центру NORD-4. Дата-центр располагается на Коровинском шоссе в Москве. По проекту будет вмещать 2016 стоек. Сейчас в эксплуатации 1008 стоек, в апреле заработает еще 504.

31 мар 2017
Дата-центр по системе Станиславского: как устроен корпоративный театр DataLine

7 мар 2017
Опыт DataLine: как мы готовим дежурных инженеров для своих дата-центров

17 фев 2017
Обслуживание инженерных систем ЦОД: что должно быть в договоре подряда

13 фев 2017
Семинар «Сколько стоит эксплуатация ЦОД?», 21 февраля, дата-центр OST

3 фев 2017
Network Controller: программно-определяемые сети в Windows Server 2016. Часть 1: возможности и службы

20 янв 2017
Как тестируют ДГУ в дата-центре

13 янв 2017
Мониторинг инженерной инфраструктуры в дата-центре. Часть 1. Основные моменты

22 дек 2016
Резервное копирование с помощью Commvault: немного статистики и кейсов

15 дек 2016
Своя точка обмена трафиком в дата-центре. Часть 2. Инструменты для участников DataLine-IX


8 дек 2016
Своя точка обмена трафиком в дата-центре. Часть 1. Как это устроено

9 ноя 2016
Как создавалась система холодоснабжения дата-центра NORD-4


26 окт 2016
Полезные мелочи в дата-центре: Wi-Fi IP KVM


7 окт 2016
Ошибки в проекте дата-центра, которые вы ощутите только на этапе эксплуатации

21 сен 2016
Путь электричества в дата-центре

9 сен 2016
Экскурсия по дата-центру NORD-4

1 сен 2016
Все умрут, а я останусь: репликация и послеаварийное восстановление в облако с помощью Veeam Cloud Connect Replication

25 авг 2016
Работаем с гибридным облаком: VMware vCloud Connector, часть 2

2 авг 2016
Работаем с гибридным облаком: VMware vCloud Connector, часть 1

31 мая 2016
Бесплатный семинар «Холодоснабжение ЦОД: как не перегреться летом», 8 июня, дата-центр NORD 4

23 мая 2016
Семинар «Oracle в «облаке» и экскурсия по одному из крупнейших дата-центров России NORD 4, 26 мая, г. Москва

11 фев 2016
От сложного к простому: запускаем виртуальный сервер Windows/Linux

9 дек 2015
Семинар «Backup любых объектов на основе CommVault Simpana», 10 декабря, дата-центр OST (Москва)


18 ноя 2015
CloudLITE 2.0, или работа над ошибками облачного провайдера
В середине октября мы перезапустили облачный сервис CloudLITE, поменяв платформу провижининга и биллинга на BILLManager. Сегодня расскажем о том, что у нас изменилось и почему.
Переход на vCloud Director оказался непростым, в первую очередь, для вчерашних пользователей VDS/VPS: совершенно незнакомый интерфейс, огромное количество настроек… Мы постарались по возможности «облегчить» это знакомство посредством инструкций и видео-мануалов, но все равно часть пользователей терялись, ошибались – и в результате уходили разочарованными.


12 авг 2015
Моддинг кондиционера Stulz CyberAir


28 июль 2015
vCloud Director для самых маленьких (часть 5): настройка VPN

17 июль 2015
vCloud Director для самых маленьких (часть 4): все о работе с шаблонами виртуальных машин

18 июнь 2015
vCloud Director для самых маленьких (часть 3): настройка балансировщика нагрузки

15 июнь 2015
Запустили новый облачный сервис AzureLine

5 июнь 2015
Изучаем внутренности сервера Huawei RH5885 V3 (unboxing)

18 мая 2015
VMware Virtual SAN (VSAN): зачем он вам и как его готовить

5 мая 2015
vCloud Director для самых маленьких (часть 2): создание виртуальных машин

28 апр 2015
vCloud Director для самых маленьких (часть 1): настройка сети

21 апр 2015
Остаться в живых: чеклист для подготовки ЦОДа к лету

6 апр 2015
Запускаем магазин облачных ресурсов CloudLITE.ru

20 мар 2015
«Идеальный шторм» и как это лечится

23 апр 2014
Гуляем по дата-центру NORD
NORD 1: площадь -1320 кв. м, 284 стойко-мест.
NORD 2: площадь — 1713 кв. м, 474 стойко-мест.
NORD 3: площадь — 1880 кв. м, 426 стойко-мест.
NORD 4 (будет запущен этим летом): площадь — 11700 кв. м, 2016 стойко-мест.

4 фев 2014
Дата-центр OST на ул. Боровая — самый первый ЦОД DataLine. В 2009 году именно с открытием двух машинных залов в этом ЦОДе компания вышла на рынок услуг коммерческих дата-центров. С момента своего старта OST ежегодно расширялся и обзаводился новыми машинными залами. На сегодняшний день ЦОД OST – это 9 машинных залов (общей площадью 2045 кв. м.) на 903 стойки и 250 кв. м офисного пространства для резервных офисов заказчиков. Здесь же трудится головной офис компании, так сказать, без отрыва от производства.

16 сен 2013
7 популярных ошибок при подключении оборудования

11 сен 2013
Дата-центр NORD на Коровинском шоссе
ЦОД состоит из трех корпусов (NORD 1, NORD 2, NORD 3) и на сегодняшний день является самым масштабным объектом компании DataLine. Общая площадь всех корпусов дата-центров NORD 7636 кв. м., на таких пространствах с легкостью разместятся 1280 стоек в 8 машинных залах.