Рейтинг
0.00

РТК-ЦОД

1 читатель, 12 топиков

РТК-ЦОД запустил новую площадку «Облака КИИ» в московском дата-центре



ЦОД «Остаповский-2» стал второй инфраструктурной площадкой «Облака КИИ» в Москве. По последним исследованиям «iKS-Consulting», в стране насчитывается более 50 тыс. значимых объектов критической информационной инфраструктуры, принадлежащих более чем 5 тыс. организаций.

Облачная инфраструктура для КИИ от РТК-ЦОД — первое на рынке импортозамещенное решение. Примененные в продукте технологии внесены в реестр МинПромТорга, а программное обеспечение — в реестр Минцифры. Безопасность и соответствие площадок «Облака КИИ» строгим требованиям Приказа ФСТЭК России № 239 подтверждаются аттестатами соответствия, которые распространяются на всю облачную платформу и позволяют размещать в облаке объекты КИИ до второй категории значимости, государственные информационные системы первой категории и работать с персональными данными до первого уровня значимости включительно.

Дата-центр «Остаповский-2» введен в эксплуатацию в 2024 году и вмещает 2 048 стоек. ЦОД соответствует уровню защищенности Tier III, что гарантирует работу инженерных систем объекта в случае чрезвычайных ситуаций. Новая аттестованная площадка «Облака КИИ» станет частью отказоустойчивой инфраструктуры компании, которая уже включает площадку в дата-центре «Медведково-1». Расположение двух центров обработки данных в Москве на расстоянии около 20 км друг от друга позволяет обеспечить высокий уровень доступности сервисов и бесперебойность их работы.

Облако КИИ" стало первым решением, без которого наши заказчики столкнулись бы с трудностями на пути импортозамещения, защиты своих систем от киберугроз и приведения к соответствию требованиям регуляторов. Наше решение позволило значимым объектам КИИ избежать выбора между безопасностью и эффективностью в работе с облачными сервисами
Алексей Забродин, технический директор РТК-ЦОД

Сегодня бизнесу нужны практические инструменты для выполнения жестких требований. Мы видим свою роль в том, чтобы сделать этот процесс максимально простым и предсказуемым. Наше аттестованное облако с реализованной геоизбыточностью позволит компаниям сосредоточиться на своей основной деятельности, а не на решении вопросов соответствия инфраструктуры требованиям регуляторов к их объектам КИИ
сказал директор по продуктам РТК-ЦОД Александр Обухов.

Открыт новый дата-центр «Нижний Новгород»





РТК-ЦОД ввел в эксплуатацию свой 25-й дата-центр — «Нижний Новгород». Строительство началось в конце 2023 года в Сормовском районе Нижнего Новгорода. К 15 марта 2025 года закончен монтаж инженерных систем, а к 15 мая завершены пусконаладочные работы с опережением срока сдачи на полгода.

На площади 3 539 кв. м расположены два здания ЦОД, по два машинных зала в каждом. ЦОД рассчитан на 401 стойко-место. Общая установочная мощность — 5 МВт.

Дата-центр «Нижний Новгород» соответствует уровню защищенности Tier III. В ЦОД обеспечены:
  • отказоустойчивая сетевая инфраструктура с двумя независимыми волоконно-оптическими вводами;
  • система автоматического газового пожаротушения;
  • круглосуточный мониторинг инженерного оборудования и техническая поддержка;
  • оптимальный микроклимат в машинных залах.

ЦОД оснащен системами гарантированного и бесперебойного энергоснабжения, системами резервирования кондиционирования. ДГУ зарезервирован по двум независимым лучам электропитания. В случае отключения постоянных источников электропитания дата-центр будет работать независимо от городской сети еще 12 часов.




28672 vCPU для бизнеса: запущена новая площадка «Публичного облака» РТК-ЦОД





РТК-ЦОД ввел в эксплуатацию новую площадку «Публичного облака» — «Медведково–2». Она расширяет облачную инфраструктуру в Центральном федеральном округе и увеличивает доступные вычислительные ресурсы для заказчиков.

Характеристики площадки:
  • vCPU (3,0 ГГц): 28672
  • RAM: 64256 ГБ
хранилище:
  • SSD: 278528 ГБ
  • SAS: 382976 ГБ
  • SATA: 483089 ГБ
Такой объем ресурсов ориентирован на задачи с высокой нагрузкой — от размещения ресурсоемких проектов до обработки больших объемов данных.

Площадка подключена к системе управления облачной платформой и обеспечивает пользователям прямой доступ к цифровым сервисам:
  • виртуальная инфраструктура;
  • резервное копирование;
  • гарантированный и негарантированный интернет;
  • миграция и репликация данных.

Запуск «Медведково–2» — часть масштабного проекта по развитию доступности «Публичного облака». На текущий момент облачная платформа РТК-ЦОД представлена в пяти федеральных округах и продолжает расширяться.

«Публичное облако» создано на базе собственной облачной платформы, зарегистрированной в реестре отечественного программного обеспечения. В составе продукта — облачные IaaS-, PaaS- и SaaS- сервисы.

www.cloud.rt.ru

Как сэкономить сотни миллионов на электричестве

Электричество можно экономить по-разному, но в основном экономия связана с энергосберегающими устройствами типа светодиодных лампочек, холодильников с высоким классом энергоэффективности или умных розеток с таймерами. Но в этой статье мы расскажем о другом способе — он позволяет снизить платежи за электроэнергию до 30%. Причем новое оборудование покупать не надо, да и режим потребления менять тоже.

Ростелеком на таком способе сэкономил сотни миллионов рублей на электроэнергии. При этом компания не тратилась на энергосберегающее оборудование, сотрудникам не пришлось менять привычки, и ни один клиент не заметил каких-либо изменений в качестве услуг связи. Магия? Нет, просто правильный подход к учету электроэнергии, который мы им помогли внедрить.

В этой статье покажем, как может происходить внедрение проекта в крупной компании и к чему готовиться, если у вас это первый опыт.

Что потребляет электричество в Ростелекоме
Объекты Ростелекома — это не просто офисы с компьютерами. Это целая инфраструктура телекоммуникационной сети с тысячами зданий и сооружений по всей стране:

Автоматические телефонные станции (АТС) — те самые здания, куда приходят все телефонные линии города


Базовые станции — вышки сотовой связи со всем оборудованием


Узлы связи — технические помещения с оборудованием, обеспечивающим работу сети интернет


Контейнеры с оборудованием связи — компактные модули в отдаленных районах


Административные здания с персоналом, обеспечивающие поддержку всей этой инфраструктуры.

Всё это оборудование работает круглосуточно и имеет очень высокие требования к надежности электроснабжения. Если экономия на электричестве негативно скажется на качестве связи, компания экономить не станет. Поэтому было важно снизить затраты и не менять технологических процессов.

У Ростелекома сотни тысяч таких объектов от Калининграда до Владивостока, в каждом регионе страны. Сейчас наша система охватывает 15 тысяч из них — те, на которых уже стоят умные счетчики, умеющие передавать данные удаленно. И в дальнейшем их количество будет расти.

Откуда берётся экономия, если всё продолжает работать?
В отличие от квартиры, где у вас есть тариф день/ночь и всё просто, для бизнеса существует шесть ценовых категорий тарифов на электроэнергию, и в зависимости от характера потребления электроэнергии один и тот же объект может платить по-разному:
  • Простой тариф (Первая ценовая категория): Платите за общее количество киловатт, как в квартире по обычному счётчику
  • Многозонный тариф (Вторая ЦК): День дороже, ночь дешевле — как в квартире с двухтарифным счётчиком, только для бизнеса
  • Почасовой тариф (Третья ЦК): Каждый час имеет свою цену — утренние и вечерние пиковые часы дороже, ночные — дешевле
  • Почасовой тариф с учётом мощности (Четвертая ЦК): То же, что и третья категория, но дополнительно платите за пиковую нагрузку — чем равномернее потребляете, тем выгоднее
  • Тариф с планированием (Пятая ЦК): Стоимость электроэнергии также меняется каждый час, но вы должны заранее сообщать план потребления на следующий месяц — если уложитесь в план, тариф может стать выгоднее
  • Тариф с планированием и учётом мощности (Шестая ЦК): Как пятая категория, но с дополнительной платой за пиковую нагрузку

Если ваше оборудование работает преимущественно ночью или равномерно в течение суток, то вам будет выгоден один тариф. Если основная нагрузка приходится на дневное время — другой.

Но есть нюанс: в масштабах всей страны Ростелеком работает более чем со 100 энергосбытовыми компаниями, и у каждой свои тарифные ставки в рамках этих шести категорий. То, что выгодно в Москве, может быть убыточно в Хабаровске.

Но тут есть подвох: готовые тарифы энергосбытовые компании в открытом доступе не публикуют. Можно либо ждать счёт и надеяться, что поставщик не ошибется в расчетах, либо самостоятельно собирать тарифные составляющие из разных источников по всей стране. Без автоматизации такую задачу решить невозможно — слишком много данных и слишком часто они меняются.

Выбор правильной ценовой категории для каждого объекта может дать экономию до 30% без изменения режима работы оборудования. Просто потому, что вы будете платить по более выгодному для вас тарифу.

Но чтобы понять, какой тариф выгоднее, нужно сначала собрать статистику потребления электроэнергии по часам. А для этого нужны специальные счётчики и система, которая эти данные собирает и анализирует. Вот тут-то мы и пригодились.

Как было до нас: 10 программ учета, которые не дружили друг с другом
До начала нашего проекта в Ростелекоме было внедрено 10 программ разных производителей. Каждый региональный филиал сам решал, какое программное обеспечение для учета электроэнергии использовать.

Для центрального аппарата компании это была большая головная боль. Это, как если бы в одном офисе одни сотрудники заносили результаты в Excel таблицу, другие работали с 1С, а третьи — записывали информацию в блокнот. Собрать все данные воедино и провести анализ в такой ситуации крайне сложно.

Одной из десяти программ учета была наша, её мы внедрили несколько лет назад. Однако, в отличие от других, мы не просто собирали данные со счетчиков, но и показали значительную экономию от внедрения. В Архангельском филиале она достигла 12 млн рублей в год, в Псковско-Новгородском филиале — около 8-10 млн, а в Карелии — порядка 6-8 млн рублей.

В центральном аппарате компании поняли, что это не очередная программа для сбора данных, а инструмент, который приносит реальную экономию. Вот так перед нами встала задача заменить разрозненные системы одним решением, которое будет собирать данные со всех приборов учета и позволит анализировать потребление в масштабах всей компании по 32 регионам.

Как мы делали единую систему: план и реальность
План был таким:
  • Проанализировать текущие системы и понять, что с чем будет интегрироваться
  • Развернуть нашу систему на серверах Ростелекома
  • Перенести данные из старых систем
  • Подключить счетчики к новой системе
  • Обучить сотрудников
  • Радоваться, как лихо мы управились.

А в реальности…

Шаг 1: Анализ и подготовка (сентябрь 2023)
Первый этап занял больше года. Это заключение договора. Ростелеком — большая компания с множеством согласований. Нужно было выяснить, какие системы стоят в филиалах, какие счетчики установлены на объектах и как всю эту разнородную инфраструктуру соединить в одну систему.

Самая сложная часть — сбор информации. Мы подключались к системам удаленно и помогали структурировать данные. Ставили копии их программ у себя, копались в базах данных, составляли полные списки оборудования и расшифровывали, как устроены данные в каждой системе.

Это как расследование, только с техническим уклоном. Нам нужно было понять, как работают чужие системы, чтобы потом аккуратно перенести всё в нашу.

Шаг 2: Разворачиваем систему на серверах (октябрь-декабрь 2023)
Тут начались первые сюрпризы. В обычных проектах мы просто заходим на сервер клиента и устанавливаем нашу систему. Но с Ростелекомом всё оказалось сложнее. Из-за повышенных требований по информационной безопасности работа сильно затянулась:
  • Ограниченный доступ: нам выделили специальный VPN-канал для доступа к инфраструктуре, но прямого доступа к серверам не дали
  • Учетные записи: для каждого нашего сотрудника создали отдельную учетную запись с фиксацией, с какого устройства он работает
  • Документирование: мы готовили подробную документацию на каждого нашего сотрудника и какие действия он должен выполнять
  • «Карантин»: наш установочный пакет проходил проверку службой безопасности в течение двух недель в специальной изолированной среде.

Наш программный пакет проверяли на наличие любых потенциальных уязвимостей. Проверка выявляла все используемые нами компоненты, фреймворки и библиотеки, и если хоть один из них когда-либо имел зарегистрированную уязвимость, нам приходилось либо обновлять этот компонент, либо доказывать, что в нашем случае уязвимость не актуальна. Внесение любого изменения в проект требовало вновь ждать до двух недель на прохождение карантина.

Также нам пришлось доработать интеграцию с Active Directory — службой каталогов Microsoft, которая у клиента используется для авторизации пользователей. Это позволило сотрудникам компании входить в нашу систему с теми же учетными данными, которые они используют для других корпоративных систем.

Шаг 3: Подключение счетчиков (январь-март 2024)
Обычно с переключением счетчиков, по которым уже налажен опрос, сложностей не возникает. Но сюрпризы нас поджидали и тут. Когда мы начали проверять сетевую доступность до счетчиков, выяснилось, что в разных филиалах есть счетчики с устройствами связи, IP-адреса которых совпадают. Такие пересечения возникли в силу того, что разные филиалы настраивают свои локальные сети независимо друг от друга.

Представьте, что у вас есть счетчик в Пскове и счетчик в Петрозаводске, для связи с которыми используется один и тот же IP-адрес 192.168.1.100. Если счетчики находятся в изолированных друг от друга сетях, то проблем не возникает. Мы же все счетчики стали объединять в единую сеть и обнаружили пересечения диапазонов IP-адресов, это приводило к конфликтам.

Казалось бы, есть очевидное решение — сменить сетевые адреса, чтобы они не совпадали, и все заработает без лишних хлопот. Но нет, сетевая инфраструктура нашего клиента формировалась исторически сложным путем. Раньше каждый региональный филиал был фактически отдельной компанией со своими стандартами и правилами настройки сетей. Когда все эти компании объединились под единым национальным брендом, их сетевые инфраструктуры просто «сшили» вместе, сохранив исходную адресацию. За годы в каждой из этих сетей накопилось множество разного оборудования — не только счетчики электроэнергии, но и системы связи, безопасности, управления. И все они были настроены на работу в определенных диапазонах IP-адресов.

Если мы станем менять адреса, то в результате может отвалиться какое-нибудь другое устройство, которое используется совсем для других целей, например, оборудование связи. Проблема усугубилась тем, что в некоторых филиалах никто не мог пояснить, как именно всё настроено — документация неполная, а инженеры, которые всё это создавали, давно сменились.

Поэтому нам пришлось руководствоваться принципом «Работает — не трогай». В архитектуру системы были внесены изменения, и мы развернули отдельные серверы-сборщики для каждой «подсети» Ростелекома. Это как поставить отдельного почтальона в каждом районе, чтобы они не путались, если в разных концах города есть улицы с одинаковыми названиями.

Мы спроектировали распределенную архитектуру, похожую на сеть почтовых отделений. В каждой подсети компании поставили свой сервер-сборщик, который общается только с устройствами в своей «зоне ответственности». Затем все собранные данные передаются на центральный сервер. При этом пользователь видит полную картину в едином интерфейсе — ему не нужно знать про всю эту сложную систему, он просто заходит в единый личный кабинет и получает все данные.



Это более сложная архитектура, чем мы изначально планировали, но она гораздо надежнее и масштабируемее. И самое главное — она решила проблему с пересекающимися IP-адресами.

Шаг 4: Перенос счетчиков и настройка отчетов (июнь-декабрь 2024)
Самый долгий и кропотливый этап. Нужно было перенести информацию обо всех точках измерения и счетчиках из старых систем в новую. И сделать это с учетом жестких требований Ростелекома: сохранить историю потребления за прошлые годы, обеспечить полностью бесшовный переход без потери данных для ежемесячной отчетности и ни в коем случае не прерывать процесс передачи почасовых показаний в энергосбытовые компании, чтобы не нарваться на претензии и штрафы.

Это как заменить двигатель в автомобиле, не останавливаясь в пути.

Процесс был таким:
  • Выгружали данные из старой системы
  • Дополняли недостающую информацию (часто в старых системах не хватало важных параметров)
  • Приводили данные к единому формату
  • Загружали в новую систему
  • Проверяли корректность загрузки
  • Перенастраивали оборудование на передачу данных в новую систему

Последний пункт был особенно сложным. Ведь первого числа каждого месяца филиалы должны были передавать данные о потреблении электроэнергии в энергосбытовые компании.Если мы допустим сбой, то это приведет к нарушению договорных обязательств с поставщиками и может повлечь штрафные санкции до 25% от стоимости электроэнергии.

Поэтому мы разработали план поэтапного перехода:
  • Согласовывали с филиалом удобное время для перенастройки
  • Подтверждали, что данные за прошлый месяц уже переданы
  • Удаленно перенастраивали оборудование на передачу данных в новую систему
  • Проверяли корректность сбора данных
  • Обучали сотрудников филиала работе с новой системой отчетности

В процессе работы обнаружили много старых счетчиков и модемов, которые пора было менять. Ростелеком закупил новую технику, а нам пришлось срочно научить нашу систему работать с этими устройствами — буквально получали коробки с новым оборудованием и за месяц добавляли поддержку.

В итоге мы перетащили данные из всех десяти разных систем, удаленно перенастроили часть приборов учета и обеспечили бесшовную передачу данных энергетикам. Никто даже не заметил, как произошла замена двигателя в едущей машине.

Теперь видно все объекты в едином интерфейсе. Центральный аппарат видит всю картину по предприятию, а инженеры филиалов — данные только по своему региону.

Первое, на что инженеры обращают внимание — это общая картина сбора данных. По сути, это диспетчерский экран, где сразу видно состояние всех объектов.



Если где-то появилось красное пятно, значит, счетчик на этом объекте не передает данные, и если не решить проблему, в конце месяца придется ехать снимать показания вручную или платить штрафы за непредоставление информации.

И конечно, все эти усилия по миграции и непрерывному сбору данных были направлены на главную цель — своевременную передачу показаний в энергосбытовые компании.Каждый поставщик электроэнергии требует предоставлять отчеты в строго определенном формате. Раньше это означало кропотливую ручную работу — собрать данные из разрозненных систем, перенести их в нужный формат, проверить, отправить и убедиться, что отчеты были приняты. Сбой на любом этапе приводил к переплатам за электроэнергию из-за штрафов.

Теперь все эти отчеты формируются и отправляются автоматически. Система учитывает требования каждой энергосбытовой компании, форматы сдачи отчетности у которых могут сильно отличаться:


Остается только убедиться, что все отчеты были отправлены и получены поставщиками электроэнергии:


Шаг 5: Обучение пользователей (сентябрь 2024)
Когда система заработала, мы обучили команду Ростелекома ей пользоваться. Собрали более 60 сотрудников со всех филиалов на большой вебинар, а затем провели отдельные тренинги для энергетиков, инженеров и операторов — каждому объяснили его часть работы. Для особо любознательных филиалов проводим дополнительные вебинары с глубоким погружением в возможности системы.

Как теперь экономит Ростелеком
Самый ценный функционал системы — это анализ потребления и расчет оптимальных тарифов. Посмотрим, как это работает на конкретных примерах.

Пример 1: Сравнение тарифов и выбор оптимального


На этом скриншоте показано сравнение стоимости электроэнергии по всем возможным вариантам из тарифного меню одной энергосбытовой компании. Данный поставщик предлагает 5 вариантов расчета за электроэнергию, и система автоматически рассчитывает, сколько будет стоить один и тот же объем потребления (127 806 кВт) по разным тарифам:
  • Выбрав первый вариант расчетов (I), компания должна оплатить 1,4 млн. руб. — это самый оптимальный вариант.
  • Выбрав тарифы, дифферинцированные по зонам суток (2 зоны: день и ночь), за тот же объем компания заплатит 1,6 млн. руб. — дороже на 13%
  • Переплата на почасовых тарифах (III и IV ЦК) составит 7% и 17%.

Чтобы разобраться с начислениями подробнее, система позволяет выполнить посуточный тарифный анализ и определить дни максимальной экономии и переплаты. Это может помочь подобрать наиболее выгодные режимы работы предприятия.

Пример 2: Расчет экономии при переходе с одного тарифа на другой
Этот пример показывает посуточный анализ затрат при переходе с IV ценовой категории на I ценовую категорию:


В таблице показаны детали расчета:
  • В рабочие дни экономия составляет 0,5 млн руб или 32% в сравнении с текущим тарифом
  • В нерабочие дни наблюдается переплата 0,2 млн. руб.
  • Общая экономия за месяц: 0,3 млн. руб. или 17%

Графики демонстрируют ежедневную статистику по экономии:


Экономия происходит в дни, когда синие столбцы вверху. Дни, когда есть переплата, показаны красными провалами.

Что в итоге получил Ростелеком?
Теперь вместо 10 разных систем у Ростелекома единая централизованная система учета электроэнергии, которая:
  • Собирает данные с более чем 15 тысяч счетчиков, раскиданных по 32 регионам страны.
  • Отслеживает проблемы передачи данных
  • Контролирует качество электроэнергии — напряжение, частоту и другие параметры
  • Предупреждает о критических ситуациях, если параметры электросети выходят за допустимые пределы
  • Автоматически формирует и рассылает отчеты для энергосбытовых компаний
  • Анализирует потребление и показывает, где можно оптимизировать затраты
  • Выявляет ошибки в расчетах поставщиков электроэнергии

Экономический эффект внедрения системы в некоторых филиалах достигает 30% от первоначальных платежей за электроэнергию. При этом потребление не уменьшилось — наш клиент платит по оптимальным тарифам и за год экономит более 100 млн. руб.

Что особенного в этом проекте?
Для нас этот проект стал вызовом по нескольким причинам:
  • Масштаб — 15 тысяч счетчиков, 32 региона, 10 разных систем
  • Требования безопасности — каждое обновление проходило проверку в течение двух недель, и мы старались пройти проверку с первой попытки
  • Сетевая инфраструктура — пришлось адаптировать нашу систему под сложную сетевую архитектуру Ростелекома
  • Непрерывность сбора данных — нельзя было допустить сбоев в передаче показаний
  • Работа с критической инфраструктурой — необходимость интеграции с системами, обеспечивающими безопасность сети

Масштабируемость решения — теперь наша система может расти практически без ограничений. При увеличении числа объектов достаточно добавить новые серверы-сборщики, что позволяет в перспективе обслуживать намного больше 15 тысяч точек учета без потери производительности.

Но главное — мы помогли крупной компании сэкономить миллионы рублей, не меняя режим работы оборудования и не снижая качество услуг для клиентов.

И сделали это, просто правильно настроив учет электроэнергии и подобрав оптимальные тарифы.

Мораль этой истории
Даже если вы не можете снизить потребление электроэнергии (потому что оборудование должно работать 24/7), вы всё равно можете существенно сэкономить, если правильно выберете тариф и будете контролировать потребление.

Но для этого нужна хорошая система учета, команда экспертов и немного терпения в работе с инфраструктурой крупной компании и бюрократией энергосбытовых организаций.

Что ж, мы своё терпение проверили на практике — и оно не подвело. А наш клиент теперь экономит миллионы. Всем выгодно!

www.cloud.rt.ru

Экскурсия по дата-центру «Медведково-2»



Наш ЦОД «Медведково», о котором мы уже рассказывали, в 2024 году стал кластером, так как рядом был построен еще один дата-центр — «Медведково-2». В этой статье мы покажем, как устроен новый ЦОД.

Здание «Медведково-2» возвели за год, параллельно проводили интеграцию инженерных систем. К 2024 году ЦОД полностью подготовили для проведения аудита и сертификации. Дата-центр успешно прошел испытания Uptime Facility и получил сертификат Tier III.



Главное отличие «Медведково-2» — это вертикальная архитектура, так называемый стакан. За счет этого для нагрузки 36 МВт, как в «Медведково-1», потребовалась меньшая площадь застройки.

Всего в «Медведково-2» семь этажей, высота здания — 40 метров. 16 машзалов рассчитаны на 4000 стоек — по 250 на каждый зал. Площадь технологических помещений составляет 22 000 кв. м. На двух нижних этажах расположены четыре независимых энергоцентра: РУ 10 кВ, ГРЩ, ТП, ИБП, на остальных — машинные залы, которые относятся к одному из четырех энергоцентров. На кровле размещены чиллеры.



В ЦОДе соблюдается единый стандарт обслуживания клиентов РТК-ЦОД: круглосуточный доступ в дата-центр, бесплатная парковка, комфортная зона для переговоров.





Физическая безопасность
Работает круглосуточная охрана. Во всех помещениях и на территории ЦОДа ведется видеонаблюдение. Все соответствует национальному стандарту Российской Федерации «Системы охраны и безопасности» ГОСТ Р 52551-2016 и стандартам ISO 27001, PCI DSS.




Машинные залы
Машинные залы защищены от пыли, колебаний уровня влажности и температуры. Внутри поддерживается оптимальный микроклимат, есть система автоматического пожаротушения, ведется круглосуточный мониторинг инженерного оборудования.

Топология размещения серверных стоек реализована по принципу холодных и горячих коридоров. Расстояние между рядами стоек в холодном коридоре составляет 1200 мм.

Подача охлажденного воздуха к серверным стойкам идет через перфорированную плитку фальшпола в холодных коридорах. Высота фальшпола — 1350 мм. Пропускная способность перфорированных плиток составляет не менее 38% от общей площади плитки.

В холодных коридорах поддерживается температура 23±3 °С и влажность 30–70 %. Увлажнители размещены внутри корпусов кондиционеров. Каждый модуль рассчитан на отвод 6 МВт тепловой нагрузки от ИТ-оборудования.





По вопросам установки и эксплуатации клиентского оборудования круглосуточно доступны филды и дежурные инженеры (услуга Smart Hands).

Климат
В системе холодоснабжения «Медведково-2» работает 170 прецизионных кондиционеров внутри ЦОДа и 74 чиллера на крыше. Они обслуживают 16 машинных залов и помещения MMR, MDA, ИБП, КСБ.



Вентиляционные коридоры с кондиционерами отделены от машинного зала с клиентским оборудованием. Это позволяет службе эксплуатации проводить плановые работы без посещения основного пространства машинного зала.



Мощность каждого кондиционера — 230 кВт. Оборудование оснащено датчиками протечки воды. Каждый кондиционер на теплообменнике имеет фильтр для обработки проходящего через него воздуха (класс очистки — М5).

Оптимальный уровень влажности по SLA обеспечивают увлажнители и осушители. Схема резервирования системы холодоснабжения N+1.



При номинальной проектной нагрузке одновременно работают все восемь кондиционеров в машзале, включая резервные. Если один кондиционер выходит из строя, оставшиеся семь автоматически распределяют тепловую нагрузку между собой с изменением уставки на повышенный расход воздуха. Неисправный кондиционер автоматически выводится из работы, чтобы не произошла подача горячего воздуха в машинный зал.

На крыше находятся аккумулирующие баки емкостью 3000 литров каждый. В них — охлажденный этиленгликоль на случай отказа электропитания компрессоров в чиллерах. Если пропадает электропитание в общегородской сети, во время перехода на дизель-генераторные установки (ДГУ) часть компрессоров в чиллерах перезапускается. Для выхода на рабочую мощность чиллерам нужно до 3 минут. Баки обеспечат до 4 минут поддержания температуры гликоля. В схеме электроснабжения насосных групп чиллеров присутствует ИБП, при переходах на резервный источник питания насосы не перезапускаются.

Мощность каждого чиллера — 470 кВт. Чиллеры имеют один холодильный контур с винтовыми и безмасляными центробежными компрессорами. Предусмотрена плавная регулировка холодопроизводительности. Уровень резервирования холодильных машин N+1: из 16 чиллеров два — резервные с учетом топологии ЦОДа. 14 работающих чиллеров производят 100% холода для четырех машинных залов каждого энергоцентра.

При температуре воздуха снаружи ниже +10 °С чиллеры переходят в режим фрикулинга, что дает большую энергоэффективность ЦОДа. Если температура окружающей среды выше +10 °С, чиллеры запускаются в компрессорном режиме.





Система холодоснабжения оборудована баками компенсации давления. В случае увеличения давления гликоля в системе холодоснабжения это позволяет стабилизировать давление в контуре на нужном уровне.



Станция подпитки гликолем постоянно функционирует в дежурном режиме. Если возникнет нехватка гликоля в результате протечки или потери давления, то дежурный персонал оперативно подпитает систему. Станция оснащена подогревом. В зимний период при выводе холодильной машины или чиллера в сервис мы включаем насос, и гликоль циркулирует через станцию подогрева гликолевого контура, чтобы не остывать ниже рекомендуемой производителем температуры эксплуатации (–28 °С).

Энергетика
ЦОД запитан по высокому напряжению от электросетей: по 10 кВт от городского питания и от резервного источника питания КДГУ. К электропитанию потребителей ИТ-нагрузки по напряжению 0,4 кВт приходит 4 луча электропитания по топологической схеме резервирования 4/3 N. Магистральный шинопровод электропитания организован в вертикальной проекции и горизонтально расходится по этажам в машзалы.

В составе ЦОДа предусмотрены четыре независимых энергоцентра: РУ 10 кВ, ГРЩ, ТП, ИБП, РП ДГУ, ШП, ЩР. На каждый энергоцентр приходится 6 МВт ИТ-нагрузки и 3 МВт — механической для инженерных систем, на каждую стойку — от 5 до 15 кВт.





К каждому энергоцентру подведены независимыми маршрутами два отдельных ввода электропитания.

Действует система гарантированного и бесперебойного энергоснабжения на базе ДГУ и ИБП, в экстренной ситуации для автоматического переключения между вводами и ДГУ сработает автоматический ввод резерва АВР.

Заземление всех конструкций и оборудования организовано по единому контуру.

В отличие от «Медведково-1», где ИБП со свинцовыми аккумуляторами, в новом дата-центре используются литий-ионные аккумуляторы. При той же мощности у них меньший объем, сами устройства более экономны и долговечны. В батарейные блоки встроены модули, которые обеспечат тушение при повышении температуры выше 80 °С. В батарейных модулях используется негорючий литий, что подтвердили испытания, которые были проведены совместно с нашими инженерами на заводе АКБ VISION в Китае.

При переходе с высокой стороны на низкую (400 вольт) в энергоцентрах используются сухие трансформаторы. За счет отсутствие масла эксплуатация удобнее и экологичнее, выше пожарная безопасность.

Система гарантированного энергоснабжения
Рядом с ЦОДом установлено 24 контейнерных дизель-генераторных установки (КДГУ) суммарной мощностью 48 МВт. Объем топливохранилища — 192 тонны, по 8 тонн на каждую КДГУ. Энергопроизводительность каждой машины — 2 МВт.

Запаса топлива хватает на 17 часов автономной работы дата-центра. Топливо доставляют два независимых поставщика. Гарантированный срок поставки топлива для дозаправки ДГУ — четыре часа.

Двухэтажная площадка КДГУ двухэтажная оборудована дополнительными кожухами шумопоглощения и со стороны спальных районов города закрыта 15-метровой шумопоглощающей стеной.




Пожарная безопасность
В ЦОДе ведется круглосуточный мониторинг, работают система раннего обнаружения продуктов горения (СРОП) и система газового пожаротушения на основе газа хладон-227еа. Общий объем станции газового пожаротушения — 48 тонн. Схема резервирования системы — 2N.

Телеком
В ЦОД выстроена отказоустойчивая сетевая инфраструктура на основе двух независимых волоконно-оптических сетевых вводов. Есть Meet-Me-Roomи восемь отдельных помещений пассивного оптического кросса. Поддерживается сетевой нейтралитет, можно подключать каналы связи любого оператора или использовать ВОЛС РТК-ЦОД.

Дата-центр «Медведково-2» обеспечивает стабильную работу тысяч информационных систем. Вместе с «Медведково-1» ЦОД признан «Кластером ЦОД года» по версии премии «ЦОДы.РФ» 2025 года. Жюри высоко оценило масштаб, соответствие высоким стандартам отказоустойчивости, инновационную архитектуру и надежность кластера.



cloud.rt.ru/registration
cloud.rt.ru/showcase/tariffs

Лаборатория R&D РТК-ЦОД стала лучшей по версии «ЦОДы.РФ»



На церемонии вручения премии «ЦОДы.РФ» наша лаборатория R&D получила награду «Эксперт №1 в области R&D» за вклад в развитие отечественных технологий, уникальный опыт и высококлассный программно-аппаратный комплекс, с помощью которого наши коллеги проводят испытания IT-оборудования и ПО.

За четыре года команда провела более 100 исследований и испытаний серверов, СХД, S3, SDS, СРК, СПД, HPC, системного ПО и систем виртуализации, проанализировала рынок и разработала собственные программы и методики испытаний (ПМИ).

Исследования нашей лаборатории R&D напрямую влияют на развитие российских IT-продуктов и roadmap производителей. Многие отечественные решения, которые успешно прошли тестирование в лаборатории РТК-ЦОД, используются в крупнейших государственных проектах.

Личный кабинет для Colocation



РТК-ЦОД расширил функциональность личного кабинета облачной платформы, добавив возможности для работы с услугой Colocation.



Теперь новые пользователи могут:
  • отслеживать актуальную информацию о стойках, оборудовании и авторизованных лицах;
  • создавать заявки на размещение оборудования в ЦОД, изменение действующих или добавление новых услуг;
  • оформлять заявки на пропуск в дата-центр и перемещение оборудования в соответствии с типовой формой договора;
  • создавать обращения в техническую поддержку.

Компания «РТК-ЦОД» открыла новую площадку «Публичного облака» в Москве



Компания «РТК-ЦОД» (дочерняя компания «Ростелекома») запустила в эксплуатацию новую площадку «Публичного облака» — «Медведково-2». Теперь клиентам «Публичного облака» в Центральном федеральном округе доступен для заказа больший объем ресурсов.

Общая мощность «Медведково-2» — более 28 тыс. виртуальных процессоров (vCPU) частотой 3,0 ГГц, 64 ТБ оперативной памяти (RAM) и почти 1,2 ПБ хранилищ c дисками различного типа (SSD, SAS и SATA). Это позволяет запускать ресурсоемкие проекты, увеличивать размеры инфраструктуры под нагрузку и работать с большими объемами данных.

Площадка подключена к системе управления облачной платформой — это обеспечивает пользователям прямой доступ к цифровым сервисам. Через личный кабинет клиенты уже сейчас могут заказать виртуальную инфраструктуру, гарантированный и негарантированный интернет, резервное копирование. Кроме того, на площадке можно использовать функцию миграции и репликации данных.

Мы продолжаем масштабировать инфраструктуру “Публичного облака”, чтобы наши клиенты –– нынешние и потенциальные –– могли развивать свои цифровые сервисы. Запуск площадки “Медведково-2” повышает доступность облачных решений для бизнеса и расширяет их использование. Наша цель –– создание единого цифрового ландшафта, который охватит все федеральные округа страны
Александр Обухов, директор по продуктам РТК-ЦОД, владелец продукта «Публичное облако»

Публичное облако» от «РТК-ЦОД» создано на базе собственной облачной платформы, зарегистрированной в реестре отечественного программного обеспечения. В составе продукта — облачные IaaS-, PaaS- и SaaS-сервисы.

rt-dc.ru

«РТК-ЦОД» — сервис-провайдер ИТ полного цикла. Группа компаний реализует под ключ комплексные проекты: от инфраструктуры и систем связи до облачных решений и ПО.

РТК-ЦОД занимает лидирующие позиции на рынке коммерческих дата-центров (по версии CNews c 2020–2024 год, iKSConsulting 2020–2024 год). Является лидером поставщиков IaaS-услуг по версии CNews 2020–2023 год. А также занимает первое место рейтинга «Крупнейшие операторы коммерческих дата-центров в России» (по версии Comnews Vision 2024).

Экспертиза «РТК-ЦОД» включает в себя многолетний опыт построения и обслуживания геораспределенной сети дата-центров, сервисы обеспечения связности, инфраструктурное ПО, облачную платформу и широкий набор сервисов на ее основе. Компания предоставляет виртуальную инфраструктуру для крупнейших заказчиков как в государственном секторе, так и в сферах ритейла, банков, энергетики, нефтегаза.

BareMetal 2.0: разбираемся, какие GPU выбрать



Недавно мы обновили BareMetal 2.0 в составе нашего «Публичного облака». Теперь в инфраструктуре есть выделенные физические серверы с высокопроизводительными GPU-картами. Они позволяют работать с задачами, где критична скорость вычислений.

Расскажем, что именно изменилось и какие задачи можно теперь решать быстрее. Но сначала небольшая справка.

Когда нужны графические ускорители?
Вычисления можно разделить на две категории: последовательные, где каждая операция выполняется строго одна за другой, и параллельные, где тысячи операций могут выполняться одновременно.

Процессоры (CPU) — это универсальные рабочие лошадки. Они отлично справляются с последовательными вычислениями: обработкой запросов, работой с базами данных, выполнением бизнес-логики. Но когда речь заходит о сложных вычислениях, требующих параллельной обработки (обучение нейросетей, рендеринг, обработка видео), их мощностей недостаточно.

В отличие от CPU, GPU созданы для объемных параллельных вычислений: вместо 16–64 мощных ядер, как у процессора, у GPU могут быть тысячи более простых, но специализированных ядер. Подход идеален для задач, которые можно разбить на множество мелких операций, выполняемых одновременно, например для data-parallel computing, обработки данных или работы с графикой.

Где нужны GPU?
  • Обучение и инференс больших языковых моделей LLM: развертывание on-premise решений для ChatGPT-подобных систем, RAG-архитектур (Retrieval-Augmented Generation), отраслевых LLM в медицине, юриспруденции, финансах.
  • Распознавание речи: создание высокоточных систем распознавания речи для call-центров, виртуальных ассистентов и т. д.
  • Корпоративные ИИ-решения: создание собственных решений на базе ИИ для повышения эффективности бизнес-процессов компании, аналитика Big Data с параллельной обработкой поведенческих данных.
  • Графика и рендеринг: в 3D-графике расчет сложных моделей в реальном времени возможен только с профессиональными GPU-картами.
  • Научные вычисления и инженерные расчеты: моделирование химических соединений, симуляции физических процессов, анализ Big Data.
  • Медицинская аналитика: обработка МРТ, КТ, рентгеновских снимков, трехмерная реконструкция изображений, системы поддержки принятий врачебных решений.
  • Построение прогнозных моделей: алгоритмическая торговля, риск-менеджмент и обработка больших потоков данных.
  • Визуализация больших массивов данных, например, в бизнес-аналитике.
Практически в любой отрасли найдутся сложные задачи, которые можно эффективно решить с применением GPU. И теперь такие сценарии можно реализовать в облаке, нет необходимости покупать дорогостоящее железо.

Какие GPU доступны в BareMetal 2.0 и что они могут?
В составе «Публичного облака» на сегодня доступны конфигурации BareMetal серверов с процессорами от 36 физических ядер, объемом оперативной памяти от 512 ГБ. Для хранения данных можно использовать локальное SSD-хранилище или внешнюю систему хранения.

Обновленный сервис предоставляет три ключевые модели графических ускорителей под определенные нагрузки: NVIDIA L4 (24 ГБ VRAM), RTX A6000 (48 ГБ VRAM), NVIDIA A100 (80 ГБ VRAM).


Универсальный ускоритель для ML и видео NVIDIA L4 (24 ГБ VRAM)
L4 — это оптимальный вариант для задач, связанных с обработкой видео, компьютерным зрением и легкими ML-вычислениями. Он быстрее предшественника Tesla T4 в 2,5 раза при генерации контента нейросетями, в 4 раза при рендеринге и в 3 раза при трассировке лучей.

Где нужен?
  • Системы распознавания лиц — быстрая обработка потокового видео для аналитики и безопасности.
  • Компьютерное зрение — анализ дорожной обстановки в сфере автономного транспорта, контроль качества в промышленности.
  • Чат-боты и NLP — модели Transformer для обработки и генерации текстов в реальном времени.
  • Медицинская визуализация — анализ снимков МРТ и КТ для диагностики на основе ИИ.
  • VR/AR — создание интерактивных сред с высокой детализацией.

NVIDIA RTX A6000 (48 ГБ VRAM) для графики, рендеринга и AI-разработки
Когда нужна максимальная мощность для 3D-моделирования, симуляции и визуализации, то A6000 — отличный выбор. В сравнении с предыдущим поколением RTX-карт он дает в 2 раза большую производительность при рендеринге и в 3 раза более быструю обработку AI-алгоритмов.

Где нужен?
  • Рендеринг в реальном времени — видеоигры, VR, киноиндустрия.
  • Создание контента нейросетями — работа с GAN-моделями, генерация изображений и анимаций.
  • Архитектурная и инженерная визуализация — быстрый расчет сложных 3D-моделей.
  • Научные вычисления — биоинформатика, молекулярное моделирование, климатические симуляции.
  • Медицина — рендеринг томографических снимков, анализ биоинженерных структур.

NVIDIA A100 (80 ГБ VRAM) — тяжелая артиллерия для больших моделей
A100 — это один из топовых ускорителей для обучения крупных нейросетей, аналитики Big Data и высокопроизводительных вычислений. Он в 8 раз быстрее, чем V100, в задачах Big Data Analytics, а его производительность для HPC-вычислений выше в 3 раза.

Где нужен?
  • Обучение больших языковых моделей (GPT-4, BERT, T5) — ускорение обработки текстов на терабайтных датасетах.
  • Финансовые вычисления — моделирование рисков, прогнозирование трендов на рынках.
  • 3D-рендеринг в кино и анимации — создание сложных сцен с фотореалистичными эффектами.
  • Научные исследования — моделирование климатических процессов, симуляция белков и молекулярное моделирование в биомеханике.
  • Обработка больших видео и изображений — автоматическая сегментация, классификация и анализ.

Гибридная инфраструктура: GPU + облако
BareMetal 2.0 в составе «Публичного облака» — это не просто выделенные серверы с GPU. Это еще и возможность интеграции физических серверов с виртуальной инфраструктурой, что позволяет выстраивать гибридные IaaS-решения.

Что это дает пользователю?
  • Гибкость. Можно использовать GPU-ускоренные серверы только для самых ресурсоемких задач, а остальные процессы запускать в облаке.
  • Экономия. Можно избежать капитальных затрат на покупку и обслуживание оборудования (электропитание, ремонт, апгрейд), оплачивая только те ресурсы, которые используются здесь и сейчас.
  • Масштабируемость. Можно легко добавлять мощности в зависимости от нагрузки.

Пример 1: Разработка чат-бота на основе нейросетей
Если ваша компания создает чат-бота с искусственным интеллектом, можно тренировать модель на A100, используя всю мощность выделенного GPU-сервера, а обработку пользовательских запросов выполнять на менее ресурсоемких инстансах с L4.

Пример 2: Анализ медицинских изображений
Допустим, у вас есть сервис, который анализирует снимки МРТ и КТ с помощью нейросетей. Обучение модели и сложные вычисления можно запускать на сервере BareMetal с RTX A6000, а облачная инфраструктура возьмет на себя хранение данных пациентов и обработку запросов врачей. Это исключит задержки в обращении к системе.

Этот подход позволяет комбинировать разные вычислительные мощности под конкретные задачи, создавая баланс между производительностью, стоимостью и эффективностью.

GPU в облаке — это не будущее, а реальность
Раньше высокопроизводительные вычисления были привилегией крупных корпораций. Теперь же благодаря BareMetal 2.0 доступ к GPU-решениям есть у любой компании, разработчика или исследовательской команды. Не надо инвестировать миллионы в собственные серверы, если нужна мощность для ИИ, анализа данных, графики или финансовых вычислений. Можно просто развернуть GPU в облаке и получить производительность как в дата-центрах мирового уровня.

Ребрендинг РТК-ЦОД



Друзья, мы рады сообщить о ребрендинге кластера РТК-ЦОД.

Смена корпоративной айденики является частью нашей стратегии по реорганизации ИТ-кластера и выходу на IPO.

Обновленный бренд — это прямая визуализация нашей экспертизы, которая включает полный цикл ИТ-услуг от инфраструктуры до облачных решений. Мы сохраняем свои ориентиры на инновационность и надежность, и под новым брендом продолжаем работать над укреплением лидерских позиций кластера на российском рынке ЦОД и облачных сервисов, — Сергей Викторович Бочкарев, генеральный директор РТК-ЦОД.

Мы ценим наше комьюнити и благодарим вас за поддержку и доверие в этот важный для нас период.

www.cloud.rt.ru/registration
www.cloud.rt.ru/showcase/tariffs