Рейтинг
0.00

Cloud4Y Хостинг

2 читателя, 85 топиков

Строительство ЦОДов в Марфино и Мытищах продолжается

Cloud4Y наращивает мощь: в Подмосковье строим два современных ЦОД — в Мытищах и Марфино. Это по 2400 серверных стоек, размещаемых в капитальных зданиях и в контейнерах. Оба объекта станут частью единой высокодоступной экосистемы — для вашего масштабирования и надёжности.

Марфино: закладываем фундамент мощности и надёжности
Июль был месяцем электричества, а в августе мы комплексно проработали вопрос всей инженерной инфраструктуры будущего ЦОД. Одновременно занимались несколькими критически важным направлениям.
  • Марфино — Заложили основу для энергомощности в 24 МВт и усилили инженерную инфраструктуру.
  • Мытищи — Завершили важный этап подготовительных работ.

1. Энергия будущего: газ для бесперебойной работы
Активно работаем с «Мособлгазом» — нам важно согласовать проект газоснабжения. Это ответственный этап. Газоснабжение — ключ к эффективному электроснабжению нашего объекта. Оно обеспечит работу газопоршневых электростанций, которые в перспективе позволят запитать участок электроэнергией до 24 МВт.

2. Газопоршневые генераторные установки: готовимся к приёмке
Ожидаем поставки нескольких газопоршневых генераторных установок (ГПУ) мощностью по 1 МВт каждая. Уже сейчас готовим и расчищаем площадку для их последующего монтажа. Будем интегрировать ГПУ в общую систему энергоснабжения. Надёжность — это всегда многоуровневая система.


3. Дизельные генераторы: запланировали приёмку
Параллельно мы готовим резервные источники питания. На площадку доставят несколько дизельных генераторов мощностью по 1,52 МВт каждый. Нам важно обеспечить резерв в газовой генерации.


4. Проектирование и оборудование: всё по плану
Продолжаются проектные работы по самому дата-центру. Мы пристально изучаем и выбираем ключевое оборудование для инженерных систем будущего ЦОД. Это сложный и кропотливый процесс, от которого зависит будущая эффективность и отказоустойчивость.

5. Электричество и коммуникации: наращиваем темпы
Силовые линии
Продолжаем прокладку силовых кабельных линий и готовимся к подключению дополнительных мощностей. Так мы создаём основу энергоснабжения будущего ЦОД, от которой зависит работа каждого сервера.

Водоотведение
Заключили договор и начали работы по присоединению к центральным сетям водоотведения. Эта система критически важна для работы комплекса в целом.

Связь
Получили согласование от операторов на создание прямого канала связи с М9 — центральным узлом обмена трафиком в России. Это гарантирует нам в будущем высочайшую скорость и стабильность подключения к крупным узлам связи.

Мытищи: этап подготовительных работ завершён
Завершается комплекс изысканий по земельному участку и инженерным коммуникациям, а также экспертиз существующих строений для использования в составе ЦОД. Теперь у нас на руках есть полный пакет документов и точное понимание состояния площадки. Это абсолютно необходимая основа для того, чтобы принять финальные проектные решения и начать активные строительные работы.

В фокусе — ваша стабильность
Каждый согласованный документ, каждый проложенный метр кабеля и каждая выбранная установка — это кирпичик в фундаменте вашего спокойствия. Наши собственные ЦОД — это залог предсказуемой производительности, безопасности данных и независимости для вашего бизнеса.

Почему именно Марфино и Мытищи?
Нас часто спрашивают в комментариях о выборе локаций для наших дата-центров. Отвечаем!

Решение строить за пределами Москвы, в Подмосковье, — это стратегический выбор. В итоге наши клиенты ощутят выгоду:

Экономическая обоснованность
Процедуры согласований проходят проще и быстрее, чем в столице. Вдобавок тарифы там более выгодные. Это касается и этапа строительства — CAPEX, и эксплуатации — OPEX. Так мы создаём конкурентоспособный продукт без компромиссов в качестве.

Безопасность и отказоустойчивость
Объекты в менее населённой зоне меньше подвержены различным рискам — от промышленных и транспортных до социальных. Так мы повышаем общую надёжность инфраструктуры.

Идеальный баланс
При этом незначительная удалённость от Москвы не создаёт проблем с логистикой, но технологически обеспечивает корректную работу резервной площадки при построении распределённой инфраструктуры.

А почему именно север? Здесь тоже есть чёткая логика:
Развитие рынка
На севере Подмосковья сегодня незначительное количество качественных ЦОДов, и мы закрываем эту потребность.

Сетевая география
Строительные площадки расположены в 80 км от центрального узла обмена трафиком М9. Такое расстояние обеспечивает идеальную разнесённость для того, чтобы выстроить высокоскоростные каналы связи между ЦОДами. В итоге получим надёжное кольцо. И не нужно дополнительно устанавливать дорогостоящее сетевое оборудование для усиления сигнала. Решение опять же положительно сказывается на итоговой стоимости услуг.

www.cloud4y.ru

Что такое контейнерный ЦОД. Его отличия и особенности



Контейнерные центры обработки данных (КЦОД) представляют собой революционный подход к организации вычислительных мощностей, который кардинально меняет традиционные представления о построении ИТ-инфраструктуры. В отличие от классических дата-центров, требующих капитального строительства и длительных сроков ввода в эксплуатацию, контейнерные решения предлагают принципиально иной уровень гибкости и оперативности развертывания.

Основные преимущества контейнерных ЦОД:
  • Развёртывание за 4-12 недель против 6-24 месяцев у традиционных ЦОД
  • CAPEX ниже на 30-50% за счёт отсутствия строительных работ
  • PUE 1.1-1.3 благодаря оптимизированным системам охлаждения
  • Возможность транспортировки и работы в экстремальных условиях (-40°C до +50°C)
Что особенно удобно, контейнерные ЦОД можно как купить, так и арендовать.

Как появились КЦОД
Концепция контейнерных ЦОДов зародилась в середине 2000-х годов, когда крупные технологические компании столкнулись с необходимостью быстрого масштабирования своих вычислительных мощностей. Пионером в этой области стала Sun Microsystems, представившая в 2006 году проект Blackbox — первый коммерческий ЦОД в стандартном 20-футовом контейнере, способный разместить до 250 серверов. Этот подход сразу привлек внимание индустрии своей революционной простотой: вместо многомесячного строительства традиционного дата-центра компаниям предлагалось готовое решение, которое можно было заказать, доставить и ввести в эксплуатацию за считанные недели.

Google продолжил развитие этой концепции, создав собственные мобильные дата-центры, которые позволили компании быстро расширять инфраструктуру в разных регионах мира. Особенно показательным стал проект в Финляндии, где контейнерные ЦОДы, размещенные в бывшем целлюлозно-бумажном заводе, использовали морскую воду для охлаждения, демонстрируя гибкость подхода к размещению.

Microsoft сделал следующий шаг, запустив проект Natick по размещению контейнерных ЦОДов под водой. Этот эксперимент не только подтвердил надежность концепции в экстремальных условиях, но и открыл новые возможности использования естественного охлаждения. Cloud4Y доработал существующую концепцию контейнерного дата-центра, опираясь на свой опыт и потребности отечественных клиентов. В итоге получился более удобный и энергофэффективный контейнерный дата-центр.


Как устроен контейнерный дата-центр
Основу контейнерного ЦОД составляет стандартный ISO-контейнер морского типа, который подвергается серьезной модернизации для размещения внутри полноценного вычислительного комплекса. Типовые размеры таких модулей составляют 20 или 40 футов в длину, что соответствует международным стандартам транспортировки. Внутри этого пространства инженеры размещают не просто серверное оборудование, а полностью автономную инфраструктуру, готовую к немедленной эксплуатации после подключения к источникам электропитания и телекоммуникационным сетям.

Конструкция контейнерного ЦОД включает несколько ключевых систем, каждая из которых требует тщательного проектирования. Серверная часть обычно состоит из высокоплотных стоек, позволяющих размещать до 15 кВт оборудования на одну стойку. Для сравнения, в традиционных дата-центрах этот показатель редко превышает 6 кВт. Такая плотность размещения стала возможной благодаря инновационным решениям в области охлаждения, включая жидкостные системы и иммерсионное охлаждение, когда серверы полностью погружаются в специальную диэлектрическую жидкость.

Система электропитания в контейнерных решениях представляет собой комплексное решение, объединяющее источники бесперебойного питания, дизель-генераторы и современные аккумуляторные батареи. Особое внимание уделяется энергоэффективности — производители предлагают гибридные решения с возможностью интеграции возобновляемых источников энергии, таких как солнечные панели или ветрогенераторы.


Сетевая инфраструктура в контейнерных ЦОД строится на основе высокопроизводительного оборудования, способного обеспечить скоростные соединения до 400 Гбит/с. Это особенно важно для edge-решений, где контейнерные ЦОД часто выступают в качестве узловых точек распределенной сети. Системы мониторинга и управления включают сотни датчиков, отслеживающих температуру, влажность, вибрацию и другие критически важные параметры в режиме реального времени.

Герметичность конструкции и специальные защитные покрытия позволяют эксплуатировать такие модули в экстремальных условиях — от арктического холода до пустынной жары. Многие модели соответствуют стандарту защиты IP55, что гарантирует надежную работу при повышенной влажности или запыленности. Конструктивная прочность контейнеров обеспечивает защиту оборудования даже в сейсмически активных зонах.

Особенности контейнерного дата-центра
Срок службы контейнерного ЦОД сопоставим с жизненным циклом традиционных дата-центров. Однако ключевое отличие заключается в возможности многократного перемещения и модернизации оборудования без необходимости капитального ремонта здания. По истечении срока эксплуатации контейнер может быть полностью переоснащен новым оборудованием, что значительно продлевает срок полезного использования всей конструкции.

Экономические преимущества контейнерных решений становятся особенно очевидными при анализе совокупной стоимости владения. Отсутствие необходимости в капитальном строительстве сокращает первоначальные инвестиции на 30-50%, а высокая энергоэффективность позволяет существенно снизить операционные расходы. Модульный принцип построения дает возможность точно соответствовать текущим потребностям, избегая избыточных мощностей, характерных для традиционных ЦОД.

С точки зрения экологии контейнерные решения демонстрируют впечатляющие результаты. Показатель PUE (Power Usage Effectiveness) в современных модульных ЦОД достигает 1.1-1.3, тогда как для традиционных дата-центров типичны значения 1.5-2.0. Это стало возможным благодаря оптимизированной системе охлаждения и компактному размещению оборудования, минимизирующему потери энергии.


Технологические преимущества контейнерных ЦОД открывают новые возможности для различных отраслей. В телекоммуникационной сфере они позволяют быстро развертывать инфраструктуру в удаленных районах. Для промышленных предприятий такие решения предлагают возможность размещения вычислительных мощностей непосредственно на производственных площадках. Научные организации используют мобильные ЦОД для обработки данных в полевых условиях — от арктических станций до океанографических судов.

Особенности эксплуатации КЦОД
Перспективы развития контейнерных ЦОД связаны с дальнейшей миниатюризацией оборудования, повышением энергоэффективности и развитием систем автономного энергоснабжения. Уже сегодня ведутся работы по созданию полностью энергонезависимых модулей, способных годами работать в удаленных локациях без внешнего энергоснабжения. Другим направлением развития является создание специализированных контейнеров для задач искусственного интеллекта и машинного обучения, требующих особых условий охлаждения и энергопотребления.

Внедрение контейнерных решений требует тщательного планирования. Необходимо учитывать особенности местного климата, доступ к инженерным коммуникациям и требования к безопасности. Особое внимание следует уделять системе мониторинга, которая должна обеспечивать круглосуточный контроль за всеми критическими параметрами работы оборудования. Для долгосрочных проектов важно предусмотреть возможность масштабирования — добавления новых контейнеров по мере роста вычислительных потребностей.

Практические рекомендации по выбору контейнерного ЦОД
Выбор контейнерного ЦОД — ответственный процесс, требующий комплексного подхода. При принятии решения необходимо учитывать не только технические характеристики оборудования, но и репутацию поставщика, условия обслуживания и долгосрочные перспективы эксплуатации.

Критерии выбора поставщика
Опыт компании на рынке модульных ЦОДов играет ключевую роль. Предпочтение стоит отдавать поставщикам, имеющим подтверждённый опыт реализации проектов аналогичного масштаба и сложности. Важно проверить наличие сертификатов соответствия международным стандартам, таких как ISO/IEC 22237.


Географическая доступность сервисных центров поставщика — критически важный фактор. Компании, имеющие представительства в вашем регионе, смогут оперативно реагировать на возможные инциденты. Не менее значимым является уровень технической поддержки — круглосуточный мониторинг и гарантированное время реагирования должны быть прописаны в сервисном соглашении.

Финансовая устойчивость поставщика обеспечивает долгосрочные гарантии на оборудование. Рекомендуется запрашивать информацию о сроке существования компании на рынке, портфеле завершенных проектов и наличии собственных производственных мощностей.

На что обращать внимание при заказе
Техническое задание должно содержать четкие требования к параметрам оборудования, включая плотность размещения серверов, уровень резервирования систем питания и охлаждения, а также климатические условия эксплуатации. Особое внимание стоит уделить системе охлаждения — иммерсионные решения требуют особого подхода к обслуживанию, тогда как воздушное охлаждение может быть менее эффективным в жарком климате.

Договор должен детально регламентировать условия поставки, монтажа и ввода в эксплуатацию. Рекомендуется включать пункты о проведении приемочных испытаний с измерением всех ключевых параметров — от энергопотребления до уровня шума. Гарантийные обязательства должны покрывать не менее 5 лет эксплуатации, с четким описанием процедур замены неисправных компонентов.

Планирование логистики требует особого внимания — необходимо убедиться, что маршрут транспортировки позволяет доставить контейнер без разборки, а площадка для установки подготовлена в соответствии с требованиями производителя. Фундамент должен учитывать полную массу загруженного контейнера плюс запас по прочности.

Классические ошибки при внедрении
Одна из наиболее распространенных ошибок — недооценка требований к подготовке площадки. Отсутствие ровного фундамента с правильной ориентацией по сторонам света может привести к проблемам с охлаждением и вибрациями. Неучет снеговых и ветровых нагрузок в северных регионах способен сократить срок службы конструкции.

Экономия на системах мониторинга часто оборачивается незамеченными проблемами на ранних стадиях. Отсутствие датчиков протечек, контроля чистоты теплоносителя или мониторинга состояния аккумуляторов значительно увеличивает эксплуатационные риски.

Недостаточное внимание к вопросам масштабирования — еще одна частая проблема. Даже если текущие потребности скромны, следует заранее предусмотреть возможность добавления дополнительных контейнеров, включая резервирование площадки, электрических мощностей и сетевых подключений.

Пренебрежение обучением персонала может свести на нет все преимущества технологии. Персонал должен быть подготовлен к особенностям эксплуатации контейнерных решений, включая процедуры аварийного отключения, особенности обслуживания систем охлаждения и нюансы работы в ограниченном пространстве.

Игнорирование юридических аспектов иногда приводит к серьезным проблемам. Размещение контейнерных ЦОДов может требовать специальных разрешений, особенно в городской черте или природоохранных зонах.

Соблюдение этих рекомендаций позволит избежать наиболее распространенных проблем и максимально реализовать потенциал контейнерных ЦОДов. Важно помнить, что успешное внедрение зависит не только от качества оборудования, но и от тщательности подготовки и планирования каждого этапа проекта.

Заключение
Опыт ведущих технологических компаний показывает, что контейнерные ЦОД уже перешли из категории экспериментальных решений в разряд мейнстрим-технологий. Их доля на рынке инфраструктурных решений продолжает расти, а область применения расширяется на новые отрасли. По прогнозам аналитиков, к 2027 году каждый пятый новый ЦОД будет реализован в контейнерном исполнении, что свидетельствует о фундаментальном изменении подходов к построению вычислительной инфраструктуры.

www.cloud4y.ru/cloud-hosting/container-data-center-rental/

Cloud4Y строит дата-центр в Мытищах



В рамках развития IT-инфраструктуры мы строим центр обработки данных (ЦОД) в Мытищах. Это важный этап для нашей компании, как для члена Ассоциации участников отрасли ЦОД. Новый дата-центр в Мытищах рассчитан на 2000 стойко-мест (под размещение серверного оборудования). Общая мощность — 40 МВт. Далее раскроем подробности о новом ЦОД.

Электроснабжение дата-центра в Мытищах обеспечит питающий центр ТЭЦ-27 ПАО «Мосэнерго», расположенный на Волковском шоссе, 1. Также предусмотрен резервный вариант — за счёт источника бесперебойного питания (ИБП) и дизель-генераторов. Проект включает в себя топливохранилище.

Холодоснабжение обеспечат современные энергоэффективные технологии, что гарантирует высокий уровень безопасности. Меры противопожарной защиты также отвечают международным стандартам качества. Контроль и охрана круглосуточные и, что важно, многоуровневые — по периметру площадки. Есть антидроновая защита.

Проектирование и последующая эксплуатация ЦОД в Мытищах поручена команде профессионалов. Это специалисты с опытом в реализации подобных проектов (входят в топ-10 по стране); объект соответствует требованиям TIER IV. Служба эксплуатации круглосуточная. Новый дата-центр в Мытищах обеспечит высокую доступность и надёжность облачных сервисов Сloud4Y, что особенно важно для корпоративных клиентов, работающих с большими объёмами данных.



Мы вошли во вкус и купили в Мытищах участок под второй дата-центр на пару гектар. На первом объекте будем набивать шишки, а со вторым всё должно получиться попроще. Ну, мы на это рассчитываем.

Cloud4Y вступил в в Ассоциацию участников отрасли центров обработки данных

C гордостью сообщаем, что мы официально приняты в Ассоциацию участников отрасли центров обработки данных (ЦОД) — ключевое профессиональное объединение, определяющее будущее российского рынка дата-центров.



Ассоциация участников отрасли ЦОД — это независимое объединение 46 ведущих компаний (операторов ЦОД, инжиниринговых гигантов и системных интеграторов) и авторитетных экспертов, чьи знания и опыт формируют высокие стандарты отрасли. Ассоциация уже более 10 лет является площадкой для обмена передовыми практиками, генерации инновационных идей и реализации масштабных совместных проектов.

Идея создания Ассоциации появилась ещё в ноябре 2012 года во время Всероссийского форума операторов ЦОД, проходившего под Санкт-Петербургом. А уже в сентябре 2013 года была учреждена всероссийская некоммерческая организация — «Ассоциацию участников отрасли центров обработки данных».

Сегодня это единственная в России профессиональная организация, объединяющая ключевых игроков IT-рынка. Она даёт возможность участникам обмениваться мнениями и опытом, предоставлять друг другу доступ к информации и экспертизе, организовывать совместные проекты и влиять на рынок информационных услуг.

Напоминаем, что Cloud4Y строит два собственных дата-центра:
  • ЦОД в Марфино — уже начинаем принимать заказы на размещение
  • ЦОД в Мытищах — находится на стадии активного строительства, и в ближайшем будущем сможет предложить рынку новые мощности и инновационные решения.

Вступление в Ассоциацию ЦОД — это не только показатель нашей экспертизы, но и новый этап в развитии Cloud4Y как одного из лидеров облачных технологий и инфраструктурных решений.

Cloud4Y расширяет инфраструктуру: +4500 IP-адресов для клиентов

Российский провайдер облачных решений Cloud4Y объявляет о значительном расширении своей сетевой инфраструктуры. В условиях дефицита IPv4-адресов компания успешно приобрела новый пул из 4500 IP, что усиливает возможности клиентов в развёртывании инфраструктуры.

Это позволило Cloud4Y оперативно отреагировать на растущие потребности клиентов и увеличить гибкость предоставляемых услуг. Теперь как существующие, так и новые клиенты могут получить выделенные IP-адреса для решения широкого круга задач: от размещения серверов до реализации сложных интеграционных проектов.

Новые адреса уже добавлены в сеть Cloud4Y и доступны для заказа.
www.cloud4y.ru

Cloud4Y развернул облачную платформу в Сибири


Бизнесу в Новосибирске и других городах за Уралом трудно получить тот же уровень услуг от федеральных провайдеров, что и компаниям в Москве. Это обусловлено качеством каналов связи и стоимостью трафика, а также другим причинами, включая географические.
При этом Сибирский федеральный округ наряду с Центральным и Северо-западным входит в тройку лидеров по объёмам потребляемых облачных услуг. Региональные компании активно стимулируют развитие ИТ-отрасли, поддерживают цифровую трансформацию бизнеса.

Локализация виртуальной инфраструктуры провайдера в Новосибирске позволит компаниям, находящимся за Уралом, получить доступ к высококачественным услугам хостинга и облачным решениям наравне с клиентами из других регионов России.
Благодаря запуску точки присутствия в регионе местные компании смогут пользоваться услугами Cloud4Y без задержек и потерь в канале связи, что повысит эффективность их бизнеса.
Кроме того, открытие данной площадки может заинтересовать компании, которые планируют разместиться за Уралом для снижения рисков от атак дронов, участившихся в центральной части России. Здесь можно разместить как всю инфраструктуру компании, так и некоторые критичные сервисы или резервные копии.

В Новосибирском ЦОД доступны все те же услуги и сервисы, которые мы предлагаем в центральном регионе. В том числе, полную техническую поддержку внутренних сервисов. Исходя из своих задач, вы можете выбрать необходимое число ядер, объём памяти, размер и количество дисков, операционную систему.

Для вас доступны:
  • Процессоры CPU V4 (2.2GHz+), G2 (2.1GHz+), V4 HIGH (3GHz+), G2 HIGH (3GHz+)
  • Сервера с GPU NVIDIA Tesla V100, P100, M60, RTX 3070-3090 и RTX 4070-4090.
  • В качестве хранилища в новом ЦОД используется полностью ALL Flash система и большое количество вычислительных нод.
  • Дополнительным преимуществом для клиентов станет партнёрский статус Cloud4Y с сетью ЦОД ГК Key Point. Он позволяет облачному провайдеру предоставлять не только облачные сервисы, но и строить гибридные системы, размещая и оборудование клиентов.
Возможности:
  • Облачный сервер любой выбранной вами конфигурации (базовый SLA 99.982%)
  • Хранение и защита персональных данных и ГИС, аудит системы
  • Широкий выбор облачных сервисов и продуктов
  • Быстрое масштабирование ресурсов по запросу
  • Оплата только за фактически потребляемые ресурсы
  • Техническая поддержка 24/7
Открытие регионального узла в Новосибирске — это важный шаг для нашей компании в развитии регионального бизнеса. Мы стремимся предоставить клиентам надёжные и качественные услуги, независимо от их местоположения.

Cloud4Y переходит на почасовую тарификацию облачных GPU-серверов
Клиентам Cloud4Y будет проще рассчитывать стоимость облачных услуг и не придётся переплачивать за аренду оборудования, которое уже выполнило свою задачу. Облачный провайдер изменил подход к тарификации таких услуг, предоставив компаниям возможность почасовой оплаты серверов с графическими картами — GPU.

Cloud4Y строит свои ЦОД в Марфино

Рост любой компании сопровождается ростом ИТ-инфраструктуры. А если ты — облачный провайдер, то инфраструктуры очень много. И нагрузка на неё тоже высокая. Когда нам стало тесно в границах используемых ЦОД, мы решили построить собственный — под рабочим названием DC4Y.1-Марфино. Сегодня расскажем о том, как началось строительство собственного дата-центра Cloud4Y и каким он должен стать.

Зачем провайдеру собственный дата-центр и чем это грозит
Собственный дата-центр даёт облачному провайдеру полный контроль над всей инфраструктурой, включая питание, охлаждение, климатические системы, резервирование и физическую безопасность. Это позволяет минимизировать риски, связанные с зависимостью от внешних подрядчиков, и обеспечить максимальную отказоустойчивость на всех уровнях: от аппаратных решений до инфраструктуры электроснабжения. Провайдер получает возможность разрабатывать собственные стандарты безопасности, контроля и оперативности обслуживания, адаптированные к специфическим потребностям клиентов.

Такой подход делает провайдера единственным ответственным за качество услуг, что повышает доверие клиентов. Более того, собственный ЦОД открывает дополнительные бизнес-возможности: сдача в аренду серверных стоек, предоставление места для размещения оборудования заказчиков и возможность предлагать гибридные решения, сочетающие облачные сервисы и физическую инфраструктуру.

Важное преимущество заключается и в снижении зависимости от других провайдеров ЦОД, что уменьшает риски простоев и повышает отказоустойчивость. Кроме того, обладающий собственным дата‑центром облачный провайдер может улучшить клиентский сервис, предлагая индивидуальные решения и снижая время отклика на запросы.

Казалось бы, одни плюсы. Так почему для облачных провайдеров обычное дело сотрудничать с ДЦ, арендовать стойки и ставить там своё оборудование? Всё дело в специализации.

Для облачного провайдера управление ЦОДом — это отдельное направление бизнеса, требующее квалифицированных специалистов и специфических знаний. Часто провайдеры сталкиваются с нехваткой опыта и кадров, что приводит к распылению собственных ресурсов. Вместо фокусировки на развитии облачных услуг, компания вынуждена обучать сотрудников работе с инфраструктурой и инженерными системами, что повышает риск разного рода инцидентов из-за человеческого фактора. Это может негативно сказаться как на работе самого ЦОДа, так и на качестве облачных сервисов.

Кроме того, постройка и содержание собственного ЦОДа сопряжены с большими тратами. Требуется не только возведение здания, но и внедрение сложных инженерных систем: бесперебойного электропитания, промышленных систем охлаждения, пожаротушения, мониторинга, контроля доступа и т. д. Кроме того, необходима сертификация всех процессов, что требует согласования с регуляторами.

Даже после ввода в эксплуатацию ЦОД требует постоянных инвестиций в модернизацию оборудования, регламентные работы и мониторинг, чтобы поддерживать уровень отказоустойчивости и соответствие современным требованиям.

По этой причине многие провайдеры предпочитают аренду ЦОД, а не строительство своего. Это позволяет снизить капитальные затраты, избежать рисков, связанных с управлением инженерной инфраструктурой, и сосредоточиться на главной задаче — развитии и предоставлении облачных услуг. До собственного дата‑центра нужно «дозреть». Cloud4Y — уже 15 лет предлагает облачные сервисы, поэтому вопрос строительства собственного ЦОД назревал. И вот — свершилось.

Местоположение
DC4Y.1-Марфино — современный технологический объект, расположенный в Московской области, село Марфино. После строительства ему присвоят официальное название — TerraBit

ЦОД располагается на участке площадью более 8,2 га в 22 км от МКАД, в непосредственной близости от транспортных узлов. Этот участок долгое время эксплуатировался, но уже несколько десятков лет как заброшен.




Поэтому место тихое и красивое, но здесь хватает старого хлама, который нужно выкапывать, выкорчёвывать и вывозить. Хорошо, что объект обеспечен удобными подъездными путями. А ещё предусмотрено место для складских зон для временного хранения оборудования клиентов, которые будут размещаться здесь в будущем.

Кстати, во время расчистки территории мы начали облагораживать маленький естественный прудик, который был на территории и который решили оставить. Он в ужасном состоянии, но благодаря источнику, бьющему из-под земли, сумел дожить до наших ней. Да, из-за пруда мы немного перекроим проект (сейчас как раз ведутся проектировочные работы), зато он будет ещё более красивым. В пруд ещё рыбу запустим, и совсем хорошо станет.




Новый дата-центр Cloud4Y в Подмосковье должен стать важным элементом региональной ИТ-инфраструктуры, способствуя развитию цифровой экономики региона. Близость к Москве и хорошая транспортная доступность обеспечат поддержку местных предприятий, малого и среднего бизнеса, а также госучреждений, которым необходимы производительные ресурсы для обработки данных. Создание ЦОД в Марфино также открывает новые рабочие места для технических специалистов, что способствует экономическому развитию региона.

Структура и мощности дата-центра
Проект реализуется и будет вводиться в эксплуатацию поэтапно
  • Этап 1: 1200 стойкомест, до 10 МВт мощностей на площади 5,5 тыс. кв. м.
  • Этап 2: 2400 стойкомест, до 20 МВт мощностей, 11 тыс. кв. м.
  • Этап 3: 3600 стойкомест, до 30 МВт, 16,5 тыс. кв. м.
  • Этап 4: 4800 стойкомест, до 40 МВт на 22 тыс. кв. м.

Все системы объекта имеют резервирование от уровня N+1 до 2N, что обеспечивает надёжность и отказоустойчивость. Дата-центр разработан с учётом международных требований и нацелен на сертификацию уровня TIER III и TIER IV от Uptime Institute.

Энергоснабжение и системы охлаждения
Объект запитывается от городских электросетей, а также имеет резервные ИБП и дизель-генераторы, что позволяет работать автономно. Топливохранилище на территории обеспечит длительную бесперебойную работу при необходимости. Системы холодоснабжения разработаны с использованием «зелёных» технологий, что позволяет минимизировать воздействие на окружающую среду и повысить энергоэффективность.

Противопожарные и охранные системы
ЦОД оборудован современными системами противопожарной защиты:
  • Использование негорючих материалов и изоляция пожароопасных зон.
  • Системы раннего оповещения и пожарной сигнализации.
  • Газовое пожаротушение, обеспечивающее надёжную защиту оборудования.
Предусмотрена круглосуточная служба безопасности территории и объекта с несколькими периметрами контроля и охраны. Также у нас в проекте заложено создание антидроновой защиты (в частности, укреплённые стены и противодроновые сетки) систем ЦОД. Важный пункт, особенно в наше неспокойное время.

Услуги и возможности для клиентов
Основные услуги, которые будут реализованы на базе ЦОД:
  • Традиционные облачные ИТ-услуги (облачные серверы и сервисы)
  • Размещение ИТ-оборудования клиента в надёжной инженерной инфраструктуре.
  • Услуги связи.
  • Предоставление ИТ-оборудования в аренду.
  • Услуги по сопровождению ИТ-инфраструктуры заказчика.

50+ IaaS & SaaS решений, среди которых:
  • Облачные сервера в отказоустойчивом исполнении с работой в нескольких ЦОД
  • Решение «Облако ФЗ-152», аттестованное по 17 и 21 приказам ФСТЭК по классам УЗ-1, К-1
  • Решения аварийного восстановления, резервного копирования
  • Решения облачного хранения (Объектное хранилище S3, файлообменник NextCloud)
  • Решения SaaS (удалённые рабочие столы, корпоративная почта в облаке, 1С в облаке, решения облачного видеонаблюдения и др.)
  • Решения безопасности (VPN, WAF, NGFW, защита от DDoS, DLP – решение, AntiSpam, AntiVirus и др.)

Сервисы предоставляются по модели подписки с оплатой по факту потребления (pay-as-you-go).

Ещё одно направление — это размещение ИТ-оборудования на стандартных стойкоместах в машзалах ЦОД. Условия:
  • Место для установки серверной стойки 19”, высота 48 юнитов, габариты 600х1070
  • Гарантированная электрическая мощность от 5 до 20кВт
  • Два независимых электрических ввода (линии к стойке, внутризальные шкафы, ИБП, ДГУ, ТП).
  • Бесперебойное электроснабжение в машзале, поддержание климата с температурой 18-27град, влажностью 30-60%.
  • Ограничение несанкционированного доступа и физическая безопасность.
  • Возможность установки 2/4 блоков распределителя питания PDU.
  • Возможность установки АВР.
  • Выделенный сервис-менеджер.
  • Базовый уровень технической поддержки 24/7.
  • Доступ 24/7 и неограниченное количество посещений.
  • Временное рабочее место для подготовки к установке и настройке ИТ-оборудования.
  • Временное предоставление консольного оборудования.
  • Круглосуточный ввоз-вывоз оборудования.

Дополнительные услуги:
  • Аренда стойки (в том числе с нестандартными габаритами), установка системы управления доступом (СКУД) и видеонаблюдения (ОВН).
  • Услуги удалённого мониторинга и управления.
  • Аренда и монтаж ИТ-оборудования, замена замков под индивидуальные ключи, а также установка системы холодного коридора.
  • Установка защитного ограждения вокруг стоек клиента.
  • Аренда ДатаРум или места хранения оборудования и ЗИП.

Сервисные услуги:
  • Поддержка клиентов в режиме 24/7.
  • Услуги SmartHands для помощи в базовых операциях.
  • Монтаж оборудования клиента в стойку.
  • Сборка и тестирование серверного оборудования.
  • Мониторинг, резервное копирование, инвентаризация и техническое обслуживание оборудования.

Сетевая связность и телекоммуникации
Для обеспечения высокой пропускной способности DC4Y.1-Марфино проектирует независимые волоконно-оптические линии (ВОЛС) до МКАД. Синхронизация с планами региональных и федеральных операторов связи позволит дата-центру поддерживать стабильные и высокоскоростные соединения в северном направлении Московской области.

Что сейчас уже сделано
Прямо сейчас, как мы уже сказали, идёт расчистка территории и демонтаж старых построек. Поэтому выглядит всё несколько грязновато:



Проект находится на начальном этапе. Мы уже успели поставить забор, аккуратный КПП с переговорками, а также пробили несколько скважин глубиной 125 м для будущего водоснабжения дата-центра.



Когда закончим с расчисткой, начнём заниматься коммуникациями, фундаментом и другими задачами.

На данный момент на участке почти завершены работы по сносу старых построек и выравниванию земли. Это важный шаг, который определит успех всего проекта, ведь именно от качества подготовки территории зависит долговечность и надёжность будущего сооружения.

Но снос — это не просто разрушение. Многие кажущиеся небольшими постройки оказались буквально «зарыты в землю»: у них были большие подвалы и сложные фундаменты. Вот как это выглядит:


Ломать, крушить и рвать на части
Это не строчка из песни, а краткое описание того, что происходит на нашей стройплощадке. После экспертизы и многочисленных обсуждений внутри Cloud4Y и с экспертами решили, что снесём почти все здания, которые есть на участке.

На это есть две главные причины.

Первая причина: здания, которые мы решили сносить, находились в разном техническом состоянии. Некоторые выглядели так:

А другие — так:


Вторая причина: невозможность как‑либо приспособить их под наши нужды. Старые постройки не соответствовали никаким нормам, предъявляемым к современным дата‑центрам.

Одновременно со сносом организована переработка строительного мусора. После сноса здания образовавшиеся материалы (бетон, кирпич, крупные булыжники) перемалываются в камнедробилке, образуя курганы мелкой щебёнки.


Зачем это делать вообще?
Тут несколько причин.
  • Экономия ресурсов. Переработка строительных отходов позволяет повторно использовать материалы, что снижает затраты на их утилизацию и покупку новых.
  • Создание устойчивого основания. Перемолотые в крошево здания используются для отсыпки территории. Они уплотняют грунт, улучшают дренаж и создают прочное основание для будущих построек.
  • Экологическая польза. Такая переработка сокращает количество отходов, которые попадают на свалки, и уменьшает нагрузку на окружающую среду.
  • Снижение затрат на логистику. Переработка и переиспользование материалов на месте строительства уменьшает необходимость в транспортировке новых материалов, что выгодно в плане бюджета и позволяет уменьшить сроки строительства.

Отсыпка дроблёным материалом помогает создать пористую структуру, способствующую хорошему дренажу, предотвращает возможные проблемы с усадкой грунта. Повышается устойчивость, обеспечивается равномерное распределение нагрузки на грунт, соблюдаются другие требования, предъявляемые к такого рода сооружениям.



Подготовка территории включает не только расчистку участка от растительности и мусора с последующим уплотнением грунта для повышения его несущей способности, но и прокладку дренажной системы, чтобы избежать затопления во время дождей или паводков. А ещё подведение инженерных коммуникаций, включая электричество, водоснабжение и интернет.

С дренажом и коммуникациями работа ещё только начинается, поэтому сейчас показывать фактически нечего. Вот ещё пара кадров с места событий:



Помимо строительных работ, мы продолжаем заниматься покупкой начального комплекта оборудования, чтобы уже в этом году запустить первые стойки с серверами. Они будут размещены к модульных контейнерах вроде такого:


Позднее, когда закончим постройку зданий и укомплектуем его, основная часть оборудования будет расположена именно в защищённом здании. Хотя контейнеры на 10 стойкомест, скорее всего, останутся. Впрочем, подробнее о контейнерах мы расскажем в следующий раз.

Также уже сейчас мы настраиваем системы видеонаблюдения, которые будут обеспечивать контроль территории.

Строительство ведётся в соответствии с графиком, и уже в ближайшие месяцы начнётся монтаж ключевых систем. Открытие объекта планируется в следующем году. Вот только знаете, что? Мы вошли во вкус и купили в Мытищах участок под второй дата-центр на пару гектар. На первом объекте будем набивать шишки, а со вторым всё должно получиться попроще. Ну, мы на это рассчитываем.

Ранее мы подняли тему КЦОД — контейнерных дата-центров, которые первыми у нас примут рабочую нагрузку. У вас возникли вопросы, поэтому сегодня расскажем, что это такое, как выглядит и почему мы используем КЦОД вместе с традиционным зданием дата-центра.



Что такое контейнерный дата-центр?
Контейнерный дата-центр — это автономный модуль, размещённый в специализированном металлическом контейнере, подготовленном к эксплуатации оборудования в конкретных климатических условиях и оснащённом всем необходимым оборудованием для хранения, обработки и передачи данных. В контейнерном дата-центре размещаются стойки с ИТ-оборудованием, системы охлаждения, источники бесперебойного питания (ИБП), системы безопасности и мониторинга. КЦОД можно легко перевозить по обычным дорогам и можно поставить практически в любом месте. Там, где есть источник электроснабжения и связь. Поэтому контейнерные дата-центры считаются хорошей альтернативой традиционным ЦОД.

Контейнерные ЦОДы используются в разных ситуациях. Чаще всего это:
  • Удалённые регионы. Внедрение вычислительных мощностей на объектах, где капитальное строительство невозможно или невыгодно.
  • Временные проекты. Использование на крупных мероприятиях (выставки, спортивные события).
  • Резервные мощности. Обеспечение бесперебойной работы при пиковых нагрузках.
  • Экстремальные условия. Поддержка критически важной инфраструктуры в суровых климатических зонах.
  • Промышленные предприятия. Развёртывание вычислительных мощностей на удалённых производственных площадках.
  • Размещение ИТ-инфраструктуры незначительного масштаба и отсутствие потребностей в дальнейшем росте.
  • Оперативная реализация проекта при отсутствии времени на проведение работ по проектированию, согласованию, строительству/реконструкции и вводу в эксплуатацию объекта капитального строительства.

В России контейнерные дата‑центры набирают популярность благодаря своей универсальности и возможности использования в сложных климатических условиях. Например, они активно используются в нефтегазовой отрасли, например, на месторождениях в Сибири и на Крайнем Севере, где традиционные ЦОД построить сложно и дорого. Также такие решения востребованы в телекоммуникационной отрасли, особенно в регионах с низкой плотностью населения, где порой бывает очень нужно быстро развернуть инфраструктуру с хорошей производительностью.

Ставить контейнерные дата-центры можно на любой фундамент – сваи, плита или лента. Если ваш бизнес зависит от IT, но строить огромный ЦОД нет времени или бюджета – контейнерные дата-центры Cloud4Y решат проблему без лишних нервов.

Особенности контейнерных дата-центров Cloud4Y
Когда мы впервые задумались над КЦОД, то сначала посмотрели, что есть на рынке. Оказалось, что поставщиков совсем немного. А компаний, которые готовы серьёзно дорабатывать готовые модели под требования заказчика — и того меньше.

Так возникла новая задача: найти производителя, который обладает необходимым опытом, может изготовить контейнер с учётом наших запросов, а также готов будет вносить изменения в конструкцию в будущем. И это не просто добавление утеплителя, например. А перестройка внутреннего пространства для большей автономности или изменение расположения оборудования в контейнере.

Поиски были долгими, но мы справились. И заказали первые контейнеры для установки на территории наших строящихся дата-центров. Немного — чтобы обкатать их, а потом, если потребуется, доработать. Вот схема такого контейнера.


Решение предусматривает использование закрытых горячих и холодных коридоров. 10 серверных стоек, 12 кВт/стойка, 1 управляющий шкаф, ИБП для серверных стоек и для систем охлаждения, эффективное охлаждение в конфигурации N+1, переход на резервное электроснабжение от ДГУ (дизель‑генераторной установки), системы контроля климатических параметров, безопасности и пожаротушения.

Чему мы уделили особое внимание?
  • Эффективное и надёжное охлаждение. Используются установки косвенного фрикулинга с дополнительным фреоновым контуром доохлаждения. 4 системы охлаждения с резервированием N+1 (расположены по торцам контейнера). При умеренной температуре воздух в замкнутом контуре (без забора воздуха с улицы) охлаждается через теплообменник, что существенно экономичнее традиционных методов охлаждения. Внутри контейнера спереди и сзади от стоек организованы горячий и холодный коридоры. Холодный воздух забирается IT‑оборудованием, горячий выводится в систему охлаждения.
  • Утепление. Мы спроектировали контейнеры, способные работать при низких температурах нашего региона.
  • Удобство, вместительность и энергоэффективность. В контейнере размещены 10 IT‑стоек высотой 47U и 4 служебные (расположены по краям). Заводская установка и подключение зарезервированных модулей распределения питания стоек (PDU). Готовые трассы лотков для укладке кабелей связи. Ко всему оборудованию есть удобный доступ.
  • Безопасность. В служебных стойках размещены системы мониторинга (температура, влажность, задымление, доступ). Есть СКУД.

Преимущества контейнерных дата-центров
Как показывает практика, КЦОД популярны по той причине, что они компакты, быстро вводятся в эксплуатацию и могут быть доработаны под нужды компании. Это надёжное практичное решение даже для крупных провайдеров.
Попробуем объяснить, что делает контейнерные дата-центры такими востребованными в России.
  • Быстрота внедрения. Полная заводская готовность позволяет быстро запустить систему в эксплуатацию при наличии внешних источников питания и связи.
  • Мобильность. Простая транспортировка и установка на объектах без сложных подготовительных работ.
  • Экономичность. Снижение затрат за счёт использования стандартных контейнеров — не нужно ничего изобретать и строить с нуля.
  • Энергоэффективность. Прецизионные системы охлаждения уменьшают энергопотребление, что снижает эксплуатационные расходы. Косвенный фрикулинг обеспечивает нужный уровень охлаждения при меньших затратах.
  • Гибкость применения. Адаптация к экстремальным температурам от –35 °C до +45 °C.
  • Автономность. Полное резервирование инженерных систем обеспечивает работу без привязки к внешним источникам.

Характеристики контейнерных ЦОД Cloud4Y

  • Соответствие требованиям TIER III.
  • Всепогодный утеплённый контейнер, антистатический пол, заземление.
  • Резерв электроснабжения от ДГУ.
  • Зарезервированные линии связи.
  • Круглосуточный доступ. Служба охраны.
  • Размещение оборудование в 10 стойках 47U каждая до 12кВт.
  • Бесперебойное электроснабжение оборудования в ИТ‑стойках (модульный ИБП в конфигурации N+1).
  • Выделенный ИБП для механической нагрузки в конфигурации N+1.
  • Герметичные холодный и горячие коридоры.
  • Системы контроля и безопасности (СКУД, видеонаблюдение, датчики температуры, влажности, задымления, газового пожаротушения и др.).

Каждая IT‑стойка и кондиционер имеют дублированные линии бесперебойного электроснабжения о ИБП с внешним подключением как от внешней электросети, так и от ДГУ.

Система охлаждения:
  • Установлены четыре интегрированных кондиционера свободного охлаждения общей мощностью 200 кВт, оснащённых насосами для хладагента.
  • Косвенный фрикулинг.
  • Система резервирования: 3+1 (три рабочих и один резервный)

Возможность масштабирования. Масштабируемся в рамках стоек существующего контейнера или путём разнесения ИТ-оборудования по нескольким отдельно стоящим контейнерам, что увеличивает отказоустойчивость работы информационных систем.

Вот ещё немного иллюстраций, как будут выглядеть контейнерные дата-центры Cloud4Y.



Первые контейнеры появятся на нашей площадке в Марфино уже летом 2025. Они будут укомплектованы и готовы к эксплуатации. Таким образом, мы запустим наш собственный дата‑центр ещё до того, как достроим капитальное здание. Предполагаем, что на этой площадке клиентам будет предоставляться инфраструктура в двух вариантах: основном здании или контейнерах. Также можно будет комбинировать эти две возможности.

Сейчас мы работаем сразу в двух направлениях
  • Первое — это предоставление в аренду мощностей, размещённых в наших КЦОД. Ну, или аренда контейнеров целиком.
  • Второе — поставка подготовленных под заказчика контейнеров.

Мытищи: подготовка к масштабному запуску
На площадке в Мытищах запланировано подключение 40 МВт электроэнергии, и процесс энергоподключения уже запущен. Эксперты провели обследование существующих построек: административное здание находится в хорошем состоянии, а вот сооружение, предназначенное под дата‑центр, требует капитального ремонта. Будем заниматься проектированием и решать, как лучше поступить — снести частично/полностью, или реконструировать.

Параллельно завершены работы по расчистке территории — строительный мусор убран, площадка выровнена. Процесс небыстрый из‑за большой запущенности территории.

Марфино: юридические и технические работы в активной фазе
В Марфино Cloud4Y решает юридические вопросы, связанные с организацией контрольно‑пропускного пункта (КПП). Одновременно с этим:
  • Заложен фундамент под контейнерный ЦОД, который ожидается на площадке до конца июня.
  • Идёт процесс подключения электроснабжения мощностью 150 кВт.
  • Заключён договор на оптоволоконное подключение — готовность ожидается в июле.
  • Для обеспечения бесперебойного энергоснабжения установлен временный ангар под газовый генератор, который будет обслуживать первый КЦОД.


Привезли первый контейнерный ЦОД в Марфино
Первый контейнерный дата-центр в Марфино уже доставлен на площадку. Транспортировка была непростой: часть пути контейнер преодолел по воде — сначала его везли морем до Риги, а затем перегрузили на автомобильный транспорт. Подрядчик, имеющий опыт таких перевозок, организовал всю логистику, включая доставку прямо на участок с помощью крана.


Площадка под размещение была подготовлена заранее: залит фундамент, расширена зона для маневров спецтехники. Хотя территория пока не заасфальтирована, тяжёлая техника смогла заехать без проблем.

Ещё мы привезли газопоршневую станцию. Сделали под неё фундамент, установили. Фундамент тут — обязательное требование поставщика. У них есть свои нормы, чтобы контейнер стоял на ровной горизонтальной поверхности, на твёрдом основании. Чтобы под станцией ничего не расплывалось, не уходило в сторону. Например, во время слива конденсата или других стоков, чтобы они, размягчая грунт, не увели нашу станцию в сторону куда-нибудь.

Подключение электричества и инфраструктура
Сейчас ключевая задача — подключение 150 кВт мощности, необходимой для запуска первого контейнерного дата-центра Cloud4Y. Договор с энергетиками уже подписан, идут работы по замене трансформатора и согласованию подвода кабеля. Параллельно решаются вопросы с парковкой для спецтехники и подземными коммуникациями.

Мощность в 150 кВт выбрана не случайно: это оптимальный вариант для текущей конфигурации контейнера с учётом пиковых нагрузок и дополнительного оборудования (охлаждения, сигнализации, освещения). Сейчас всё заводится с расчётом на первый контейнер. В будущем для второго и следующих контейнеров потребуется ещё столько же. Так что согласования по энергоснабжению отнюдь не закончены.

Резервное питание и коммуникации
Чтобы обеспечить бесперебойную работу, предусмотрены резервные источники питания: ИБП (на 10–30 минут автономной работы) и дизельные генераторы, которые включатся в случае длительного отключения электричества.

Также ведётся строительство напорной канализации — из-за протяжённости трассы стоки будут откачиваться насосами. Канализация будет собирать со всех наших, скажем так, ангаров ЦОД, которые будут расположены на территории в Марфино. Параллельно завершается монтаж металлоконструкций навеса над КПП, благоустраивается территория и прорабатывается проект водоснабжения.

Облагораживаем Мытищи
В Мытищах работы пока на стартовой стадии: оформлена аренда земли, проведена экспертиза здания, где разместится ЦОД. Сейчас проектировщики изучают существующие коммуникации и разрабатывают схему въезда на участок.

Главная задача — обеспечить мощное энергоснабжение: ведутся переговоры о подключении 40 МВт и правильной логистике. Это долгий процесс, но подходить к нему нужно комплексно, сразу закладывая инфраструктуру под будущее расширение.

Цель — надёжность и доверие клиентов
Мы стремимся к тому, чтобы клиенты получали стабильный доступ к облачным сервисам без перебоев. Успешный запуск первых собственных дата-центров укрепит наши позиции на рынке, привлечёт новых заказчиков. А мы сможем предлагать больше услуг по более доступным ценам.

Поэтому Cloud4Y расширяет и сетевую инфраструктуру. В условиях дефицита IPv4-адресов мы успешно приобрели новый пул из 4500 IP. Покупка позволяет нам отреагировать на растущие потребности клиентов и увеличить гибкость предоставляемых услуг. Теперь существующие и новые клиенты могут получить выделенные IP-адреса для решения широкого круга задач: от размещения серверов до реализации сложных интеграционных проектов. Новые адреса уже добавлены в сеть провайдера и доступны для заказа.



Марфино: электричество — дело тонкое (и мощное!)
Главное в Марфино за июль — электричество, ведь без него не раскрыть потенциал нашего первого контейнерного ЦОДа. И тут мы здорово продвинулись.

Энергетики взялись за прокладку кабельной линии (КЛ-0,4кВ) от трансформаторной подстанции. Это та самая 150 кВт — оптимальный выбор для запуска первого контейнера. Параллельно занимаемся дополнительными подключениями.

Почему 150 кВт — это правильное решение? Всё просто: мы закладываем мощность с запасом и под высокие нагрузки. Наш контейнерный ЦОД спроектирован так, что одна стойка может «съедать» до 15 кВт. Это в 2-3 раза выше, чем в обычных дата-центрах (где держатся в рамках 5-6 кВт). Зачем? Чтобы вы могли ставить самое мощное «железо» для AI, расчётов или анализа огромных данных — без оглядки на лимиты. Эти честные 150 кВт — не просто цифра, это гарантия, что внутри контейнера будет работать всё: и серверы на полную, и системы охлаждения, и безопасность. И это только на первый контейнер — для следующих будем тянуть ещё.

И другая важная новость: согласовали подключение по оптическому волокну для системы видеонаблюдения территории. Скорость в 1 Гбит/с позволит без задержек получать изображение максимального качества.



КПП: почему он важен
Параллельно с электрикой активно строим контрольно-пропускной пункт (КПП). Это не просто формальность — в мире дата-центров КПП создаёт первый рубеж защиты. Его роль — предотвращать несанкционированное проникновение на территорию и строго соблюдать регламент доступа (проверка пропусков, досмотр). КПП будет оснащён навесом — для защиты персонала и критически важного оборудования поста (камеры, системы контроля и т. д.) от непогоды.

Что сделано: на площадку привезли и разгрузили изготовленные металлоконструкции (мы за всем процессом следили). Нашли надёжного подрядчика, оформили договор. Установили 4 мощные колонны-опоры. На них будем монтировать конструкции навеса, которые уже начали собирать.



Мытищи: готовим платформу для гиганта
В Мытищах пока тише, но не менее важно. Продолжаем кропотливую подготовку. Активно прорабатываем вопрос удобного съезда на наш земельный участок.

В энергетике тоже есть прогресс: занимаемся расключением вводного щита 0,4 кВ (15 кВт) — скоро подача тестового напряжения. Это важный шаг к большим мощностям для нашего контейнерного дата-центра.

И, конечно, не забываем про инфраструктуру: собрали пакет документов и запросили технические условия на всё необходимое — пожарное водоснабжение, холодное и горячее водоснабжение, канализация и теплоснабжение. Без этого — никуда.

В фокусе — ваше спокойствие
Каждый элемент и каждое действие на стройплощадке — это шаг к нашей главной цели: дать вам максимально надёжный и безопасный доступ к облачным сервисам. Собственные дата-центры — это фундамент для стабильности, роста и новых возможностей по отличным ценам.

www.cloud4y.ru/cloud-hosting/container-data-center-rental/

Cloud4Y развернул облачную платформу в Сибири



Корпоративный облачный провайдер Cloud4Y в IV квартале 2024 года запускает в Новосибирске региональный узел своей облачной платформы. В новой точке присутствия будут доступны все функции и технологии облачной платформы Cloud4Y. Дополнительным преимуществом для клиентов станет партнерский статус Cloud4Y с сетью ЦОДов ГК Key Point. Он позволяет облачному провайдеру предоставлять не только облачные сервисы, но и строить гибридные системы, размещая и оборудование клиентов.

Бизнесу в Новосибирске и других городах за Уралом трудно получить тот же уровень услуг от федеральных провайдеров, что и компаниям в Москве. Это обусловлено качеством каналов связи и стоимостью трафика, а также другим причинами, включая географические. При этом Сибирский федеральный округ наряду с Центральным и Северо-западным входит в тройку лидеров по объёмам потребляемых облачных услуг.

Локализация виртуальной инфраструктуры провайдера в Новосибирске позволит компаниям, находящимся за Уралом, получить доступ к услугам хостинга и облачным решениям наравне с клиентами из других регионов России.

Благодаря запуску точки присутствия в регионе местные компании смогут пользоваться с услугами Cloud4Y без задержек и потерь в канале связи, что повысит эффективность их бизнеса. В качестве хранилища в новом ЦОДе используется All Flash система и большое количество вычислительных нод.

Дополнительным преимуществом для клиентов станет партнерский статус Cloud4Y с сетью ЦОДов ГК Key Point. Он позволяет облачному провайдеру предоставлять не только облачные сервисы, но и строить гибридные системы, размещая и оборудование клиентов.

Открытие данной площадки может заинтересовать компании, которые планируют разместиться за Уралом для снижения рисков от атак дронов, участившихся в центральной части России. Здесь можно разместить как всю инфраструктуру компании, так и некоторые критичные сервисы или резервные копии. Компании также получают возможность пользоваться облачными сервисами с высокой скоростью передачи данных в Центральном и Сибирском регионах, разместив свою инфраструктуру у одного оператора облачных услуг.

Cloud4Y получил сертификат соответствия требованиям стандарта PCI DSS 4.0



Корпоративный облачный провайдер Cloud4Y успешно прошёл аудит и получил сертификат соответствия последней версии стандарта PCI DSS 4.0. Эта версия станет обязательной для всех участников платёжных систем с 2025 года, заменив действующий стандарт PCI DSS 3.2.1, который использовался с 2018 года. Обновлённый стандарт усиливает требования к безопасности платёжных данных, предлагая инновационные методы защиты и акцентируя внимание на борьбе с новыми угрозами.

В версии PCI DSS 4.0 предполагается более глубокий анализ угроз и индивидуальный подход к обеспечению безопасности. Также расширен базовый уровень операционных и технических требований для повышения безопасности платежей, прописаны актуальные методы борьбы с существующими угрозами.

Аудит был проведён сертифицированной компанией QSA-аудитор Compliance Control, которая специализируется на оценке безопасности платёжных данных. Получение сертификата свидетельствует о том, что дата-центр и облачная инфраструктура Cloud4Y соответствуют самым высоким стандартам защиты данных карт международных платёжных систем Visa, MasterCard, МИР и других. Несмотря на ужесточение стандартов и усложнение процедур проверки, провайдер продемонстрировал наличие всех необходимых средств защиты для обеспечения безопасности данных.

Для клиентов Cloud4Y наличие сертификата PCI DSS 4.0 открывает новые возможности. Теперь компании, которым требуется соответствие стандарту, могут быстрее запускать проекты, размещая инфраструктуру в дата-центре Cloud4Y, что снижает затраты на сертификацию и поддержание физической безопасности IT-систем.

Cloud4Y предоставляет облачную инфраструктуру для Такстелеком



Компания-разработчик программного обеспечения арендует у провайдера GPU-сервера и другую виртуальную инфраструктуру.

«Такстелеком» с 2011 года работает в сфере разработки ПО. Одно из приоритетных направлений развития — разработка и поддержка отраслевого программного обеспечения для автоматизации бизнеса такси. Решения компании позволяют автоматизировать работу такси, таксопарков, диспетчерских. Поскольку они построены с использованием облачных технологий, то работать в ПО от «Такстелеком» можно из любой точки мира на устройстве, подключённом к интернету.

Компания «Такстелеком» разрабатывает БД Maindb, которая обеспечивает хранение большого объёма информации и автоматизацию работы по приёму и обработке онлайн-заказов, по оформлению и сопровождению заказов на услуги перевозки пассажиров, грузов и т. д. К поставщикам облачных услуг «Такстелеком» обратилась с целью повышения эффективности работы баз данных и отказоустойчивости систем.

Корпоративный облачный провайдер Cloud4Y в сжатые сроки предоставил компании-разработчику виртуальные сервера с GPU, которые обеспечивали нужный уровень производительности и безопасности. Аренда виртуальных серверов с графическим процессором NVIDIA® от Cloud4Y — это новый уровень производительности для решения бизнес-задач разного уровня сложности. Компании могут выбрать готовую конфигурацию или собрать свой сервер. Специалисты провайдера настроили и развернули ресурсы под требования «Такстелеком», и в дальнейшем помогали решать возникающие вопросы.

Благодаря миграции в облако «Такстелеком» увеличила скорость обработки данных, обеспечив клиентам и партнёрам более комфортные условия для работы в разрабатываемом компанией ПО.