Как сэкономить сотни миллионов на электричестве

Электричество можно экономить по-разному, но в основном экономия связана с энергосберегающими устройствами типа светодиодных лампочек, холодильников с высоким классом энергоэффективности или умных розеток с таймерами. Но в этой статье мы расскажем о другом способе — он позволяет снизить платежи за электроэнергию до 30%. Причем новое оборудование покупать не надо, да и режим потребления менять тоже.

Ростелеком на таком способе сэкономил сотни миллионов рублей на электроэнергии. При этом компания не тратилась на энергосберегающее оборудование, сотрудникам не пришлось менять привычки, и ни один клиент не заметил каких-либо изменений в качестве услуг связи. Магия? Нет, просто правильный подход к учету электроэнергии, который мы им помогли внедрить.

В этой статье покажем, как может происходить внедрение проекта в крупной компании и к чему готовиться, если у вас это первый опыт.

Что потребляет электричество в Ростелекоме
Объекты Ростелекома — это не просто офисы с компьютерами. Это целая инфраструктура телекоммуникационной сети с тысячами зданий и сооружений по всей стране:

Автоматические телефонные станции (АТС) — те самые здания, куда приходят все телефонные линии города


Базовые станции — вышки сотовой связи со всем оборудованием


Узлы связи — технические помещения с оборудованием, обеспечивающим работу сети интернет


Контейнеры с оборудованием связи — компактные модули в отдаленных районах


Административные здания с персоналом, обеспечивающие поддержку всей этой инфраструктуры.

Всё это оборудование работает круглосуточно и имеет очень высокие требования к надежности электроснабжения. Если экономия на электричестве негативно скажется на качестве связи, компания экономить не станет. Поэтому было важно снизить затраты и не менять технологических процессов.

У Ростелекома сотни тысяч таких объектов от Калининграда до Владивостока, в каждом регионе страны. Сейчас наша система охватывает 15 тысяч из них — те, на которых уже стоят умные счетчики, умеющие передавать данные удаленно. И в дальнейшем их количество будет расти.

Откуда берётся экономия, если всё продолжает работать?
В отличие от квартиры, где у вас есть тариф день/ночь и всё просто, для бизнеса существует шесть ценовых категорий тарифов на электроэнергию, и в зависимости от характера потребления электроэнергии один и тот же объект может платить по-разному:
  • Простой тариф (Первая ценовая категория): Платите за общее количество киловатт, как в квартире по обычному счётчику
  • Многозонный тариф (Вторая ЦК): День дороже, ночь дешевле — как в квартире с двухтарифным счётчиком, только для бизнеса
  • Почасовой тариф (Третья ЦК): Каждый час имеет свою цену — утренние и вечерние пиковые часы дороже, ночные — дешевле
  • Почасовой тариф с учётом мощности (Четвертая ЦК): То же, что и третья категория, но дополнительно платите за пиковую нагрузку — чем равномернее потребляете, тем выгоднее
  • Тариф с планированием (Пятая ЦК): Стоимость электроэнергии также меняется каждый час, но вы должны заранее сообщать план потребления на следующий месяц — если уложитесь в план, тариф может стать выгоднее
  • Тариф с планированием и учётом мощности (Шестая ЦК): Как пятая категория, но с дополнительной платой за пиковую нагрузку

Если ваше оборудование работает преимущественно ночью или равномерно в течение суток, то вам будет выгоден один тариф. Если основная нагрузка приходится на дневное время — другой.

Но есть нюанс: в масштабах всей страны Ростелеком работает более чем со 100 энергосбытовыми компаниями, и у каждой свои тарифные ставки в рамках этих шести категорий. То, что выгодно в Москве, может быть убыточно в Хабаровске.

Но тут есть подвох: готовые тарифы энергосбытовые компании в открытом доступе не публикуют. Можно либо ждать счёт и надеяться, что поставщик не ошибется в расчетах, либо самостоятельно собирать тарифные составляющие из разных источников по всей стране. Без автоматизации такую задачу решить невозможно — слишком много данных и слишком часто они меняются.

Выбор правильной ценовой категории для каждого объекта может дать экономию до 30% без изменения режима работы оборудования. Просто потому, что вы будете платить по более выгодному для вас тарифу.

Но чтобы понять, какой тариф выгоднее, нужно сначала собрать статистику потребления электроэнергии по часам. А для этого нужны специальные счётчики и система, которая эти данные собирает и анализирует. Вот тут-то мы и пригодились.

Как было до нас: 10 программ учета, которые не дружили друг с другом
До начала нашего проекта в Ростелекоме было внедрено 10 программ разных производителей. Каждый региональный филиал сам решал, какое программное обеспечение для учета электроэнергии использовать.

Для центрального аппарата компании это была большая головная боль. Это, как если бы в одном офисе одни сотрудники заносили результаты в Excel таблицу, другие работали с 1С, а третьи — записывали информацию в блокнот. Собрать все данные воедино и провести анализ в такой ситуации крайне сложно.

Одной из десяти программ учета была наша, её мы внедрили несколько лет назад. Однако, в отличие от других, мы не просто собирали данные со счетчиков, но и показали значительную экономию от внедрения. В Архангельском филиале она достигла 12 млн рублей в год, в Псковско-Новгородском филиале — около 8-10 млн, а в Карелии — порядка 6-8 млн рублей.

В центральном аппарате компании поняли, что это не очередная программа для сбора данных, а инструмент, который приносит реальную экономию. Вот так перед нами встала задача заменить разрозненные системы одним решением, которое будет собирать данные со всех приборов учета и позволит анализировать потребление в масштабах всей компании по 32 регионам.

Как мы делали единую систему: план и реальность
План был таким:
  • Проанализировать текущие системы и понять, что с чем будет интегрироваться
  • Развернуть нашу систему на серверах Ростелекома
  • Перенести данные из старых систем
  • Подключить счетчики к новой системе
  • Обучить сотрудников
  • Радоваться, как лихо мы управились.

А в реальности…

Шаг 1: Анализ и подготовка (сентябрь 2023)
Первый этап занял больше года. Это заключение договора. Ростелеком — большая компания с множеством согласований. Нужно было выяснить, какие системы стоят в филиалах, какие счетчики установлены на объектах и как всю эту разнородную инфраструктуру соединить в одну систему.

Самая сложная часть — сбор информации. Мы подключались к системам удаленно и помогали структурировать данные. Ставили копии их программ у себя, копались в базах данных, составляли полные списки оборудования и расшифровывали, как устроены данные в каждой системе.

Это как расследование, только с техническим уклоном. Нам нужно было понять, как работают чужие системы, чтобы потом аккуратно перенести всё в нашу.

Шаг 2: Разворачиваем систему на серверах (октябрь-декабрь 2023)
Тут начались первые сюрпризы. В обычных проектах мы просто заходим на сервер клиента и устанавливаем нашу систему. Но с Ростелекомом всё оказалось сложнее. Из-за повышенных требований по информационной безопасности работа сильно затянулась:
  • Ограниченный доступ: нам выделили специальный VPN-канал для доступа к инфраструктуре, но прямого доступа к серверам не дали
  • Учетные записи: для каждого нашего сотрудника создали отдельную учетную запись с фиксацией, с какого устройства он работает
  • Документирование: мы готовили подробную документацию на каждого нашего сотрудника и какие действия он должен выполнять
  • «Карантин»: наш установочный пакет проходил проверку службой безопасности в течение двух недель в специальной изолированной среде.

Наш программный пакет проверяли на наличие любых потенциальных уязвимостей. Проверка выявляла все используемые нами компоненты, фреймворки и библиотеки, и если хоть один из них когда-либо имел зарегистрированную уязвимость, нам приходилось либо обновлять этот компонент, либо доказывать, что в нашем случае уязвимость не актуальна. Внесение любого изменения в проект требовало вновь ждать до двух недель на прохождение карантина.

Также нам пришлось доработать интеграцию с Active Directory — службой каталогов Microsoft, которая у клиента используется для авторизации пользователей. Это позволило сотрудникам компании входить в нашу систему с теми же учетными данными, которые они используют для других корпоративных систем.

Шаг 3: Подключение счетчиков (январь-март 2024)
Обычно с переключением счетчиков, по которым уже налажен опрос, сложностей не возникает. Но сюрпризы нас поджидали и тут. Когда мы начали проверять сетевую доступность до счетчиков, выяснилось, что в разных филиалах есть счетчики с устройствами связи, IP-адреса которых совпадают. Такие пересечения возникли в силу того, что разные филиалы настраивают свои локальные сети независимо друг от друга.

Представьте, что у вас есть счетчик в Пскове и счетчик в Петрозаводске, для связи с которыми используется один и тот же IP-адрес 192.168.1.100. Если счетчики находятся в изолированных друг от друга сетях, то проблем не возникает. Мы же все счетчики стали объединять в единую сеть и обнаружили пересечения диапазонов IP-адресов, это приводило к конфликтам.

Казалось бы, есть очевидное решение — сменить сетевые адреса, чтобы они не совпадали, и все заработает без лишних хлопот. Но нет, сетевая инфраструктура нашего клиента формировалась исторически сложным путем. Раньше каждый региональный филиал был фактически отдельной компанией со своими стандартами и правилами настройки сетей. Когда все эти компании объединились под единым национальным брендом, их сетевые инфраструктуры просто «сшили» вместе, сохранив исходную адресацию. За годы в каждой из этих сетей накопилось множество разного оборудования — не только счетчики электроэнергии, но и системы связи, безопасности, управления. И все они были настроены на работу в определенных диапазонах IP-адресов.

Если мы станем менять адреса, то в результате может отвалиться какое-нибудь другое устройство, которое используется совсем для других целей, например, оборудование связи. Проблема усугубилась тем, что в некоторых филиалах никто не мог пояснить, как именно всё настроено — документация неполная, а инженеры, которые всё это создавали, давно сменились.

Поэтому нам пришлось руководствоваться принципом «Работает — не трогай». В архитектуру системы были внесены изменения, и мы развернули отдельные серверы-сборщики для каждой «подсети» Ростелекома. Это как поставить отдельного почтальона в каждом районе, чтобы они не путались, если в разных концах города есть улицы с одинаковыми названиями.

Мы спроектировали распределенную архитектуру, похожую на сеть почтовых отделений. В каждой подсети компании поставили свой сервер-сборщик, который общается только с устройствами в своей «зоне ответственности». Затем все собранные данные передаются на центральный сервер. При этом пользователь видит полную картину в едином интерфейсе — ему не нужно знать про всю эту сложную систему, он просто заходит в единый личный кабинет и получает все данные.



Это более сложная архитектура, чем мы изначально планировали, но она гораздо надежнее и масштабируемее. И самое главное — она решила проблему с пересекающимися IP-адресами.

Шаг 4: Перенос счетчиков и настройка отчетов (июнь-декабрь 2024)
Самый долгий и кропотливый этап. Нужно было перенести информацию обо всех точках измерения и счетчиках из старых систем в новую. И сделать это с учетом жестких требований Ростелекома: сохранить историю потребления за прошлые годы, обеспечить полностью бесшовный переход без потери данных для ежемесячной отчетности и ни в коем случае не прерывать процесс передачи почасовых показаний в энергосбытовые компании, чтобы не нарваться на претензии и штрафы.

Это как заменить двигатель в автомобиле, не останавливаясь в пути.

Процесс был таким:
  • Выгружали данные из старой системы
  • Дополняли недостающую информацию (часто в старых системах не хватало важных параметров)
  • Приводили данные к единому формату
  • Загружали в новую систему
  • Проверяли корректность загрузки
  • Перенастраивали оборудование на передачу данных в новую систему

Последний пункт был особенно сложным. Ведь первого числа каждого месяца филиалы должны были передавать данные о потреблении электроэнергии в энергосбытовые компании.Если мы допустим сбой, то это приведет к нарушению договорных обязательств с поставщиками и может повлечь штрафные санкции до 25% от стоимости электроэнергии.

Поэтому мы разработали план поэтапного перехода:
  • Согласовывали с филиалом удобное время для перенастройки
  • Подтверждали, что данные за прошлый месяц уже переданы
  • Удаленно перенастраивали оборудование на передачу данных в новую систему
  • Проверяли корректность сбора данных
  • Обучали сотрудников филиала работе с новой системой отчетности

В процессе работы обнаружили много старых счетчиков и модемов, которые пора было менять. Ростелеком закупил новую технику, а нам пришлось срочно научить нашу систему работать с этими устройствами — буквально получали коробки с новым оборудованием и за месяц добавляли поддержку.

В итоге мы перетащили данные из всех десяти разных систем, удаленно перенастроили часть приборов учета и обеспечили бесшовную передачу данных энергетикам. Никто даже не заметил, как произошла замена двигателя в едущей машине.

Теперь видно все объекты в едином интерфейсе. Центральный аппарат видит всю картину по предприятию, а инженеры филиалов — данные только по своему региону.

Первое, на что инженеры обращают внимание — это общая картина сбора данных. По сути, это диспетчерский экран, где сразу видно состояние всех объектов.



Если где-то появилось красное пятно, значит, счетчик на этом объекте не передает данные, и если не решить проблему, в конце месяца придется ехать снимать показания вручную или платить штрафы за непредоставление информации.

И конечно, все эти усилия по миграции и непрерывному сбору данных были направлены на главную цель — своевременную передачу показаний в энергосбытовые компании.Каждый поставщик электроэнергии требует предоставлять отчеты в строго определенном формате. Раньше это означало кропотливую ручную работу — собрать данные из разрозненных систем, перенести их в нужный формат, проверить, отправить и убедиться, что отчеты были приняты. Сбой на любом этапе приводил к переплатам за электроэнергию из-за штрафов.

Теперь все эти отчеты формируются и отправляются автоматически. Система учитывает требования каждой энергосбытовой компании, форматы сдачи отчетности у которых могут сильно отличаться:


Остается только убедиться, что все отчеты были отправлены и получены поставщиками электроэнергии:


Шаг 5: Обучение пользователей (сентябрь 2024)
Когда система заработала, мы обучили команду Ростелекома ей пользоваться. Собрали более 60 сотрудников со всех филиалов на большой вебинар, а затем провели отдельные тренинги для энергетиков, инженеров и операторов — каждому объяснили его часть работы. Для особо любознательных филиалов проводим дополнительные вебинары с глубоким погружением в возможности системы.

Как теперь экономит Ростелеком
Самый ценный функционал системы — это анализ потребления и расчет оптимальных тарифов. Посмотрим, как это работает на конкретных примерах.

Пример 1: Сравнение тарифов и выбор оптимального


На этом скриншоте показано сравнение стоимости электроэнергии по всем возможным вариантам из тарифного меню одной энергосбытовой компании. Данный поставщик предлагает 5 вариантов расчета за электроэнергию, и система автоматически рассчитывает, сколько будет стоить один и тот же объем потребления (127 806 кВт) по разным тарифам:
  • Выбрав первый вариант расчетов (I), компания должна оплатить 1,4 млн. руб. — это самый оптимальный вариант.
  • Выбрав тарифы, дифферинцированные по зонам суток (2 зоны: день и ночь), за тот же объем компания заплатит 1,6 млн. руб. — дороже на 13%
  • Переплата на почасовых тарифах (III и IV ЦК) составит 7% и 17%.

Чтобы разобраться с начислениями подробнее, система позволяет выполнить посуточный тарифный анализ и определить дни максимальной экономии и переплаты. Это может помочь подобрать наиболее выгодные режимы работы предприятия.

Пример 2: Расчет экономии при переходе с одного тарифа на другой
Этот пример показывает посуточный анализ затрат при переходе с IV ценовой категории на I ценовую категорию:


В таблице показаны детали расчета:
  • В рабочие дни экономия составляет 0,5 млн руб или 32% в сравнении с текущим тарифом
  • В нерабочие дни наблюдается переплата 0,2 млн. руб.
  • Общая экономия за месяц: 0,3 млн. руб. или 17%

Графики демонстрируют ежедневную статистику по экономии:


Экономия происходит в дни, когда синие столбцы вверху. Дни, когда есть переплата, показаны красными провалами.

Что в итоге получил Ростелеком?
Теперь вместо 10 разных систем у Ростелекома единая централизованная система учета электроэнергии, которая:
  • Собирает данные с более чем 15 тысяч счетчиков, раскиданных по 32 регионам страны.
  • Отслеживает проблемы передачи данных
  • Контролирует качество электроэнергии — напряжение, частоту и другие параметры
  • Предупреждает о критических ситуациях, если параметры электросети выходят за допустимые пределы
  • Автоматически формирует и рассылает отчеты для энергосбытовых компаний
  • Анализирует потребление и показывает, где можно оптимизировать затраты
  • Выявляет ошибки в расчетах поставщиков электроэнергии

Экономический эффект внедрения системы в некоторых филиалах достигает 30% от первоначальных платежей за электроэнергию. При этом потребление не уменьшилось — наш клиент платит по оптимальным тарифам и за год экономит более 100 млн. руб.

Что особенного в этом проекте?
Для нас этот проект стал вызовом по нескольким причинам:
  • Масштаб — 15 тысяч счетчиков, 32 региона, 10 разных систем
  • Требования безопасности — каждое обновление проходило проверку в течение двух недель, и мы старались пройти проверку с первой попытки
  • Сетевая инфраструктура — пришлось адаптировать нашу систему под сложную сетевую архитектуру Ростелекома
  • Непрерывность сбора данных — нельзя было допустить сбоев в передаче показаний
  • Работа с критической инфраструктурой — необходимость интеграции с системами, обеспечивающими безопасность сети

Масштабируемость решения — теперь наша система может расти практически без ограничений. При увеличении числа объектов достаточно добавить новые серверы-сборщики, что позволяет в перспективе обслуживать намного больше 15 тысяч точек учета без потери производительности.

Но главное — мы помогли крупной компании сэкономить миллионы рублей, не меняя режим работы оборудования и не снижая качество услуг для клиентов.

И сделали это, просто правильно настроив учет электроэнергии и подобрав оптимальные тарифы.

Мораль этой истории
Даже если вы не можете снизить потребление электроэнергии (потому что оборудование должно работать 24/7), вы всё равно можете существенно сэкономить, если правильно выберете тариф и будете контролировать потребление.

Но для этого нужна хорошая система учета, команда экспертов и немного терпения в работе с инфраструктурой крупной компании и бюрократией энергосбытовых организаций.

Что ж, мы своё терпение проверили на практике — и оно не подвело. А наш клиент теперь экономит миллионы. Всем выгодно!

www.cloud.rt.ru

Архив покупки активов



www.cloud.rt.ru/registration
www.cloud.rt.ru/showcase/help
www.rt-dc.ru
www.rt-dc.ru/about/licenses/
  • Ростелеком-ЦОД
  • NGENIX
  • MSK-IX
  • Технический центр Интернет
  • Базис
  • Ростелеком М9
  • РТК Цифровые технологии
  • Центр Технологий ЦОД

4 апр 2024
Как мы тестируем серверы

7 ноя 2023
Как мы создали и развиваем лабораторию R&D

17 авг 2023
Упрощаем мониторинг заданий в Veeam Backup and Replication

23 мар 2023
Новая точка на карте ЦОДов Москвы
Мы открыли новый дата-центр «Ростелеком-ЦОД» в Медведково. Строительство началось в июле 2022 года на базе складского комплекса класса А+, первый этап был реализован за 9 месяцев.
Сегодня в эксплуатацию принято 4 машинных зала из шестнадцати. Каждый из них может вместить до 312 стандартных серверных шкафов, т.е. всего 1248 стойко-мест. Общая электрическая мощность четырех машинных залов и поддерживающей инженерной инфраструктуры составляет 9 МВт.


22 дек 2022
Как найти проблему с производительностью ВМ на VMware ESXi

6 окт 2022
Частые вопросы по миграции базы данных 1С с MS SQL на PostgreSQL

15 сен 2022
Нашему ЦОДу в Новосибирске исполнилось полтора года. За это время в дата-центре выросла зона доступности облака DataLine для заказчиков из Сибири и Дальнего Востока, а также появились новые услуги. Сейчас в новосибирском облаке размещаются почтовые сервисы, облачные диски клиентов, объектные хранилища, сервисы DBaaS, Kubernetes, сервисы ИБ, DR-площадки и резервные копии.
На востоке растут облака: новосибирский дата-центр «Ростелеком-ЦОД» сегодня

2 июн 2022
Тестируем комплексную защиту от DDoS в 2 этапа

5 мая 2022
Кастомизируем дашборды в Grafana для инженеров по холодоснабжению ЦОДа

14 апр 2022
Тестируем шлюз безопасности UserGate на железе зарубежного NGFW

31 мар 2022
Как оценить риски для зарубежных NGFW и выбрать схему подключения отечественного аналога

24 мар 2022
Миграция из Office 365: задачи, способы и сроки

13 янв 2022
“А вы точно DBA?” Что спросить у провайдера перед подключением Managed DBaaS

16 дек 2021
Как документировать сервер и контролировать его управление, даже если у вас небольшой стартап

18 ноя 2021
Как быть с сетью, если резервируешь инфраструктуру между городами и провайдерами

11 ноя 2021
Инфраструктура в разных концах города: как не проворонить сетевую связность

28 окт 2021
Почему «падают» серверные стойки

2 сен 2021
За парту в дата-центре, или Как мы строим распределенный центр подготовки инженеров

26 авг 2021
Тестируем переезд ВМ через Hystax и уходим от ручных настроек сети

12 авг 2021
Правила жизни дата-центра в дождь, шторм и аномальную жару

22 июл 2021
Как мы наблюдаем за метриками в дата-центре и развиваем наш мониторинг

10 июн 2021
Уроки стойкости, или Выбираем стойки для ИТ-оборудования правильно

27 мая 2021
Почему виртуалки “на вырост” начинают тормозить, и что с этим делать новичку

29 апр 2021
Чтоб сервер не рассыпался по дороге: как мы перевозим дорогое ИТ-оборудование

15 апр 2021
На пути к умной стойке: как мы тестировали метки для учета серверов в ЦОДе

8 апр 2021
Чек-лист внедрения VDI: что учесть, чтобы виртуальные рабочие столы работали как надо

25 мар 2021
На коленке: агрегация VPN, или Надежная связь на ненадежных каналах

4 мар 2021
Статистика и ЦОД: откуда берутся 5 кВт на стойку и почему это немало

25 фев 2021
Калининский район Санкт-Петербурга и со всех сторон посмотрим на дата-центр «Ростелеком-ЦОД», который запустился в декабре 2020 года. Новый ЦОД построили «с нуля» недалеко от корпусов завода ЛОМО по адресу: ул. Жукова, 43.
Пять лет назад здесь было заброшенное строительство мазутохранилища (любим строить на территориях старых заводов).
Гуляем по новому дата-центру “Ростелеком-ЦОД” в Санкт-Петербурге


28 янв 2021
Как мы разгоняли кластер для нагруженных баз Microsoft SQL и получали заветные 200 000 IOPS

25 дек 2020
2020 глазами дежурного инженера, или Один в ЦОДе
www.youtube.com/watch?v=6Y4FhJmRWCc

17 дек 2020
Что может Citrix Session Recording – решение для записи сессий на виртуальных рабочих столах

10 дек 2020
Из грязи в RPKI-князи-1. Подключаем валидацию маршрутов в ВGP

12 ноя 2020
И целого WAF’а мало: как мы проапгрейдили сервис защиты веб-сайтов

1 окт 2020
Найти 15 инженеров за две недели карантина

24 сен 2020
Как мы защищаем виртуальные рабочие столы клиентов от вирусов, шпионов и атак

9 июл 2020
Между Москвой и Санкт-Петербургом: экскурсия по мегаЦОДу «Удомля»


2 июл 2020
Невыдуманные истории про сеть: как я учил физику на своих и чужих ошибках

18 июн 2020
MMS-система в дата-центре: как мы автоматизировали управление техническим обслуживанием

4 июн 2020
Смертные грехи безопасности сайта: что мы узнали из статистики сканера уязвимостей за год

2 апр 2020
А продемонстрируйте, или Как мы проходили аудит Operational Sustainability в Uptime Institute

26 мар 2020
Чем плоха СМС-аутентификация и как защититься от угона SIM-карты

19 мар 2020
Воздушки, релейки, кабель в окно: как не напороться на провайдера-монополиста в бизнес-центре

12 мар 2020
АВР и все, все, все: автоматический ввод резерва в дата-центре

30 янв 2020
Катастрофоустойчивое облако: как это работает


12 дек 2019
С Hyper-V на VMware и обратно: конвертация виртуальных дисков

28 ноя 2019
Как мы тестировали WD ActiveScale P100 для нашего S3-хранилища

21 ноя 2019
Операция “Миграция”: как происходит переезд в облако DataLine

17 окт 2019
PDU и все-все-все: распределение питания в стойке


10 окт 2019
5+ способов подключиться к облаку DataLine

6 авг 2019
DISKOBALL: соревнования по метанию HDD-дисков, 23 августа, г. Москва
У нас было 150 дисков, 300 литров пива и 150 айтишников, готовых пустить все это в дело.
Это мы про DISKOBALL: первые в России соревнования по метанию HDD-дисков, которые пройдут 23 августа в Москве.

6 дек 2018
Как строятся оптоволоконные сети


29 ноя 2018
Три истории модернизации в дата-центре

30 авг 2018
Независимая приёмка ЦОД

6 фев 2018
10-гигабитный Ethernet: советы новичку

26 дек 2017
Чек-лист неприятностей, которые могут случиться при переезде
Совсем недавно мы открыли облако в Санкт-Петербурге. Оборудование для него перевозили из Москвы.

11 авг 2017
Эволюция сайта — взглядом Linux-админа дата-центра

28 июл 2017
Бюджет на эксплуатацию дата-центра: инструкция по составлению

20 июл 2017
Когда деревья были большими: как маленький дата-центр ураган пережил

29 июн 2017
Эксплуатация дата-центра: что нужно делать самим

30 мая 2017
Dumb ways to die, или отчего “падают” дата-центры

19 мая 2017
Чтобы карета не превратилась в тыкву, или зачем нужны тестовые восстановления из резервных копий

4 мая 2017
Опыт DataLine: работа службы техподдержки

20 апр 2017
Вредные советы по настройке резервного копирования и несколько баек

14 апр 2017
Гуляем по дата-центру TIER III
У нас для вас пятничный видеотур по дата-центру NORD-4. Дата-центр располагается на Коровинском шоссе в Москве. По проекту будет вмещать 2016 стоек. Сейчас в эксплуатации 1008 стоек, в апреле заработает еще 504.

31 мар 2017
Дата-центр по системе Станиславского: как устроен корпоративный театр DataLine

7 мар 2017
Опыт DataLine: как мы готовим дежурных инженеров для своих дата-центров

17 фев 2017
Обслуживание инженерных систем ЦОД: что должно быть в договоре подряда

13 фев 2017
Семинар «Сколько стоит эксплуатация ЦОД?», 21 февраля, дата-центр OST

3 фев 2017
Network Controller: программно-определяемые сети в Windows Server 2016. Часть 1: возможности и службы

20 янв 2017
Как тестируют ДГУ в дата-центре

13 янв 2017
Мониторинг инженерной инфраструктуры в дата-центре. Часть 1. Основные моменты

22 дек 2016
Резервное копирование с помощью Commvault: немного статистики и кейсов

15 дек 2016
Своя точка обмена трафиком в дата-центре. Часть 2. Инструменты для участников DataLine-IX


8 дек 2016
Своя точка обмена трафиком в дата-центре. Часть 1. Как это устроено

9 ноя 2016
Как создавалась система холодоснабжения дата-центра NORD-4


26 окт 2016
Полезные мелочи в дата-центре: Wi-Fi IP KVM


7 окт 2016
Ошибки в проекте дата-центра, которые вы ощутите только на этапе эксплуатации

21 сен 2016
Путь электричества в дата-центре

9 сен 2016
Экскурсия по дата-центру NORD-4

1 сен 2016
Все умрут, а я останусь: репликация и послеаварийное восстановление в облако с помощью Veeam Cloud Connect Replication

25 авг 2016
Работаем с гибридным облаком: VMware vCloud Connector, часть 2

2 авг 2016
Работаем с гибридным облаком: VMware vCloud Connector, часть 1

31 мая 2016
Бесплатный семинар «Холодоснабжение ЦОД: как не перегреться летом», 8 июня, дата-центр NORD 4

23 мая 2016
Семинар «Oracle в «облаке» и экскурсия по одному из крупнейших дата-центров России NORD 4, 26 мая, г. Москва

11 фев 2016
От сложного к простому: запускаем виртуальный сервер Windows/Linux

9 дек 2015
Семинар «Backup любых объектов на основе CommVault Simpana», 10 декабря, дата-центр OST (Москва)


18 ноя 2015
CloudLITE 2.0, или работа над ошибками облачного провайдера
В середине октября мы перезапустили облачный сервис CloudLITE, поменяв платформу провижининга и биллинга на BILLManager. Сегодня расскажем о том, что у нас изменилось и почему.
Переход на vCloud Director оказался непростым, в первую очередь, для вчерашних пользователей VDS/VPS: совершенно незнакомый интерфейс, огромное количество настроек… Мы постарались по возможности «облегчить» это знакомство посредством инструкций и видео-мануалов, но все равно часть пользователей терялись, ошибались – и в результате уходили разочарованными.


12 авг 2015
Моддинг кондиционера Stulz CyberAir


28 июль 2015
vCloud Director для самых маленьких (часть 5): настройка VPN

17 июль 2015
vCloud Director для самых маленьких (часть 4): все о работе с шаблонами виртуальных машин

18 июнь 2015
vCloud Director для самых маленьких (часть 3): настройка балансировщика нагрузки

15 июнь 2015
Запустили новый облачный сервис AzureLine

5 июнь 2015
Изучаем внутренности сервера Huawei RH5885 V3 (unboxing)

18 мая 2015
VMware Virtual SAN (VSAN): зачем он вам и как его готовить

5 мая 2015
vCloud Director для самых маленьких (часть 2): создание виртуальных машин

28 апр 2015
vCloud Director для самых маленьких (часть 1): настройка сети

21 апр 2015
Остаться в живых: чеклист для подготовки ЦОДа к лету

6 апр 2015
Запускаем магазин облачных ресурсов CloudLITE.ru

20 мар 2015
«Идеальный шторм» и как это лечится

23 апр 2014
Гуляем по дата-центру NORD
NORD 1: площадь -1320 кв. м, 284 стойко-мест.
NORD 2: площадь — 1713 кв. м, 474 стойко-мест.
NORD 3: площадь — 1880 кв. м, 426 стойко-мест.
NORD 4 (будет запущен этим летом): площадь — 11700 кв. м, 2016 стойко-мест.

4 фев 2014
Дата-центр OST на ул. Боровая — самый первый ЦОД DataLine. В 2009 году именно с открытием двух машинных залов в этом ЦОДе компания вышла на рынок услуг коммерческих дата-центров. С момента своего старта OST ежегодно расширялся и обзаводился новыми машинными залами. На сегодняшний день ЦОД OST – это 9 машинных залов (общей площадью 2045 кв. м.) на 903 стойки и 250 кв. м офисного пространства для резервных офисов заказчиков. Здесь же трудится головной офис компании, так сказать, без отрыва от производства.

16 сен 2013
7 популярных ошибок при подключении оборудования

11 сен 2013
Дата-центр NORD на Коровинском шоссе
ЦОД состоит из трех корпусов (NORD 1, NORD 2, NORD 3) и на сегодняшний день является самым масштабным объектом компании DataLine. Общая площадь всех корпусов дата-центров NORD 7636 кв. м., на таких пространствах с легкостью разместятся 1280 стоек в 8 машинных залах.

Мало места большим данным: почему Москву ждет дефицит мощностей

До конца года в дата-центрах Москвы может возникнуть дефицит мощностей — впервые с начала кризиса 2014 года. Участники рынка уже ощущают нехватку свободных мест для хранения данных, что привело к росту стоимости услуги на 15%

К концу 2018 года клиенты коммерческих центров обработки данных (ЦОД) в столице впервые после экономического кризиса 2014-го могут столкнуться с дефицитом свободных мощностей, сообщил РБК директор по развитию аналитической компании iKS-Consulting Дмитрий Горкавенко.

Количество установленных в подобных центрах стоек, или стандартных шкафов для размещения оборудования, — один из основных показателей для рынка ЦОДов. Согласно прогнозу, к концу года в Москве уровень утилизации (количество занятых стоек к количеству свободных) может превысить 75%. «Это высокая утилизация, так как ЦОД технически не может иметь утилизацию 100% из-за своей конфигурации. Некоторые площадки имеют утилизацию более 90% и уже не смогут поставить себе крупных клиентов (которым потребуется, например, 200–300 стоек)», — пояснил он. По словам Горкавенко, количество свободных мест сократилось в связи с высоким спросом. В частности, более 1,5 тыс. стоек в столице — это новые клиенты из-за рубежа, которые в 2017–2018 годах пришли в Россию, развернули облачные сервисы в партнерстве с российскими игроками, а также глобальные компании, которые таким образом выполняют требования российского законодательства. Так, в сентябре 2015 года вступил в силу закон об обязательном хранении персональных данных россиян внутри страны, 1 июля этого года — требования «закона Яровой», по которым операторы связи и интернет-компании должны хранить в течение шести месяцев записи разговоров пользователей, а с 1 октября — еще и данные об их интернет-активности.

В 2017 году всего в российских дата-центрах было установлено 34,88 тыс. стоек, что на 13% больше, чем в 2016 году, говорится в исследовании iKS-Consulting (копия есть у РБК). На Москву приходилось 67,4% от общего количества. По итогам этого года это число должно вырасти на 16%, до 39,95 тыс. стоек. В прошлом году iKS-Consulting прогнозировала, что в 2017 году общее количество стоек в российских дата-центрах вырастет на 24,5%, до 38 тыс. штук. Как отмечается в нынешнем исследовании компании, фактический рост емкости рынка ЦОД в 2017 году оказался ниже ожидаемого, так как сроки окончания ряда проектов по созданию и развитию дата-центров с гарантированным уровнем надежности не ниже 99,98% (Tier III в классификации Uptime Institute), запланированных на этот период, были перенесены на первое полугодие 2018 года. «Сложности с их своевременным запуском объясняются высоким уровнем себестоимости проектов и необходимостью резервирования дорогостоящих компонентов инженерной инфраструктуры, которые дублируют друг друга в соответствии с требованиями к дата-центрам Tier III», — указывают авторы исследования.


При этом совокупная выручка владельцев коммерческих дата-центров в 2017 году выросла на 26,9% по сравнению с показателем 2016 года, до 21,9 млрд руб. По итогам 2018 года этот показатель прогнозируется на уровне 27 млрд руб. (рост на 23,2%).

Временные трудности
По словам Дмитрия Горкавенко, в 2019 и 2020 годах на рынок должны поступить еще 2,89 тыс. и 2,35 тыс. новых стоек соответственно, проекты уже реализуются. Также есть замороженные проекты на 2,74 тыс. стоек, они могут быть оперативно запущены и введены. «Процесс выбора площадки и переход в коммерческий ЦОД занимает обычно более шести месяцев, поэтому полагаю, что в 2019 году новый спрос будет удовлетворен», — говорит эксперт.

По словам директора по продуктам Selectel Петра Щеглова, уже сейчас справедливо говорить о дефиците свободных мощностей в Москве, в первую очередь в отношении современных дата-центров высокой степени надежности, куда смещается спрос корпоративных заказчиков. «Дефицит вызван как системными причинами, например продолжающейся цифровизацией бизнеса и его переходом в облака, так и отдельными обстоятельствами. В этом году в Россию пришли и обосновались в Москве несколько крупных китайских компаний из сферы технологий и электронной коммерции. Львиная доля выкупленных мощностей в столичных дата-центрах пришлась на этих заказчиков», — отметил Щеглов. Он прогнозирует, что после исчерпания качественного предложения в Москве, возрастет интерес к петербургскому рынку дата-центров.

Представитель еще одного участника рынка рассказал, что все крупные компании, помимо «Ростелекома», о котором нет данных, действительно практически исчерпали свои мощности. «Обычно все крупные игроки заранее задумываются о начале строительства новых площадок. Но во второй половине 2018 года был резкий рост рынка, и все не успели среагировать. В итоге ввод новых мощностей придется в основном на 2020 год», — говорит собеседник РБК. Среди крупных игроков много свободных стоек будет только у DataLine, поскольку арендовавший у них мощности Сбербанк переезжает в собственный дата-центр. При этом всплеск со стороны иностранных игроков он также объяснил политикой Китая, который планирует «захватить европейский облачный рынок и рассматривает Россию как промежуточный пункт на пути в ЕС».

Представитель «Ростелекома» сообщил, что у ЦОДов компании в Москве «исторически достаточно высокая степень утилизации, соответствующая проектной загрузке». «Введенный компанией в конце прошлого года ЦОД Москва-III практически сразу после ввода вышел на проектную загрузку. Свободные места еще есть, но на 2019–2020 годы мы запланировали увеличение мощностей в Москве», — отметил он.

По мнению управляющего директора IXcellerate Дмитрия Фокина, дефицит свободных мощностей к концу 2018 года на рынке «высоковероятен». ​В мае этого года IXcellerate запустила машинный зал на 1,1 тыс. стоек, и в компании ожидают, что к концу года он будет продан и зарезервирован уже на 75%. По словам Фокина, на дефицит стоек влияют как быстрый рост облачных сервисов, так и тот факт, что операторы ЦОДов «запаздывают» с вводом новых мощностей. «Планирование и ввод в эксплуатацию новых машинных залов занимает все большее количество времени, что накладывается на сложности с получением дополнительной электрической мощности», — указал управляющий директор IXcellerate.

При этом сложившийся дефицит привел к повышению цен на услуги ЦОДов, признают участники рынка. «Дефицит напрямую повлиял на уровень цен, стоимость увеличилась где-то на 15% и продолжает расти», — говорит Дмитрий Фокин.​ Некоторое повышение цен ожидает и Петр Щеглов. «Но не только из-за дефицита, скажется повышение НДС и рост энерготарифов», — считает он.

Перспективная цель
По прогнозу iKS-Consulting, в ближайшие три года в среднем количество стоек в российских коммерческих ЦОДах будет увеличиваться не менее чем на 9–10% в год, по итогам 2021 года их число достигнет 53 тыс. штук.

Согласно программе развития цифровой экономики, в 2024 году мощность российских коммерческих ЦОДов должна составить 80 тыс. стоек, говорилось в проекте плана мероприятий по направлению «Информационная инфраструктура». Россия должна занять 5% на мировом рынке хранения и обработки данных.

На конец 2017 года доля России в мировом объеме оказания услуг центров обработки и хранения данных составила 1%, услуг публичного облачного провайдинга — 0,6%, указывают в iKS-Consulting. По оценке компании, для достижения указанной в программе развития цифровой экономики цели, рынок ЦОДов должен расти на 42% в год. Чтобы обеспечить такие темпы, потребуются системные и масштабные меры поддержки. По словам Горкавенко, в том числе необходимо упростить процедуры получения прав на землю в долгосрочную аренду или собственность под строительство ЦОДа; повысить энергетическую доступность для дата-центров, исключив сетевую надбавку МРСК или упростив и ускорив процедуру подключения таких объектов к энергосетям; распространить налоговые льготы для ИТ-компаний на владельцев ЦОДов.

По мнению Петра Щеглова, расти быстрее рынку позволят «налоговые льготы, продуманное регулирование и обоснованный протекционизм». «Мы видим интерес к мнению игроков рынка со стороны новой команды Министерства цифрового развития, связи и массовых коммуникаций. Это дает повод для осторожного оптимизма в отношении достижимости целей программы», — заключил он.

Услуги хостинга в новосибирском дата-центре Ростелеком



Важно! Услуги хостинга в новосибирском дата-центре Ростелеком.
Уважаемые клиенты! Всем кто планировал приобретение услуг в новосибирском дата-центре Ростелеком настоятельно рекомендуем поторопиться с принятием решения. У Ростелеком в данном дата-центре критическое исчерпание IP адресов. По этой причине в ближайшее время мы перестанем открывать новые услуги VPS, выделенных серверов, SSL сертификатов. Новые IP адреса появятся через полгода. Удачного дня!

UrsaServer

Увеличена пропускная способность канала с Ростелекомом до 5 Гбит/с

В целях повышения стабильности и улучшения общей доступности наших ресурсов, сегодня произведено расширение канала с ОАО «Ростелеком» до 5 Гбит/с. Ростелеком обладает обширной сетью связи охватывающей территорию всей Российской Федерации. Также, Ростелеком является магистральным оператором связи, соединяющим Европу и Азию благодаря наличию собственной сети пропускной способностью 2 Тбит/с.

В настоящий момент, суммарная пропускная способность наших внешних каналов составляет 55 Гбит/с.