Cистемы охлаждения в дата-центрах Selectel



Конкурентные цены на услуги всегда были «королем аргументов» для клиентов при выборе дата-центра. А из чего складываются эти цены? Первыми на ум приходят расходы на IT-оборудование и электричество, но значительную долю в структуре цен составляют расходы на охлаждение серверов, систем хранения (СХД) и сетевых устройств. К примеру, сервер с несколькими процессорами выделяет до 600 Вт и более тепловой энергии, которую надо эффективно удалить, а на вход вентиляционных отверстий сервера подать холодный воздух.

Сейчас мы познакомим вас с технологиями климатических систем в дата-центрах Selectel и расскажем, каким образом новинки в этой сфере снижают операционные расходы дата-центров, а косвенно — и суммы в счетах наших клиентов.

3 рынка услуг — 3 требования к охлаждению
На рынке услуг ЦОД, — если оценивать грубо, — присутствуют три основных сегмента. Это во-первых, колокейшн, далее инфраструктура IaaS — выделенные серверы плюс облачное хранилище, и третий сегмент — облачные серверы (VPC, VPS, VMware Cloud), включая публичные, приватные и гибридные облака.


Каким бы удивительным это ни казалось, но клиенты каждого из сегментов предъявляют разные требования к климатическим системам. Наиболее требовательны клиенты, размещающие в дата-центре свое собственное оборудование (колокейшн). Среди них много IT-руководителей с многолетней практикой и консервативным представлением о том, какая температура должна быть в серверных залах. Еще 10-15 лет назад требование обеспечить +18°C в холодном коридоре было действительно критически важным. Но современные серверы и СХД стабильно работают до температуры +27°C.

К слову, конкретный диапазон температуры воздуха для серверных помещений ЦОД довольно строго регламентирован рекомендациями ASHRAE (Американское общество инженеров по отоплению, охлаждению и кондиционированию воздуха), которыми руководствуются во всем мире, включая Россию. Рекомендованный диапазон температур со временем меняется, где-то в начале 2000-х годов это, действительно, было 16-20°C, затем 18-22°C, а сегодня рекомендованная температура воздуха для охлаждения серверов уже 20-27°C.
Selectel в своих дата-центрах стремится поддерживать температуру воздуха у нижней границы рекомендованного диапазона по ASHRAE, в среднем порядка 23°C
отметил для статьи Кирилл Малеванов, технический директор Selectel

Какой из этого можно сделать вывод для бизнеса дата-центра? Использовать дорогостоящее охлаждение с помощью кондиционеров следует преимущественно для серверных залов, выделенных под услугу колокейшн. Соответственно, для серверных залов под услуги IaaS и тем более для облачных серверов можно применять оборудование, которое максимально эффективно использует охлаждение за счет окружающей среды — вплоть до простого обдува серверов забортным воздухом.

При этом, поскольку Selectel владеет несколькими дата-центрами, причем в разных регионах, появляется свобода маневра. Иными словами, можно еще на стадии проектирования, строительства ЦОД и выбора климатического оборудования учитывать требования к охлаждению в выбранном сегменте услуг. И позже в процессе эксплуатации проводить модернизацию климатических систем с учетом снижения ТСО при предоставлении именно этих услуг.

Что такое PUE
Основным показателем эффективности ЦОД является коэффициент эффективности использования энергии (Power usage effectiveness, PUE), используемый в индустрии ЦОД с 2007 года. Что же из себя представляет этот коэффициент:

Иными словами, чем ближе PUE к 1, тем более совершенным является дата-центр. Однако, значения 1.0 достичь в принципе невозможно, поскольку это соответствует уровню энергоэффективности вечного двигателя. К слову, с полным определением термина PUE можно ознакомиться в документе PUE, A Comprehensive Examination of the Metric (PDF).

На практике превосходными считаются значения PUE, лежащие на уровне 1.10 – 1.15. К примеру, согласно публикациям, для дата-центров Google значение PUE, усредненное по всем ЦОД в разных регионах и в разное время года, составляет 1.12.

Далее, познакомимся подробнее с системами охлаждения в отдельных дата-центрах Selectel.

«Цветочная 1» — фреон
Первый дата-центр «Цветочная 1» был запущен в эксплуатацию в 2008 году, когда услуга колокейшн была доминирующей на рынке. Кроме того, это центр Петербурга — со свободными площадями ситуация тогда была несколько стесненная. Соответственно, в дата-центре «Цветочная 1» были установлены классические промышленные кондиционеры для ЦОД на фреоне, которые работают до настоящего времени.

Принцип работы такого кондиционера основан на переходе фреона в различные агрегатные состояния. Холодный воздух под фальшполом подается в так называемые «холодные коридоры» с вычислительным оборудованием, а нагретый воздух уходит в серверный зал (в «горячие коридоры»), откуда опять засасывается в теплообменник кондиционера, охлаждается и вновь подается к серверам и СХД.


КПД классического кондиционера оставляет желать лучшего, и поэтому коэффициент эффективности использования энергии для дата-центра «Цветочная 1» по современным меркам довольно высок, PUE=1.7. Но учитывая, что здесь предоставляются услуги колокейшн, с таким положением вполне можно смириться до момента кардинальной модернизации всего ЦОД.


«Дубровка 1», «Берзарина 1», «Цветочная 2» — чиллеры
Следующую технологию охлаждения в Selectel опробовали в 2010 году, когда построили ЦОД «Дубровка 1» в поселке Дубровка Ленинградской области. В нем впервые в практике компании была применена чиллерная система охлаждения.

Отличие чиллерной системы от фреоновых кондиционеров состоит в том, что в трубопроводах между внутренними и внешними блоками циркулирует незамерзающий гликолевый раствор, который остается все время жидким и в газообразное состояние не переходит. Раствор прогоняется насосом через кондиционер в серверном зале, где нагревается от горячего радиатора кондиционера и откуда выкачивается в выносной наружный теплообменник, называемый чиллером.

В чиллере гликолевый раствор охлаждается с помощью наружного воздуха и дополнительного компрессорно-конденсаторного блока. Затем уже охлажденный гликолевый раствор вновь подается в кондиционер внутри серверного помещения дата-центра. При этом охлаждение вычислительного оборудования происходит по традиционной схеме — холодный воздух подается снизу через фальшпол в «холодные коридоры», а горячий — уходит в общий зал и далее в теплообменник.


Схема с холодными и горячими коридорами дает до 5% экономии электроэнергии, поэтому так важно провести изоляцию холодного и горячего воздушных бассейнов (коридоров и накопителей воздуха).

Энергоэффективность чиллерной схемы выше в сравнении с кондиционерами, и это объясняется тем, что внешний компрессорно-конденсаторный блок чиллера включается в работу лишь при температурах окружающей среды выше +12°C, причем вентиляторы внешнего блока включаются постепенно, по мере роста температуры гликолевого теплоносителя. Это очень похоже на то, как работает система охлаждения двигателя обычного автомобиля.

По чиллерной схеме в Selectel построено охлаждение трех дата-центров — «Дубровка 1» (2010 год), «Берзарина 1» (2011 год) и «Цветочная 2» (2015 год). В случае с ЦОД «Цветочная 2» был учтен опыт эксплуатации, накопленный за 5 лет работы ЦОД «Дубровка 1» в части многочисленных нюансов обслуживания. Как оказалось, несмотря на внешнюю простоту принципа действия, численная система довольно капризна в работе и требует внимательного обслуживания и соблюдения регламентов. Более подробно о работе чиллерной системы в дата-центре «Берзарина 1» читайте в нашей предыдущей статье.


«Дубровка 3», «Берзарина 2» — фрикулинг
Следующий шаг в повышении энергоэффективности систем охлаждения был сделан в Selectel при переходе к схеме прямого фрикулинга. Принцип действия классического прямого фрикулинга заключается в отказе от теплообменников, и охлаждение вычислительного оборудования происходит за счет обдува с помощью забортного воздуха.

Забортный воздух проходит через фильтры, где очищается от пыли, и далее поступает в машинный зал. В зимнее время по мере необходимости холодный воздух предварительно «разбавляется» теплым воздухом от серверов в камере смешения для поддержания постоянной температуры обдува оборудования.


Как уже говорилось выше, современные серверы и СХД надежно работают при температурах в холодных коридорах до +27°C. Учитывая климат Ленинградской области, где многолетняя среднесуточная температура даже в июле находится у отметки +20°C, такое решение казалось вполне работоспособным. Однако, учитывая температурный рекорд +37.8°C, зафиксированный в Ленинградской области в 2010 году, полагаться только на милость природы было нельзя. Кстати, «горячее лето 2018 года» подтвердило правоту этих расчетов.

Соответственно, в дата-центре «Дубровка 3», введенном в эксплуатацию в 2013 году, используется прямой фрикулинг с блоком дополнительного охлаждения (АБХМ, абсорбционная холодильная машина) на случай летней жары. Забортный воздух проходит через фильтры и далее проходит через теплообменник АБХМ. В холодные коридоры серверного зала воздух подается под фальшполом.



Как показал опыт эксплуатации, такое решение работает без включения АБХМ до температуры окружающей среды +21°C, что практически означает, что АБХМ функционирует только в летние месяцы. Таким образом, это достаточно энергоэффективное решение с PUE ~1.25.

Важным преимуществом АБХМ является экологическая безопасность, так как она работает на обычной воде без использования фреона. Среди недостатков АБХМ — гигантские внешние теплообменники, но учитывая размещение дата-центра «Дубровка 3» практически в чистом поле, это не играет особой роли с точки зрения размера площадей под оборудование АБХМ.

С 2013 года схема прямого фрикулинга с доохлаждением показала свою высокую эффективность и будет вновь реализована в строящемся дата-центре «Берзарина 2» в Москве. Однако ввиду ограниченного пространства, блок доохлаждения будет реализован с помощью адиабатической системы.

Пара слов о резервировании
Традиционно, системы охлаждения в дата-центрах уровня Tier III резервируются по схеме не ниже N+1. Это значит, что в запасе всегда должна быть как минимум одна установка охлаждения, которая вводится в действие при аварии или ремонте (плановом обслуживании) одной из задействованных систем. Так, в дата-центре «Дубровка 1» используется 4 вентиляционных машины для фрикулинга при потребности в 3-х, а в ЦОД «Дубровка 3» — три машины АБХМ, из которых одна машина выключена и находится в резерве, подготовленная к запуску.

К слову, Selectel в своих дата-центрах стремится по возможности ужесточить требование резервирования N+1, и иметь в запасе не одну, а две резервных системы охлаждения. К примеру, в ЦОД «Цветочная 1» и «Цветочная 2» имеется по 2 резервных кондиционера и чиллера, соответственно.


«Берзарина 2» — вскоре в строю
В ноябре 2018 года в эксплуатацию вводится новый дата-центр «Берзарина 2» в Москве, где впервые в практике компании будет применена схема фрикулинга с доохлаждением с помощью адиабатической системы. Если забортный воздух слишком теплый, — а температура в Москве в летнее время часто превышает 23°C, — то включается система адиабатического охлаждения.


Технология адиабатического охлаждения построена на распылении воды в виде мельчайших капель на пути воздушного потока, что позволяет охлаждать воздух за счет испарения воды. При использовании увлажнителей воздуха распылительного типа затраты электроэнергии на сам процесс охлаждения невелики, сравнительно с другими системами охлаждения. Сложная ячеистая структура смачиваемой преграды на пути подаваемого воздуха не позволяет микрокаплям воды попадать дальше в воздуховоды ЦОД. При этом уровень влажности остается в пределах допустимых значений для IT-оборудования.


В мире много интересных решений по системам охлаждения, которые позволяют экономить электроэнергию. Однако все новинки попробовать невозможно — требуется получить финансирование, провести проектирование, затем выполнить закупку оборудования, подготовку и ввод техники в эксплуатацию. Стадии поставки, монтажа, настройки и обкатки — это все очень продолжительные процедуры. Поэтому климатические системы после запуска работают минимум десятилетие и редко кардинально модернизируются в процессе эксплуатации уже построенного ЦОД. А интересные новинки приходят уже в новый ЦОД, в котором они прослужат свои 10-15 лет
подвел итог Кирилл Малеванов, технический директор Selectel.

Охлаждение ЦОД: песнь льда и пламени



Одним из самых частых вопросов, которые задают клиенты наших ЦОД, является вопрос об охлаждении оборудования. Сегодня мы подробно расскажем о том, как мы следим за температурой в серверных помещениях.

Современное серверное оборудование сильно зависит от температурного режима, в котором оно работает. Перегрев процессоров ведет, в лучшем случае, к замедлению работы (вступает в действие механизм защиты, так называемый «троттлинг»). В худшем случае, перегрев способен полностью вывести процессоры из строя.

Чрезмерное охлаждение оборудования также не идет ему на пользу. Любой материал имеет определенный коэффициент теплового расширения, и низкие температуры негативно влияют на чувствительные элементы оборудования.

Для того чтобы наглядно увидеть распределение тепла и холода, а также измерить скорость воздушных потоков, мы используем два специфических инструмента, о которых сейчас детально расскажем.

Используемые инструменты
Тепловизор
Из курса физики мы помним, что если любое тело имеет температуру выше −273,15 °C (абсолютный ноль), то оно излучает электромагнитное тепловое излучение. Это излучение и фиксирует тепловизор, превращая его в цветную картинку распределения температуры. Каждый цвет обозначает определенную температуру. Наиболее часто используемая гамма в тепловизорах — это красно-синий градиент. Красный цвет означает высокую температуру, а синий цвет — низкую.

Современные тепловизоры, используемые в наших дата-центрах, позволяют не просто измерить диапазон температур, в котором работает оборудование, но и узнать температуру заданной точки объекта с точностью до десятых долей градуса.


Одной из основных задач применения тепловизора в дата-центре является контроль за температурой на электроустановках под напряжением. Сразу вспоминается известный демотиватор:


В реальных условиях подобные ситуации недопустимы. С помощью тепловизора можно легко выявить элементы электроустановок, которые начинают аномально нагреваться. Например, можно выявить вентилятор источника бесперебойного питания, который скоро выйдет из строя и будет нуждаться в срочной замене.


Вот небольшой пример обнаружения проблемного участка в щите автоматов. Все работает, однако виден аномальный нагрев блока автоматов сверху и вводного автомата посередине.


Использование тепловизора позволяет выявить проблему еще на этапе возникновения, что снижает риск ее негативного воздействия на инфраструктуру, поэтому данный прибор незаменим для использования в дата-центре.

Анемометр
Теперь кратко расскажем о таком приборе, как анемометр. Это устройство для измерения скорости воздушного потока. Наиболее часто эти приборы используются в метеорологии для измерения скорости ветра, а также в строительстве для расчета объема воздуха в системах вентиляции и кондиционирования.

В дата-центрах чаще всего используются анемометры с крыльчатым зондом, поскольку они мобильны и удобны для использования. Зонд представляет собой легкую крыльчатку, которая начинает вращаться даже при самом легком движении воздуха. Выглядит такой прибор следующим образом.


Для чего нужен анемометр в дата-центре? В основном для контроля скорости воздушных потоков, создаваемых системами кондиционирования воздуха. Для эффективного охлаждения воздуха в серверных помещениях существуют заранее рассчитанные значения скорости, которые необходимо поддерживать. Именно эту задачу решают с помощью анемометра.

В наших дата-центрах используются анемометры с зондами и датчиками, которые прошли контрольную поверку, что позволяет точно оценивать такие параметры как измерение интенсивности воздушных потоков, а также измерять температуру и влажность воздуха.

Предположим, что обследование серверного помещения выявило недостаточную подачу холодного воздуха. С помощью анемометра можно выполнить контрольный замер воздушного потока и исправить проблему до того момента, как она начнет затрагивать оборудование.

Что происходит внутри сервера
Поговорим немного о том, почему так важно соблюдать температурный режим для серверного оборудования. Оговоримся сразу — это информация для людей, которые слабо себе представляют процессы, происходящие внутри такого оборудования.

Начнём с того, что любой сервер — это обычный мощный компьютер, но имеющий множество серьезных отличий:
  • все компоненты рассчитаны на круглосуточную работу в режиме 24/7/365;
  • охлаждение реализовано таким образом, чтобы сквозь корпус проходило максимальное количество воздуха;
  • радиаторы процессоров используются чаще всего пассивные, то есть без размещения на них отдельных вентиляторов;
  • корпус спроектирован таким образом, чтобы можно было быстро заменить любой компонент.
Современные серверы выделяют огромное количество тепла в процессе работы, но при этом для каждого компонента есть свои требования к температуре. Штатная система охлаждения таких серверов изначально проектируется на эксплуатацию в дата-центрах. Давайте посмотрим, как это выглядит изнутри.

Нагрев процессоров
Центральным элементом любого сервера является центральный процессор. Кремниевый кристалл с миллиардами крошечных транзисторов в процессе работы сильно нагревается. Стабильное охлаждение этого элемента в современных серверах обеспечивают пассивные радиаторы, сквозь которые проходит мощный поток воздуха.



Нагрев дисков
Вне зависимости от типа дисков, будь то твердотельные накопители или же классические жесткие диски, все они в большом количестве выделяют тепло. В первом случае греются чипы памяти, а во втором случае — диск разогревается двигателем шпинделя.

Нагрев оперативной памяти
Также, как и в случае с SSD-дисками, нагреваются чипы памяти. Некоторые виды оперативной памяти специально снабжаются штатными пассивными радиаторами для отвода избыточного тепла. Если доведется вскрывать такой сервер сразу после его выключения — рекомендуем быть осторожными. Температура радиаторов оперативной памяти легко может оставить ожог на пальцах.

Нагрев блоков питания
Задача любого блока питания — преобразовывать стандартные 220 вольт, 50 герц в постоянный ток различных напряжений для питания компонентов сервера. Побочным результатом таких преобразования является выделение тепла, что хорошо видно на следующем термоснимке.


Как видно на снимках, все компоненты нагреваются до значительных температур, поэтому предлагаем посмотреть каким образом дата-центры выводят это тепло и обеспечивают эффективное охлаждение оборудования.

Наши дата-центры используют схему циркуляции воздуха с формированием двух различных температурных зон:
  • «холодный коридор», куда подается воздух из кондиционеров;
  • «горячий коридор», куда попадает уже нагретый оборудованием воздух.
Вот как это выглядит, если посмотреть на эти зоны тепловизором.

Как выглядит «холодный коридор» ЦОД


Для наглядности снимок с фальшполом. Там, где плитки закрыты — стойки еще не введены в эксплуатацию. Это сделано специально, впоследствии все плитки пола были заменены на перфорированные.


Как выглядит «горячий коридор» ЦОД
В наших дата-центрах размещается большое количество серверного оборудования, работающего под разной нагрузкой. Этим объясняются подобные границы тепловых зон.


С левой стороны расположены серверные стойки, а с правой стороны можно заметить прецизионные кондиционеры системы охлаждения, которые и забирают на себя все выделяющееся тепло. Воздушный поток проходит сквозь теплообменник с хладоносителем, отдавая тепло, после чего возвращается обратно в «холодный коридор». Теплоноситель (40% раствор этиленгликоля) поступает в холодильную машину (чиллер), охлаждается и возвращается для нового цикла работы.



Когда в стойках установлено много одинакового оборудования по однотипной схеме, то это выглядит достаточно интересно.


Заключение
Организация охлаждения серверного оборудования встает перед любой компанией, которая владеет даже небольшим серверным помещением. Решение этой задачи несет за собой большие капитальные затраты на построение системы охлаждения. Помимо этого, такие системы необходимо регулярно обслуживать, что также требует постоянных вложений.

В наших дата-центрах система кондиционирования организована на профессиональном уровне, поэтому не стоит «изобретать велосипед» — достаточно всего лишь разместить у нас оборудование и сосредоточиться на действительно важных вопросах функционирования сервисов. Поддержание комфортной температуры и бесперебойное электропитание — это уже наша забота.