Как настроить VPS сервер для хостинга сайтов (скидка внутри)



Есть как минимум 2 способа приготовления сервера для хостинга сайтов:
  • Устанавливать / настраивать / отлаживать каждый из элементов LAMP (Linux+Apache+MySQL+PHP) руками
  • Поставить панель управления, которая сама все настроит и управлять всем хозяйством через web
Я обычно использую второй вариант, если нет жестких требований к проекту. Использование панели управления обычно позволяет:
  • Значительно сократить время развертывания LAMP (15-20 минут против половины дня)
  • Исключить ошибки первичной настройки (пути, права)
  • Упростить / ускорить рутинные операции (добавление доменов, пользователей)

Какую панель управления выбрать?
Тут тоже два пути:
  • Коммерческие (ISPmanager, cPanel, Plesk)
  • Бесплатные (VestaCP, CWP, Ajenty)
Список конечно шире, я перечислил те что попадаются на серверах наших клиентов чаще всего.

И сегодня я расскажу подробнее о панели управления хостингом VestaCP
Бесплатная. С открытым исходным кодом. Написана большей частью на PHP и Bash (можно при желании поправить что-нибудь).
Живет тут vestacp.com
Ветка на GitHub тут github.com/serghey-rodin/vesta

Что может?
  • Весь необходимый функционал в комплекте
  • Хостинг сайтов, почты, DNS
  • Управление бекапами, заданиями cron, службами на сервере
  • Веб-почта, phpmyadmin
  • Мониторинг ресурсов сервера

Для искушенных пользователей
  • CLI интерфейс
  • Многопользовательский режим
  • Автогенерация Let's Encrypt сертификтов
  • Nginx + php-fpm из коробки

Есть ложка дегтя: в комплекте нет встроенного в панель файлового менеджера. Потому либо (s)FTP либо покупать плагин файлового менеджера отдельно

Как посмотреть?
Тут есть demo demo.vestacp.com

Как установить?
Сама панель весьма не требовательна к ресурсам. Потому CloudVDS 1 или CloudVDS Custom c базовыми опциями (1 CPU + 1 Gb RAM + 20 Gb SSD) более чем подойдет.
Я обычно использую для VestaCP серверы с Debian 9 x64, хотя так же без проблем становится и на Centos 7 x64.
Для запуска установки нужно выполнить в консоли сервера (первая команда скачает, а вторая запустит установщик):
wget http://vestacp.com/pub/vst-install.sh
bash vst-install.sh

После запуска установщик спросит какое ПО ставить. Можно выбрать нужное, можно оставить по умолчанию.
А можно воспользоваться мастером на сайте в собрать строку запуска сразу с нужными опциями vestacp.com/install (внизу страницы)

Установка проходит в автоматическом режиме. Вопросов не задает. Через 10-15 в консоли покажет адрес / логин / пароль для входа.

Управление — интуитивное. Однако — если возникнут вопросы по работе с этой панелью — обращайтесь, обязательно помогу.

А еще до конца февраля действует промокод "vestacp". Он дает 50% скидку при заказе виртуального сервера CloudVDS 1 или CloudVDS Custom
Собрать свою уникальную конфигурацию сервера можно тут www.flynet.pro/ru/hosting/vds-vps-hosting

С уважением, Ковальчук Евгений
www.flynet.pro
Тел.: +7 (3822) 71-21-96
E-mail: kovalchuk@flynet.pro

Управление Kubernetes над Kubernetes было хорошей идеей

Управление Kubernetes над Kubernetes было хорошей идеей для компонентов без контроля состояния плоскости управления… но как насчет etcd?


В нашем предыдущем посте мы описали архитектуру Kubinception, как мы запускаем Kubernetes над Kubernetes для компонентов без состояний в плоскостях управления кластерами клиентов. Но как насчет компонента с состоянием, etcd?

Необходимость очевидна: каждый кластер клиентов должен иметь доступ к etcd, чтобы иметь возможность хранить и извлекать данные. Весь вопрос в том, где и как развернуть etcd, чтобы сделать его доступным для каждого кластера клиентов.

Самая простая идея не всегда хорошая
Первый подход заключается в простом следовании логике Kubinception: для каждого клиентского кластера развертывание кластера etcd в качестве модулей, работающих на административном кластере.


Этот полный подход Kubinception имеет преимущество быть простым, он кажется продолжением того, что мы делаем с компонентами без сохранения состояния. Но если взглянуть на него подробно, он показывает свои недостатки. Развертывание кластера etcd не так просто и просто, как развертывание без сохранения состояния и является критически важным для работы кластера, мы не могли просто обработать его вручную, нам был необходим автоматизированный подход для управления им на более высоком уровне. www.diycode.cc/projects/coreos/etcd-operator

Использование оператора
Мы были не единственными, кто думал, что сложность работы с развертыванием и работой кластера etcd на Kubernetes была чрезмерной, люди из CoreOS заметили это, и в 2016 году они выпустили элегантное решение проблемы: etcd оператор coreos.com/blog/introducing-the-etcd-operator.html

Оператор — это специальный контроллер, который расширяет API Kubernetes для простого создания, настройки и управления экземплярами сложных (часто распределенных) приложений с отслеживанием состояния в Kubernetes. Для записи, понятие оператора было введено CoreOS с оператором etcd.


Оператор etcd управляет кластерами etcd, развернутыми в Kubernetes, и автоматизирует рабочие задачи: создание, уничтожение, изменение размера, аварийное переключение, непрерывное обновление, резервное копирование
kubernetes.io

Как и в предыдущем решении, кластер etcd для каждого клиентского кластера развертывается в качестве модулей в административном кластере. По умолчанию оператор etcd развертывает кластер etcd, используя локальное непостоянное хранилище для каждого модуля etcd. Это означает, что если все модули умирают (маловероятно) или перепланируются и появляются в другом узле (гораздо более вероятно), мы можем потерять данные etcd. А без этого заказчик Kubernetes оказывается в кирпиче.

Оператор etcd может быть настроен на использование постоянных томов (PV) для хранения данных, поэтому теоретически проблема была решена. Теоретически, поскольку управление томами не было достаточно зрелым, когда мы тестировали его, и если модуль etcd был убит и переназначен, новый модуль не смог получить свои данные на PV. Таким образом, риск полной потери кворума и блокирования клиентского кластера все еще был у оператора etcd.
kubernetes.io/docs/concepts/storage/persistent-volumes/

Короче говоря, мы немного поработали с оператором etcd и обнаружили, что он недостаточно зрел для нашего использования.

StatefulSet
Помимо оператора, другим решением было использование StatefulSet, своего рода распределенного развертывания, хорошо подходящего для управления распределенными приложениями с отслеживанием состояния.
kubernetes.io/docs/concepts/workloads/controllers/statefulset/
kubernetes.io/docs/concepts/workloads/controllers/deployment/
github.com/helm/charts/tree/master/incubator/etcd

Существует официальная диаграмма ETCD Helm, которая позволяет развертывать кластеры ETCD в виде StafefulSets, которая обменивает некоторую гибкость оператора и удобство для пользователя на более надежное управление PV, которое гарантирует, что перепланированный модуль etcd будет получать свои данные.


Etcd StatefulSet менее удобен, чем оператор etcd, поскольку он не предлагает простого API для операций, таких как масштабирование, отработка отказа, последовательное обновление или резервное копирование. Взамен вы получаете некоторые реальные улучшения в управлении PV. StatefulSet поддерживает липкую идентификацию для каждой записи etcd, и этот постоянный идентификатор сохраняется при любом перепланировании, что позволяет просто связать его с PV.

Система настолько устойчива, что даже если мы потеряем все модули etcd, когда Kubernetes перепланирует их, они найдут свои данные, и кластер продолжит работать без проблем.

Постоянные объемы, задержка и простой расчет затрат
Etcd StatefulSet казался хорошим решением… пока мы не начали интенсивно его использовать. В etcd StatefulSet используются PV, то есть тома сетевого хранилища. И т.д.DD довольно чувствительны к задержке в сети, ее производительность сильно ухудшается, когда сталкивается с задержкой.

Даже если задержку можно держать под контролем (и это очень важно), чем больше мы думаем об этой идее, тем больше она кажется дорогостоящим решением. Для каждого клиентского кластера нам нужно будет развернуть три модуля (фактически удваивая количество модулей) и три связанных PV, это плохо масштабируется для управляемой службы.

В сервисе OVH Managed Kubernetes мы выставляем счета нашим клиентам в соответствии с количеством рабочих узлов, которые они используют, то есть плоскость управления свободна. Это означает, что для обеспечения конкурентоспособности сервиса важно держать под контролем ресурсы, потребляемые плоскостями управления, поэтому нет необходимости удваивать количество пакетов с помощью etcd.

С Kubinception мы пытались мыслить нестандартно, казалось, что для etcd нам нужно было выбраться из этой коробки еще раз.

Мультитенантный кластер etcd
Если мы не хотели развертывать etcd внутри Kubernetes, альтернативой было бы развернуть его снаружи. Мы решили развернуть мультитенантный кластер etcd на выделенных серверах. Все клиентские кластеры будут использовать один и тот же ETCD, каждый сервер API получает свое место в этом мультитенантном кластере etcd.



Благодаря такому решению устойчивость обеспечивается обычными механизмами etcd, проблемы с задержкой не возникает, поскольку данные находятся на локальном диске каждого узла etcd, а количество модулей остается под контролем, поэтому оно решает основные проблемы, которые у нас возникли с другими решение. Компромисс здесь заключается в том, что нам нужно установить и использовать этот внешний кластер etcd, а также управлять контролем доступа, чтобы каждый сервер API имел доступ только к своим собственным данным.

Что дальше?
В следующих статьях из серии Kubernetes мы углубимся в другие аспекты построения OVH Managed Kubernetes и дадим клавиатуру некоторым из наших бета-клиентов, чтобы рассказать о своем опыте использования сервиса.

На следующей неделе давайте сосредоточимся на другой теме, мы разберемся с языком запросов TSL, и почему мы его создали и открыли

How we’ve updated 850 vCenter in 4 weeks



Управление выпусками на корпоративном программном обеспечении — непростая задача: обновлять инфраструктуры, справляться со страхом, что редактор программного обеспечения не будет поддерживаться, обновлять лицензии для обеспечения совместимости с новыми версиями и принимать все меры предосторожности для отката, если что-то не работает, как ожидается…

С OVH Private Cloud мы избавим вас от этой сложности. Мы справляемся с этим дорогостоящим и напряженным аспектом, чтобы вы могли сосредоточиться на своем бизнесе и своем производстве.

Но это не значит, что это не проблема для нас.

Обновление сотен vSphere 5.5 до 6.0
vSphere является ведущим продуктом предложения Private Cloud, входящего в пакет SDDC, предоставляемый VMware. vSphere — это программное обеспечение, позволяющее пользователю управлять своими хостами, хранилищем, сетью… С помощью клиента он может создавать кластеры с этими ресурсами для надежного, стабильного и высокодоступного хостинга.

С сентября 2018 года vSphere (vCenter, ESXi…) версии 5.5 прекращает поддержку VMware. Владея безопасностью и стабильностью инфраструктур частного облака, мы начали процессы обновления для всех vCenter.


У нас было около 850 vCenter в версии 5.5 в производстве, что представляет собой значительную работу по обновлению всего, если это было сделано вручную. Но в OVH у нас есть общий лейтмотив: автоматизировать все действия человека для повышения эффективности и избежать ошибок.

Вот так нам удалось обновить 850 vCenter с версии 5.5 до 6.0 за 4 недели. Другими словами, более 210 vCenter в неделю, 30 vCenter в день, с командой из 10 человек, которые следят за этим обслуживанием в фоновом режиме, не оказывая никакого влияния на производительность клиентов.


Наша команда разработчиков разработала и создала набор сценариев (которые мы называем внутренне «роботом») для автоматизации обновлений vCenter несколько лет назад. Этот робот сильно развился с момента появления продукта Private Cloud и следует за нами с версии 4.1 до 6.5, которая находится в стадии разработки.

Мы столкнулись с множеством проблем при настройке автоматических действий, таких как повреждение базы данных, сервисы, не интегрированные в единый вход (им было очень сложно управлять в версии 5.0 и 5.1), а также отпечаток, который не был обновлен для всех сервисов., очень трудно устранить неполадки и воспроизвести его. У нас даже были некоторые операционные системы, которые блокировали обновление программного обеспечения, делая все жестоко остановленным.

Наши рабочие команды много работали со службой поддержки VMware, чтобы найти обходные пути для возникающих проблем и автоматизировать их с помощью команды разработчиков. Это привело к созданию VMware KB, чтобы уведомлять клиентов о проблемах, с которыми мы столкнулись, и которые были признаны VMware ошибками. Команды провели много ночей, чтобы обеспечить минимальное влияние доступности vSphere для клиентов.

Обновление апгрейдер: новая версия робота
Все эти проблемы убеждают нас действовать по двум причинам. Во-первых, добавьте новую версию робота обновления, создавая меньше ошибок, обеспечивая более быстрое выполнение с точки зрения клиента, более надежный и надежный. Во-вторых, мы отказались от процесса обновления по умолчанию, используя обновление программного обеспечения VMware, для решения, в котором мы начинаем с недавно установленного обновленного стека vCenter, на обновленной виртуальной машине, а затем повторно подключаем все компоненты (база данных, NSX…) к этому новому vCenter.

Это значительно улучшило стабильность нашего сервиса, поскольку мы гарантируем, что у нас есть новая исправная и обновленная база для vCenter. Все это резко сократило количество вмешательств наших SRE в инфраструктуру частного облака.

Если мы подведем итоги наших действий: мы проверяем, что служба работает, прежде чем что-то делать, то мы готовим все наши сохранения и снимки, чтобы подготовить обновление. Как только это будет сделано, мы развернем нашу автоматизацию, чтобы запустить обновление. Каждый шаг включает в себя автоматическую проверку, чтобы убедиться, что все действия были выполнены.


Мы создали этого робота обновления в роботе-оркестраторе, который, согласно введенным параметрам, будет создавать задачи обновления для каждого частного облака, связанного с техническим обслуживанием, и планировать его на автоматические даты, в течение как минимум 72 часов с момента рассмотрения для клиента, но также количество обновлений, запущенных по часам, и критических периодов (таких как Черная пятница или Зимние распродажи). Клиенты могут перепланировать свои обновления с помощью диспетчера в части «Операции», чтобы выполнить обслуживание в более удобное время для их производства.


Наши команды SRE следят за роботами и следят за тем, чтобы обслуживание выполнялось, как и ожидалось, в запланированное время.


Подводя итог, мы перешли от необходимости автоматизации операции обновления vCenter, которая должна занимать не менее 12 часов на vCenter, к первой версии автоматизации, которая позволяет выполнить эту операцию за 4 часа, но с слишком высокий уровень ошибок (20%) из-за повторяющихся ошибок, которые должны были быть исправлены SRE вручную. Теперь вторая версия является надежной, надежной и стабильной, избегая известных проблем и создавая только редкие и уникальные проблемы, которые будут исправлены в автоматизации за кураторский проход.

Что дальше?
В последующие месяцы последуют другие виды обслуживания, обновления хоста с версии 5.5 до 6.0, обновления нашего варианта резервного копирования Veeam с версии 8.0 до 9.5, обновления нашего варианта Zerto с 5.0 до 5.5 и множество других обновлений наших внутренних машин. обеспечить процедуру аудита PCI-DSS.

Мы будем сохранять ту же прозрачность и общение, прислушиваясь к вашим отзывам и улучшая нашу систему обслуживания.

Selectel признан самым быстрорастущим облачным провайдером



Selectel, провайдер ИТ-инфраструктурных решений для бизнеса, в 2018 году развивался успешнее других игроков российского рынка IaaS. Такой вывод сделали эксперты iKS-Consulting в отчете «Облачный провайдинг 2018-2022: экономика, стратегии, бизнес-модели».

Selectel возглавил рейтинг наиболее динамично развивающихся провайдеров IaaS (Infrastructure-as-a-service, инфраструктура как услуга). Места в нем распределялись на основании темпов прироста выручки от облачных инфраструктурных сервисов в 2018 году.

Павел Алимов, генеральный директор Selectel:
Мы работаем на одном из самых высококонкурентных сегментов российской экономики. Поэтому для нас особенно приятно, что эксперты iKS отметили именно Selectel как лидера по росту. При этом, за последние 5 лет среднегодовой темп роста „облачной“ выручки Selectel превысил средний показатель по рынку в несколько раз

По оценкам iKS-Consulting, объем рынка IaaS в 2018 году составил 17.4 млрд рублей, что на 33% больше показателя 2017 года. В ТОП-5 его крупнейших игроков помимо Selectel вошли «Ростелеком», DataLine, «Сервионика» и «КРОК».

Эксперты iKS-Consulting прогнозируют, что в 2022 году объем рынка облачных услуг в России превысит 155 млрд рублей. Доля этого рынка, приходящаяся на IaaS увеличиться с 25% в 2018 году до 31% в 2022 году.

DataCenter Scaleway DC5 (часть 5)



Это помещение для проведения испытаний компьютерного оборудования в различных погодных ситуациях, искусственно воссозданного с помощью ПЛК, короче говоря, исследований и разработок для доведения оборудования до его пределов.





Читать дальше →

DataCenter Scaleway DC5 (часть 4)



DC5 также является местом, где собираются различные серверные массивы Scaleway, которые отправляются в различные центры обработки данных в Иль-де-Франсе и Амстердаме.

Вот несколько пустых ягод, ожидающих на сайте:


А вот несколько поддонов серверов:


Запас серверов:


Запас мелких компонентов жесткие диски, SSD, SDRAM DDR4, SFP +, XFP, QSFP



Читать дальше →

DataCenter Scaleway DC5 (часть 3)



На этой картинке спереди DC5 есть 3 камеры:


Будущая док-станция для доставки DC5:


Scaleway установил ограничитель потока воды для подключения к канализации: он не может превышать 5 литров в секунду. В случае штормов бассейн служит буфером и временно наполняет, затем вода попадает в канализацию со скоростью 5 литров в секунду. Это позволяет сдерживать воду, возникающую в результате сильных гроз, и не насыщать канализационные канализационные системы.

Scaleway установил сепаратор углеводородов: возможное загрязнение углеводородов также будет отфильтровано и вызовет тревогу в центре наблюдения.


Генераторы расположены в задней части здания, справа на фотографии, в той части здания, которая была снесена и перестроена.

Небольшая комната, расположенная слева от фотографии, является комнатой для перекачки и раздачи мазута. (другой планируется на другой стороне здания)
Большая белая комната перед центром обработки данных и местный насос / обменник для воды со льдом.


На земле бетонный желоб, закрытый металлическими люками, содержит трубы для подачи топлива 26 генераторов (сегодня установлено только два, а третий поставляется).


Установка очень проста: в каждой комнате есть два выделенных трансформатора на 20 000 Вольт на 1250 кВА, два выделенных генератора на 1315 кВт / 1650 кВА, два выделенных TGBT, четыре выделенных инвертора на 500 кВА, 16 выделенных аккумуляторных отводов


Это группа питания низкого напряжения (400 вольт).Это то же самое, что и Scaleway DC3 работает в течение многих лет и прошел сертификацию институт Tier3 безотказной работу, требующее производство генераторов (не чрезвычайную ситуацию ) может работать без прерывания обслуживания при полной нагрузке и до бесконечности.
DC5 особенность: они могут синхронизировать с сетью Enedis.

Это дает много преимуществ:
  • Можно сделать нагрузочное тестирование без прекращения электропитания (зная, что маршрут не спасен, это может повредить разрез для тестовой группы): Генератор подает электросеть без отключить ENEDIS.
  • Зимой можно стирать потребление центра обработки данных. В периоды пикового спроса в зимний период, RTE может сделать большой чек клиентов, которые в состоянии очистить их потребление (некоторые промышленные потребители электроэнергии, такие как литейном прекратить к нему DC5 просто вопрос запуска генераторов размера, чтобы работать в непрерывном производстве)

После отключения питания, центр обработки данных не сразу вернуться к сети с временем отсечки коромысла: Блоки питания обеспечивает стабильность, а затем синхронизировать с сетью. После правильной синхронизации, нагрузка передается к сети ENEDIS ИБП и генераторы остановки. (Таким образом, один разрез вместо двух, что представляет большой интерес, так как маршрут не волнистый)

Читать дальше →

DataCenter Scaleway DC5 (часть 2)



DC5 имеет запас 234 000 литров воды для осмоса, разделенный на два подземных резервуара по 117 кубических метров (117 000 литров). Это дает не менее 10 часов автономии (экстремальный случай с наружной температурой 40 градусов Цельсия и 12 серверными комнатами при полной нагрузке).

Зачем хранить столько воды обратного осмоса? Справиться с разрывом воды или обратным осмосом.

ПЛК предназначен для хранения воды для осмоса и распределения воды в адиабатических средах.


ПЛК позволяет устанавливать пороги предупреждения (слишком полный, низкий уровень тревоги), а также порог, при котором контроллер запускает осмос для заполнения резервуара и тот, где он останавливает обратный осмос.


Со временем будет построено 12 компьютерных залов, все идентичные.
Установленная средняя электрическая мощность составляет 6 кВт на отсек, так что это очень высокая плотность.

Комната состоит из 4 рядов отсеков, расположенных вплотную: два горячих прохода и три холодных прохода.

С фото легче показать: ряды отсеков не закончены, но есть два горячих прохода, временно разделенных для ввода в эксплуатацию, в то время как остальная часть комнаты представляет собой холодные проходы (мы находимся в системе сдерживание горячего воздуха)


Вот угол комнаты, готовой к приему первых компьютерных отсеков, присутствует только рама вокруг будущей двери горячего прохода. Серверы не подключены к сети, они просто предназначены для загрузки и тестирования различных сценариев Scaleway, чтобы узнать среди прочего: потеря сектора ENEDIS, восстановление на генераторах, потеря инвертора, потеря ПЛК GE и т.д…


Свежий воздух подается через решетки с обеих сторон светильника для центрального холодного прохода:


Для холодных проходов, расположенных по бокам комнаты, присутствует только одна серия решеток для подачи свежего воздуха:


Металлическая труба, видимая на предыдущем рисунке, несет воздух, но воздух под высоким давлением, для пневматических инструментов техников.

Вот один из воздухозаборников для пневматического инструмента:

Читать дальше →

Изменение стоимости продления архивных тарифов хостинга

Уважаемый клиент!
В связи с изменением стоимости продления архивных услуг хостинга по тарифам «101», «201», «301» и «1С-Битрикс» с 20 февраля 2019 года вступают в действие обновленные версии приложений к договору. Документы опубликованы на сайте.
www.nic.ru/news/2019/0208-izmenenie-stoimosti-prodleniya-arkhivnykh-tarifov-khostinga

DataCenter Scaleway DC5 (часть 1)




Дата-центр Scaleway DC5 расположен в промышленной зоне Saint-Ouen-l'Aumône (95), небольшого городка на северо-западе Иль-де-Франс. Это бывший почтовый сортировочный центр, который был куплен Scaleway по низкой цене. Как и почти во всех почтовых сортировочных центрах, на площадке имеется 4G SFR-антенна, здесь это не исключение, и Scaleway сохранил ее. Вполне вероятно, что в будущем появится антенна Free Mobile.



Мы часто говорим о «зеленом центре данных», этот термин включает в себя два типа центров обработки данных:
  • Те, кто использует тепло, генерируемое центром обработки данных, для отопления близлежащих домов или производства горячей воды. Для этого они обычно используют стандартные кондиционеры и поэтому имеют высокий CPUE.
  • Те, кто использует свободное охлаждение. Идея состоит в том, чтобы использовать теплоемкость воздуха для охлаждения.


В категории естественного охлаждения снова выделяются два больших семейства:
  • Непрямое естественное охлаждение, как для DC3. Серверы охлаждают не наружный воздух, а воздух, который ограничивает потребление энергии компрессорами холодильной установки. Существует несколько типов косвенного естественного охлаждения, некоторые из которых используют адиабатическое охлаждение.
  • Прямое охлаждение. Здесь наружный воздух поступает в центр обработки данных для непосредственного охлаждения серверов.


Это сложно, потому что есть несколько типов центров обработки данных, использующих прямое естественное охлаждение:
  • Тот, кто использует естественное охлаждение без какой-либо системы для охлаждения воздуха: он очень недорогой (некоторые называют его «хижиной на дне сада» на этом форуме), но он не позволяет иметь воздух летом прохладно: если летом 40 ° C, воздух, поступающий на серверы, уже находится при 40 ° C. Хуже того, существует сильная разница в температуре между днем ​​и ночью, что ухудшает срок службы серверов. Этот тип свободного охлаждения может быть связан или не связан с водяным охлаждением, чтобы лучше охлаждать самые горячие элементы серверов. Поэтому он очень экономичен в электроэнергии, но не позволяет обеспечить высокую надежность оборудования, размещенного во времени.
  • Тот, который использует естественное охлаждение с традиционным холодильным агрегатом и автоматами для поддержания стабильной температуры воздуха на входе официантов. Это случай дата-центра Maxnod. Когда снаружи меньше 28 ° C, это естественное охлаждение, когда выше 28 ° C, наружный воздух охлаждается перед вводом в центр обработки данных. Зимой автоматов забирают часть воздуха из дата-центра, чтобы поддерживать стабильную температуру 28 ° С. Такой тип установки позволяет поддерживать стабильную температуру 365 дней / год, что важно для долговечности серверов.
  • Наконец, есть прямое охлаждение ЦОД с адиабатическим охлаждением. Охлаждение воздуха основано на испарении воды: горячий и сухой воздух проходит через влажный теплообменник, здесь это адиабатическая среда. Энергия, необходимая для испарения воды, извлекается из воздуха, который охлаждается за счет рассеивания калорий. Опять же, существует несколько типов адиабатических центров обработки данных. Некоторые люди потребляют много воды и не знают, как поддерживать стабильную температуру. DC5 — это крем для адиабатического центра обработки данных с низким потреблением воды и стабильной температурой 30 ° C ± 1 ° C в холодных проходах, при этом не требуются терминалы кондиционирования воздуха. Отчет предназначен для объяснения того, как Scaleway смог реализовать эту технику. Обратите внимание, что адиабатическое охлаждение может не работать, когда горячий воздух очень влажный, что относительно редко.

Внимание только к серверным комнатам DC5 охлаждается адиабатическим процессом. Технические помещения и местные операторы охлаждаются прямым естественным охлаждением с помощью терминалов кондиционирования воздуха и традиционных холодильных установок. Но даже здесь Scaleway вводит новшества с огромным хранилищем льда для хранения энергии, необходимой для охлаждения этих помещений. Если серверы отлично работают при 30 ° C, срок службы батарей сокращается, поэтому следует выбрать Scaleway для поддержания их при более низкой температуре, то есть 25°C ± 2°C.

В этом центре обработки данных каждый второй этаж является серверной комнатой, а каждый второй этаж пуст, предназначенный только для перевозки больших объемов воздуха. Свежий воздух впрыскивается в холодные проходы серверных комнат, а затем горячий воздух извлекается из горячих проходов.

Дождевые экраны, показанные на фотографии ниже (перед DC5), позволяют пропускать воздух, избегая проникновения дождевой воды и летучих веществ.


Вот внутренний вид спереди, эти помещения еще не разработаны, это будущие транши DC5: на этом сайте запланировано всего 12 комнат (сегодня реализована только одна комната)


DC5 состоит из 12 независимых серверных комнат (по 1,8 МВт ИТ-мощности каждая, каждая со своими 2 TGBT, 2 трансформаторами, 2 генераторами). Строительство серверной комнаты, включая тестирование и ввод в эксплуатацию, осуществляется за 7 месяцев.


Вот фото воздухозаборника для первой комнаты. Отмечено, что моторизованные регистры были добавлены для регулирования и поддержания стабильной температуры выдувания снаружи ниже 30 ° C (чем холоднее, тем больше они закрываются и наоборот). Слева, на фото, мы предполагаем подводные камни.


Сзади установлены звуковые ловушки (как для продуваемого, так и для отверженного воздуха), что позволит центру обработки данных быть очень тихим (у некоторых возникли проблемы, когда они поселились в жилом районе — здесь Scaleway предпринял все меры предосторожности для соблюдения действующих норм).


Читать дальше →