vds на тест




Рады сообщить о снижении цен на SSD VDS в московской локации. Появилась посуточная оплата с возможностью взять на тест любой тариф от 25 руб./день.

Тарифы CloudVDS это:
  • Моментальная активация
  • Дата-центр: Москва, DataLine Nord4 (Ростелеком), официально сертифицированный TIER III.
  • Трафик: Не ограничен.
  • Панель управления: VMmanager 6.
  • Виртуализация: KVM
  • Любая ОС (Linux, Windows 10, Windows Server, FreeBSD) в два клика.
Посмотреть новые тарифы → coopertino.ru/vds-vps-virtual-server/

Если у Вас остались вопросы, мы всегда рады ответить в онлайн-чате на сайте coopertino.ru/

Запустили услугу по защите электронной почты



Отфильтруем входящий почтовый трафик и проверим его на спам, вирусы и фишинг. На ваши серверы отдадим уже очищенный.

Здесь рассказываем подробнее и даем бесплатно потестить:
www.dtln.ru/uslugi/security/mailsecure

Возгорание в дата-центре OST



5 июня около 14.00 на улице Боровая произошло возгорание кровли дата-центра OST. Для тушения пожара на место происшествия прибыло более 10 пожарных расчетов, так как площадь возгорания составила около 200 кв. м.
Система оповещения сработала в штатном режиме. Все сотрудники компании и клиенты, работавшие на момент начала пожара в дата-центре, были своевременно эвакуированы. Пострадавших нет.

В ходе пожара были повреждены некоторые фреонопроводы, находящиеся на крыше вблизи очага возгорания. В результате пострадала система кондиционирования одного из залов OST-2. Во избежание потерь клиентского оборудования по перегреву, руководством DataLine было принято решение о частичном отключении оборудования в зале. Все клиенты, чье оборудование размещалось в данном зале, были оперативно оповещены и по возможности переведены на резервные площадки. Оборудование некоторых клиентов было перенесено в другие залы дата-центра OST. Сам машинный зал не был задет огнем и не пострадал от воды при тушении.
Восстановительные работы системы кондиционирования стартовали сразу после ликвидации пожара в 16.45.
К 4.45 утра зал заработал в штатном режиме.

По предварительной версии, причиной пожара стало короткое замыкание в кабеле внешнего блока системы кондиционирования OST-2.

В настоящий момент компания DataLine работает в обычном режиме, за исключением службы капитального строительства, которая уже приступила к восстановительным работам на крыше здания.

Возгорание в дата-центре OST | 05.06.2019

Около 14.00 на улице Боровая произошло возгорание кровли дата-центра OST. На место проишествия прибыло 8 пожарных расчетов. Все сотрудники компании и клиенты, работавшие на тот момент в дата-центре, были эвакуированы.



В 16:45 пожар был полностью ликвидирован.

Три истории модернизации в дата-центре

В этом году – 10 лет, как запущен наш первый ЦОД OST-1. За это время мы с коллегами из службы эксплуатации и капитального строительства успели провести не одну модернизацию инженерной инфраструктуры дата-центра. Сегодня расскажу про самые интересные случаи.



200-тонный кран устанавливает новый чиллер Stulz на раму. Модернизация системы холодоснабжения системы дата-центра OST-1 в 2015 году.

Дата-центр – живой организм, он растет, меняется, ломается:) Все, что можно отнести к модернизации, я условно делю на:
  • плановые замены и ремонты. Оборудование морально устаревает, истекает его срок эксплуатации. Такие работы мы бюджетируем, планируем и делаем без спешки, когда нам удобно (например, полный апргейд «внутренностей» ИБП или замену выработавших свой срок аккумуляторных батарей).
  • ошибки проектирования. По заветам Uptime, все должно расходоваться и заканчиваться одновременно. Из-за неправильного проектирования баланс «холод – электричество – место» может нарушиться, например: есть куда ставить стойки, но зал уже не тянет по электричеству или кондиционированию. Самое неприятное с этими ошибками то, что всплывают они не сразу, а когда ЦОД приближается к проектной мощности.
  • аварии. Бывает, что оборудование повреждается окончательно, бесповоротно и неожиданно, и его нужно менять.

На плановых заменах/ремонтах останавливаться не буду. Там практически все в нашей власти. Расскажу три истории об ошибках проектирования и послеаварийной модернизации.

История 1. Машинному залу не хватало холода
Это история про один из наших первых залов на Боровой. Он до сих пор работает. Зал с проектной мощностью 80 стоек по 5 кВт.

По мере заполнения зала перестало хватать холода: температура в холодных коридорах была выше, чем надо, постоянно возникали локальные перегревы. Это уже потом, с высоты своего опыта, мы поняли, что наделали ошибок в проектировании, и из-за этого страдало кондиционирование.




Какой-то «волшебной таблетки» от этих проблем мы тогда не видели, поэтому решили действовать поэтапно и по всем фронтам.

Сначала мы проверили, все ли оборудование установлено правильно и стоят ли заглушки в свободных юнитах. Мы также перепроверили раскладку перфорированных плиток и убрали лишние, установили дополнительные направляющие воздуха под фальшполом. Постарались найти и заделать все дырки, куда мог убежать холодный воздух. Советую вам тоже проверить, что у вас между кондиционером и стеной. Зазор в 5-7 см – это уже много.

Вот такой результат нам дало простое размещение заглушек в свободных юнитах.

Стало лучше, но недостаточно хорошо. Тогда мы решили изолировать холодные коридоры. Построили крышу, двери из поликарбоната. Получилось дешево и сердито. В результате мы избавились от паразитного смешения горячего и холодного воздуха и повысили КПД системы холодоснабжения.


Изолированный холодный коридор того же зала.

Мы понимали, что этого хватит ненадолго. С ростом ИТ-нагрузки нехватка мощности снова даст о себе знать.

Эту проблему попытались решить добавлением фреонового кондиционера, хотя зал работал на гликолевом охлаждении. Нас очень заботили габариты кондиционера (пройдет ли он в дверь, хватит ли угла поворота), поэтому подбирали модель с возможностью частичной разборки. Кондиционер установили не со стороны горячего коридора, как обычно это делают, а куда смогли втиснуть. Это добавило нам 80 киловатт по охлаждению.

Вот тот самый «гуттаперчевый» кондиционер Emerson.

Вся эта история оказалось непростой: нужно было придумать, как подвести фреоновые трассы до внешних блоков, как подвести к этим кондиционерам электричество, куда поставить внешние блоки кондиционера. Все это в работающем зале.

Просто для понимания, насколько там мало места.

После всех этих манипуляций мы избавились от локальных перегревов, температура распределялась равномерно в холодных и горячих коридорах. Получилось увеличить мощность зала и размещать в нем заявленные пятикиловаттные стойки.

Мораль этой истории в том, что не стоит бояться решать проблему мелкими шажками. Само по себе каждое из действий может показаться (и нам тогда казалось) неэффективным, но суммарно это дает результат.

История 2. В машинном зале закончились кондиционирование и энергоснабжение
Под клиента был спроектирован машинный зал на 100 стоек по 5 кВт. Проектная ширина стойки 800 мм, в каждом ряду 10 стоек. Потом клиент передумал заезжать, и зал сдавали на общих основаниях. В жизни стойки шириной 800 мм нужны в основном под сетевое оборудование, для всего остального нужны шестисотые. В итоге вместо 10 стоек в ряду у нас получилось 13, и еще оставалось место. А вот электричества и холода уже не хватало.

В ходе модернизации выделили новое помещение под два дополнительных ИБП по 300 кВт.

В зале появились дополнительные распределительные щиты.


Новую мощность нужно было распределить равномерно. Чтобы разделить новые и старые лучи, под фальшполом проложили отдельные кабельные лотки. Часть работающего ИТ-оборудования переключили на новые распределительные щиты поочередным переключением каждого луча питания.

Чтобы решить вопрос с нехваткой холода, поставили 1 дополнительный кондиционер на 100 кВт холода.


Во время такелажа, установки и пусконаладки всего оборудования зал продолжал работать в штатном режиме. Это было самым сложным моментом в проекте.

В результате модернизации мы добавили залу электричества и холода на еще 30 стоек по 5 кВт.

Проектная мощность и емкость зала увеличена на 30%.

История 3. Про замену чиллеров

Немного предыстории. Началось все в 2010 году, когда 3 чиллера дата-центра OST сильно пострадали во время урагана. Тогда, чтобы выжить, пришлось гонять чиллеры без защиты несколько суток, и компрессоры быстро загнулись. Сначала меняли их.

ИТ-нагрузка росла по мере заполнения ЦОД, а чиллеры Emicon так и не вышли на заявленную холодильную мощность. В 2012-м поставили дополнительный чиллер Hiref в ту же гидравлическую схему. Так мы прожили еще три года.

Со временем у чиллеров Emicon обострились эксплуатационные проблемы. Их мощности не хватало, поэтому в жару приходилось поливать водой из керхеров. С годами теплообменники обросли известковыми отложениями. В зазор между теплообменником фрикулинга и фреоновым конденсатором набивался тополиный пух и прочий мусор, который не удалишь из-за специфики строения теплообменников. Там образовался настоящий валенок, который не пропускал нормально воздух.

В 2015 году мы как раз закупали партию чиллеров Stulz для NORD-4. Решили под это дело заменить два из трех чиллеров Emicon. Теперь подробности.

Установка дополнительного чиллера Hiref без доустановки насосов. ИТ-нагрузка росла, а КПД чиллеров, пострадавших в урагане, падал. Летом резерва едва хватало. Мы решили добавить еще один чиллер, чтобы увеличить их суммарную мощность. На время работ система холодоснабжения должна была продолжать функционировать. Самое сложное в этой операции – организация гликолевого контура. Мы сделали гликолевую обвязку: от каждого чиллера было отведено гликолевое кольцо к новому чиллеру. Чиллеры поочередно выводили из эксплуатации, и подводили к новому чиллеру гликолевую трубу.


Фрагмент принципиальной схемы гидравлики. На ней видно, что от каждого из трех чиллеров были сделаны ответвления к новому чиллеру.

Основная задача этого чиллера – поддержка системы холодоснабжения летом. Благодаря Hiref у нас появился гарантированный резерв N+1 в жаркие месяцы. Но поврежденные в урагане чиллеры потихоньку начали издыхать, и нам пришлось задуматься об их замене.

Тот самый «летний» чиллер Hiref.

Замена Emicon на Stulz. Такие замены лучше делать осенью или весной: летом без резерва совсем страшно, а зимой просто неприятно проводить работы. Операцию запланировали на февраль/март, но готовиться начали еще в октябре.

За эти подготовительные месяцы мы проложили новые кабели, варили участки трубопровода, разработали план подъезда машины с оборудованием (на заднем дворе у нас тесно), очистили территорию для подъезда крана. Чиллеры предстояло менять в работающем дата-центре, и примерно на 1,5 суток он оставался без резервного чиллера. На этапе подготовки мы провели тесты, чтобы понимать, как дата-центр будет чувствовать себя без резерва, напридумывали различные ситуации, когда что-то могло пойти не так во время работ (например, длительный блэкаут во время замены чиллеров), и разработали план действий. Вот краткая хроника тех работ.
В ночь приехал чиллер. После успешного заезда крана на территорию дата-центра можно было начинать отключать старый чиллер.


Старый чиллер еще на месте, пока ведутся подготовительные работы. Варим раму для нового чиллера.

Потом к непосредственному месту работ должна была подъехать машина с чиллером. У нас там, мягко говоря, тесновато. Пришлось попотеть, чтобы вписаться во все эти сложные повороты в ограниченном пространстве.



Разобранный и распиленный пополам чиллер демонтировали.


Старый и новый чиллер отличаются размерами. Ушло еще какое-то время на подготовку металлической рамы. Дело осталось за подъемом и установкой чиллера.


На заднем плане фото видно, что параллельно довариваются участки гликолевого контура для нового чиллера.



После установки на раму монтируется вся гидравлика, чиллер подключают к электропитанию. В ночь делается опрессовка. На следующий день проходит пусконаладка и подключение к системе мониторинга.

На всю операцию ушло меньше двух суток: утром старый чиллер выключили, в конце следующего дня включили уже новый чиллер.

Через две недели меняли второй чиллер. Казалось бы, нужно было просто все сделать по отработанной схеме, но что-то пошло не так. Всю ночь шел снег. Сначала пришлось потратить время на расчистку территории, чтобы кран смог заехать. Начали демонтировать старый чиллер, как в двухстах метрах от нас ломается машина с новым чиллером. Точка невозврата уже пройдена, а у фуры сломался поворотный механизм колес прицепа (пульт управления от него).

Отремонтировать на месте не получилось, ездили за дополнительным пультом, который в субботу чудом оказался в офисе этой компании. С пультом удалось докрутить машину. В итоге на прохождение одного поворота у нас ушло больше 3 часов. Со всеми логистическими накладками работы растянулись до ночи. Хорошо, что мы продумали освещение для работ в темное время суток. Оставшиеся работы прошли в штатном режиме, и с понедельника в дата-центре заработал еще один новый чиллер.

В марте этого года мои коллеги провели замену уже третьего чиллера, последнего из переживших ураган. Теперь на Боровой работают три чиллера Stulz и один Hiref. Благодаря такой поэтапной модернизации у нас теперь есть большой запас по холоду, и мы не боимся самой жаркой погоды и тополиного пуха. Новые чиллеры поддерживают режим фрикулинга на большем температурном диапазоне, потребляют меньше энергии и работают очень тихо. Еще их очень удобно обслуживать из-за отдельных компрессорных отсеков: ремонтные работы можно проводить без полной остановки чиллера.

DataLine запустила сервис по управлению кластерами Kubernetes

DataLine запустила сервис по управлению кластерами Kubernetes

DataLine запустила первый в России сервис по предоставлению и обслуживанию промышленных кластеров Kubernetes.
Kubernetes — платформа для управления контейнерами, которые объединены в кластер.
Платформа значительно ускоряет процесс внедрения новых версий приложений и упрощает циклы их разработки и тестирования.
Сервис KuberLine будет полезен для эксплуатации высоконагруженных ИТ-систем и тестовых сред разработки.

DataLine предоставит кластеры, готовые к работе с продукционным окружением, и возьмет на себя задачи по управлению и обеспечению их доступности на уровне 99,95%. Кластеры развернуты на базе дата-центров уровня TIER III. Уровень обслуживания и параметры доступности закреплены в детальном SLA с финансовыми гарантиями.
Сервис KuberLine можно бесплатно протестировать. За условиями теста обращайтесь по электронной почте request@dtln.ru

Справка о компании DataLine
DataLine – специализированный поставщик услуг ИТ-аутсорсинга на базе дата-центров уровня Tier III и облачной инфраструктуры. Компания предоставляет широкий спектр ИТ-услуг: colocation, виртуальную инфраструктуру и облачные сервисы, телеком, а также сервисы по управлению клиентскими дата-центрами и бизнес-приложениями.
С 2013 года DataLine является лидером российского рынка коммерческих дата-центров (IDC, iKS-Consulting, COMNEWS), а также одним из ведущих облачных провайдеров в стране и крупнейшим партнером (Premier Service Provider) VMware в Восточной Европе. Компания является владельцем 8 дата-центров в Москве общей емкостью 4787 стойко-
мест.

www.dtln.ru

Мало места большим данным: почему Москву ждет дефицит мощностей

До конца года в дата-центрах Москвы может возникнуть дефицит мощностей — впервые с начала кризиса 2014 года. Участники рынка уже ощущают нехватку свободных мест для хранения данных, что привело к росту стоимости услуги на 15%

К концу 2018 года клиенты коммерческих центров обработки данных (ЦОД) в столице впервые после экономического кризиса 2014-го могут столкнуться с дефицитом свободных мощностей, сообщил РБК директор по развитию аналитической компании iKS-Consulting Дмитрий Горкавенко.

Количество установленных в подобных центрах стоек, или стандартных шкафов для размещения оборудования, — один из основных показателей для рынка ЦОДов. Согласно прогнозу, к концу года в Москве уровень утилизации (количество занятых стоек к количеству свободных) может превысить 75%. «Это высокая утилизация, так как ЦОД технически не может иметь утилизацию 100% из-за своей конфигурации. Некоторые площадки имеют утилизацию более 90% и уже не смогут поставить себе крупных клиентов (которым потребуется, например, 200–300 стоек)», — пояснил он. По словам Горкавенко, количество свободных мест сократилось в связи с высоким спросом. В частности, более 1,5 тыс. стоек в столице — это новые клиенты из-за рубежа, которые в 2017–2018 годах пришли в Россию, развернули облачные сервисы в партнерстве с российскими игроками, а также глобальные компании, которые таким образом выполняют требования российского законодательства. Так, в сентябре 2015 года вступил в силу закон об обязательном хранении персональных данных россиян внутри страны, 1 июля этого года — требования «закона Яровой», по которым операторы связи и интернет-компании должны хранить в течение шести месяцев записи разговоров пользователей, а с 1 октября — еще и данные об их интернет-активности.

В 2017 году всего в российских дата-центрах было установлено 34,88 тыс. стоек, что на 13% больше, чем в 2016 году, говорится в исследовании iKS-Consulting (копия есть у РБК). На Москву приходилось 67,4% от общего количества. По итогам этого года это число должно вырасти на 16%, до 39,95 тыс. стоек. В прошлом году iKS-Consulting прогнозировала, что в 2017 году общее количество стоек в российских дата-центрах вырастет на 24,5%, до 38 тыс. штук. Как отмечается в нынешнем исследовании компании, фактический рост емкости рынка ЦОД в 2017 году оказался ниже ожидаемого, так как сроки окончания ряда проектов по созданию и развитию дата-центров с гарантированным уровнем надежности не ниже 99,98% (Tier III в классификации Uptime Institute), запланированных на этот период, были перенесены на первое полугодие 2018 года. «Сложности с их своевременным запуском объясняются высоким уровнем себестоимости проектов и необходимостью резервирования дорогостоящих компонентов инженерной инфраструктуры, которые дублируют друг друга в соответствии с требованиями к дата-центрам Tier III», — указывают авторы исследования.


При этом совокупная выручка владельцев коммерческих дата-центров в 2017 году выросла на 26,9% по сравнению с показателем 2016 года, до 21,9 млрд руб. По итогам 2018 года этот показатель прогнозируется на уровне 27 млрд руб. (рост на 23,2%).

Временные трудности
По словам Дмитрия Горкавенко, в 2019 и 2020 годах на рынок должны поступить еще 2,89 тыс. и 2,35 тыс. новых стоек соответственно, проекты уже реализуются. Также есть замороженные проекты на 2,74 тыс. стоек, они могут быть оперативно запущены и введены. «Процесс выбора площадки и переход в коммерческий ЦОД занимает обычно более шести месяцев, поэтому полагаю, что в 2019 году новый спрос будет удовлетворен», — говорит эксперт.

По словам директора по продуктам Selectel Петра Щеглова, уже сейчас справедливо говорить о дефиците свободных мощностей в Москве, в первую очередь в отношении современных дата-центров высокой степени надежности, куда смещается спрос корпоративных заказчиков. «Дефицит вызван как системными причинами, например продолжающейся цифровизацией бизнеса и его переходом в облака, так и отдельными обстоятельствами. В этом году в Россию пришли и обосновались в Москве несколько крупных китайских компаний из сферы технологий и электронной коммерции. Львиная доля выкупленных мощностей в столичных дата-центрах пришлась на этих заказчиков», — отметил Щеглов. Он прогнозирует, что после исчерпания качественного предложения в Москве, возрастет интерес к петербургскому рынку дата-центров.

Представитель еще одного участника рынка рассказал, что все крупные компании, помимо «Ростелекома», о котором нет данных, действительно практически исчерпали свои мощности. «Обычно все крупные игроки заранее задумываются о начале строительства новых площадок. Но во второй половине 2018 года был резкий рост рынка, и все не успели среагировать. В итоге ввод новых мощностей придется в основном на 2020 год», — говорит собеседник РБК. Среди крупных игроков много свободных стоек будет только у DataLine, поскольку арендовавший у них мощности Сбербанк переезжает в собственный дата-центр. При этом всплеск со стороны иностранных игроков он также объяснил политикой Китая, который планирует «захватить европейский облачный рынок и рассматривает Россию как промежуточный пункт на пути в ЕС».

Представитель «Ростелекома» сообщил, что у ЦОДов компании в Москве «исторически достаточно высокая степень утилизации, соответствующая проектной загрузке». «Введенный компанией в конце прошлого года ЦОД Москва-III практически сразу после ввода вышел на проектную загрузку. Свободные места еще есть, но на 2019–2020 годы мы запланировали увеличение мощностей в Москве», — отметил он.

По мнению управляющего директора IXcellerate Дмитрия Фокина, дефицит свободных мощностей к концу 2018 года на рынке «высоковероятен». ​В мае этого года IXcellerate запустила машинный зал на 1,1 тыс. стоек, и в компании ожидают, что к концу года он будет продан и зарезервирован уже на 75%. По словам Фокина, на дефицит стоек влияют как быстрый рост облачных сервисов, так и тот факт, что операторы ЦОДов «запаздывают» с вводом новых мощностей. «Планирование и ввод в эксплуатацию новых машинных залов занимает все большее количество времени, что накладывается на сложности с получением дополнительной электрической мощности», — указал управляющий директор IXcellerate.

При этом сложившийся дефицит привел к повышению цен на услуги ЦОДов, признают участники рынка. «Дефицит напрямую повлиял на уровень цен, стоимость увеличилась где-то на 15% и продолжает расти», — говорит Дмитрий Фокин.​ Некоторое повышение цен ожидает и Петр Щеглов. «Но не только из-за дефицита, скажется повышение НДС и рост энерготарифов», — считает он.

Перспективная цель
По прогнозу iKS-Consulting, в ближайшие три года в среднем количество стоек в российских коммерческих ЦОДах будет увеличиваться не менее чем на 9–10% в год, по итогам 2021 года их число достигнет 53 тыс. штук.

Согласно программе развития цифровой экономики, в 2024 году мощность российских коммерческих ЦОДов должна составить 80 тыс. стоек, говорилось в проекте плана мероприятий по направлению «Информационная инфраструктура». Россия должна занять 5% на мировом рынке хранения и обработки данных.

На конец 2017 года доля России в мировом объеме оказания услуг центров обработки и хранения данных составила 1%, услуг публичного облачного провайдинга — 0,6%, указывают в iKS-Consulting. По оценке компании, для достижения указанной в программе развития цифровой экономики цели, рынок ЦОДов должен расти на 42% в год. Чтобы обеспечить такие темпы, потребуются системные и масштабные меры поддержки. По словам Горкавенко, в том числе необходимо упростить процедуры получения прав на землю в долгосрочную аренду или собственность под строительство ЦОДа; повысить энергетическую доступность для дата-центров, исключив сетевую надбавку МРСК или упростив и ускорив процедуру подключения таких объектов к энергосетям; распространить налоговые льготы для ИТ-компаний на владельцев ЦОДов.

По мнению Петра Щеглова, расти быстрее рынку позволят «налоговые льготы, продуманное регулирование и обоснованный протекционизм». «Мы видим интерес к мнению игроков рынка со стороны новой команды Министерства цифрового развития, связи и массовых коммуникаций. Это дает повод для осторожного оптимизма в отношении достижимости целей программы», — заключил он.

есть 1 выделенный сервер следующей конфигурации

Один из наших клиентов вырос и перешел на более мощный сервер, поэтому у нас есть 1 выделенный сервер следующей конфигурации с моментальной установкой:
  • 2 x Xeon e5620 2.4 ГГц (8 ядер) | 16 Гб Ram | 2 x 1 000 Гб SAS | IP-KVM | 1gbt/s(30Тб) — 5000 рублей в месяц.
Заказ возможен по ссылке, либо в личном кабинете. Установка сервера автоматическая, в течении 30-ти минут.

К серверу есть плюшки в виде:
  • панель ISPmanager 5 Lite;
  • администрирование;
  • место на удаленном сервере для резервных копий;
  • подключение к нашему мониторингу;
  • перезагрузка/переустановка сервера в удобной панели управления;
  • 5 ipv4 адресов и /64 ipv6 к серверу бесплатно.

Располагается сервер в Москве. ДЦ DataLine.
Будем рады найти нового владельца данной машинки!
my.serv-tech.ru/billmgr?func=register&lang=ru