Возгорание в дата-центре OST



5 июня около 14.00 на улице Боровая произошло возгорание кровли дата-центра OST. Для тушения пожара на место происшествия прибыло более 10 пожарных расчетов, так как площадь возгорания составила около 200 кв. м.
Система оповещения сработала в штатном режиме. Все сотрудники компании и клиенты, работавшие на момент начала пожара в дата-центре, были своевременно эвакуированы. Пострадавших нет.

В ходе пожара были повреждены некоторые фреонопроводы, находящиеся на крыше вблизи очага возгорания. В результате пострадала система кондиционирования одного из залов OST-2. Во избежание потерь клиентского оборудования по перегреву, руководством DataLine было принято решение о частичном отключении оборудования в зале. Все клиенты, чье оборудование размещалось в данном зале, были оперативно оповещены и по возможности переведены на резервные площадки. Оборудование некоторых клиентов было перенесено в другие залы дата-центра OST. Сам машинный зал не был задет огнем и не пострадал от воды при тушении.
Восстановительные работы системы кондиционирования стартовали сразу после ликвидации пожара в 16.45.
К 4.45 утра зал заработал в штатном режиме.

По предварительной версии, причиной пожара стало короткое замыкание в кабеле внешнего блока системы кондиционирования OST-2.

В настоящий момент компания DataLine работает в обычном режиме, за исключением службы капитального строительства, которая уже приступила к восстановительным работам на крыше здания.

Возгорание в дата-центре OST | 05.06.2019

Около 14.00 на улице Боровая произошло возгорание кровли дата-центра OST. На место проишествия прибыло 8 пожарных расчетов. Все сотрудники компании и клиенты, работавшие на тот момент в дата-центре, были эвакуированы.



В 16:45 пожар был полностью ликвидирован.

Три истории модернизации в дата-центре

В этом году – 10 лет, как запущен наш первый ЦОД OST-1. За это время мы с коллегами из службы эксплуатации и капитального строительства успели провести не одну модернизацию инженерной инфраструктуры дата-центра. Сегодня расскажу про самые интересные случаи.



200-тонный кран устанавливает новый чиллер Stulz на раму. Модернизация системы холодоснабжения системы дата-центра OST-1 в 2015 году.

Дата-центр – живой организм, он растет, меняется, ломается:) Все, что можно отнести к модернизации, я условно делю на:
  • плановые замены и ремонты. Оборудование морально устаревает, истекает его срок эксплуатации. Такие работы мы бюджетируем, планируем и делаем без спешки, когда нам удобно (например, полный апргейд «внутренностей» ИБП или замену выработавших свой срок аккумуляторных батарей).
  • ошибки проектирования. По заветам Uptime, все должно расходоваться и заканчиваться одновременно. Из-за неправильного проектирования баланс «холод – электричество – место» может нарушиться, например: есть куда ставить стойки, но зал уже не тянет по электричеству или кондиционированию. Самое неприятное с этими ошибками то, что всплывают они не сразу, а когда ЦОД приближается к проектной мощности.
  • аварии. Бывает, что оборудование повреждается окончательно, бесповоротно и неожиданно, и его нужно менять.

На плановых заменах/ремонтах останавливаться не буду. Там практически все в нашей власти. Расскажу три истории об ошибках проектирования и послеаварийной модернизации.

История 1. Машинному залу не хватало холода
Это история про один из наших первых залов на Боровой. Он до сих пор работает. Зал с проектной мощностью 80 стоек по 5 кВт.

По мере заполнения зала перестало хватать холода: температура в холодных коридорах была выше, чем надо, постоянно возникали локальные перегревы. Это уже потом, с высоты своего опыта, мы поняли, что наделали ошибок в проектировании, и из-за этого страдало кондиционирование.




Какой-то «волшебной таблетки» от этих проблем мы тогда не видели, поэтому решили действовать поэтапно и по всем фронтам.

Сначала мы проверили, все ли оборудование установлено правильно и стоят ли заглушки в свободных юнитах. Мы также перепроверили раскладку перфорированных плиток и убрали лишние, установили дополнительные направляющие воздуха под фальшполом. Постарались найти и заделать все дырки, куда мог убежать холодный воздух. Советую вам тоже проверить, что у вас между кондиционером и стеной. Зазор в 5-7 см – это уже много.

Вот такой результат нам дало простое размещение заглушек в свободных юнитах.

Стало лучше, но недостаточно хорошо. Тогда мы решили изолировать холодные коридоры. Построили крышу, двери из поликарбоната. Получилось дешево и сердито. В результате мы избавились от паразитного смешения горячего и холодного воздуха и повысили КПД системы холодоснабжения.


Изолированный холодный коридор того же зала.

Мы понимали, что этого хватит ненадолго. С ростом ИТ-нагрузки нехватка мощности снова даст о себе знать.

Эту проблему попытались решить добавлением фреонового кондиционера, хотя зал работал на гликолевом охлаждении. Нас очень заботили габариты кондиционера (пройдет ли он в дверь, хватит ли угла поворота), поэтому подбирали модель с возможностью частичной разборки. Кондиционер установили не со стороны горячего коридора, как обычно это делают, а куда смогли втиснуть. Это добавило нам 80 киловатт по охлаждению.

Вот тот самый «гуттаперчевый» кондиционер Emerson.

Вся эта история оказалось непростой: нужно было придумать, как подвести фреоновые трассы до внешних блоков, как подвести к этим кондиционерам электричество, куда поставить внешние блоки кондиционера. Все это в работающем зале.

Просто для понимания, насколько там мало места.

После всех этих манипуляций мы избавились от локальных перегревов, температура распределялась равномерно в холодных и горячих коридорах. Получилось увеличить мощность зала и размещать в нем заявленные пятикиловаттные стойки.

Мораль этой истории в том, что не стоит бояться решать проблему мелкими шажками. Само по себе каждое из действий может показаться (и нам тогда казалось) неэффективным, но суммарно это дает результат.

История 2. В машинном зале закончились кондиционирование и энергоснабжение
Под клиента был спроектирован машинный зал на 100 стоек по 5 кВт. Проектная ширина стойки 800 мм, в каждом ряду 10 стоек. Потом клиент передумал заезжать, и зал сдавали на общих основаниях. В жизни стойки шириной 800 мм нужны в основном под сетевое оборудование, для всего остального нужны шестисотые. В итоге вместо 10 стоек в ряду у нас получилось 13, и еще оставалось место. А вот электричества и холода уже не хватало.

В ходе модернизации выделили новое помещение под два дополнительных ИБП по 300 кВт.

В зале появились дополнительные распределительные щиты.


Новую мощность нужно было распределить равномерно. Чтобы разделить новые и старые лучи, под фальшполом проложили отдельные кабельные лотки. Часть работающего ИТ-оборудования переключили на новые распределительные щиты поочередным переключением каждого луча питания.

Чтобы решить вопрос с нехваткой холода, поставили 1 дополнительный кондиционер на 100 кВт холода.


Во время такелажа, установки и пусконаладки всего оборудования зал продолжал работать в штатном режиме. Это было самым сложным моментом в проекте.

В результате модернизации мы добавили залу электричества и холода на еще 30 стоек по 5 кВт.

Проектная мощность и емкость зала увеличена на 30%.

История 3. Про замену чиллеров

Немного предыстории. Началось все в 2010 году, когда 3 чиллера дата-центра OST сильно пострадали во время урагана. Тогда, чтобы выжить, пришлось гонять чиллеры без защиты несколько суток, и компрессоры быстро загнулись. Сначала меняли их.

ИТ-нагрузка росла по мере заполнения ЦОД, а чиллеры Emicon так и не вышли на заявленную холодильную мощность. В 2012-м поставили дополнительный чиллер Hiref в ту же гидравлическую схему. Так мы прожили еще три года.

Со временем у чиллеров Emicon обострились эксплуатационные проблемы. Их мощности не хватало, поэтому в жару приходилось поливать водой из керхеров. С годами теплообменники обросли известковыми отложениями. В зазор между теплообменником фрикулинга и фреоновым конденсатором набивался тополиный пух и прочий мусор, который не удалишь из-за специфики строения теплообменников. Там образовался настоящий валенок, который не пропускал нормально воздух.

В 2015 году мы как раз закупали партию чиллеров Stulz для NORD-4. Решили под это дело заменить два из трех чиллеров Emicon. Теперь подробности.

Установка дополнительного чиллера Hiref без доустановки насосов. ИТ-нагрузка росла, а КПД чиллеров, пострадавших в урагане, падал. Летом резерва едва хватало. Мы решили добавить еще один чиллер, чтобы увеличить их суммарную мощность. На время работ система холодоснабжения должна была продолжать функционировать. Самое сложное в этой операции – организация гликолевого контура. Мы сделали гликолевую обвязку: от каждого чиллера было отведено гликолевое кольцо к новому чиллеру. Чиллеры поочередно выводили из эксплуатации, и подводили к новому чиллеру гликолевую трубу.


Фрагмент принципиальной схемы гидравлики. На ней видно, что от каждого из трех чиллеров были сделаны ответвления к новому чиллеру.

Основная задача этого чиллера – поддержка системы холодоснабжения летом. Благодаря Hiref у нас появился гарантированный резерв N+1 в жаркие месяцы. Но поврежденные в урагане чиллеры потихоньку начали издыхать, и нам пришлось задуматься об их замене.

Тот самый «летний» чиллер Hiref.

Замена Emicon на Stulz. Такие замены лучше делать осенью или весной: летом без резерва совсем страшно, а зимой просто неприятно проводить работы. Операцию запланировали на февраль/март, но готовиться начали еще в октябре.

За эти подготовительные месяцы мы проложили новые кабели, варили участки трубопровода, разработали план подъезда машины с оборудованием (на заднем дворе у нас тесно), очистили территорию для подъезда крана. Чиллеры предстояло менять в работающем дата-центре, и примерно на 1,5 суток он оставался без резервного чиллера. На этапе подготовки мы провели тесты, чтобы понимать, как дата-центр будет чувствовать себя без резерва, напридумывали различные ситуации, когда что-то могло пойти не так во время работ (например, длительный блэкаут во время замены чиллеров), и разработали план действий. Вот краткая хроника тех работ.
В ночь приехал чиллер. После успешного заезда крана на территорию дата-центра можно было начинать отключать старый чиллер.


Старый чиллер еще на месте, пока ведутся подготовительные работы. Варим раму для нового чиллера.

Потом к непосредственному месту работ должна была подъехать машина с чиллером. У нас там, мягко говоря, тесновато. Пришлось попотеть, чтобы вписаться во все эти сложные повороты в ограниченном пространстве.



Разобранный и распиленный пополам чиллер демонтировали.


Старый и новый чиллер отличаются размерами. Ушло еще какое-то время на подготовку металлической рамы. Дело осталось за подъемом и установкой чиллера.


На заднем плане фото видно, что параллельно довариваются участки гликолевого контура для нового чиллера.



После установки на раму монтируется вся гидравлика, чиллер подключают к электропитанию. В ночь делается опрессовка. На следующий день проходит пусконаладка и подключение к системе мониторинга.

На всю операцию ушло меньше двух суток: утром старый чиллер выключили, в конце следующего дня включили уже новый чиллер.

Через две недели меняли второй чиллер. Казалось бы, нужно было просто все сделать по отработанной схеме, но что-то пошло не так. Всю ночь шел снег. Сначала пришлось потратить время на расчистку территории, чтобы кран смог заехать. Начали демонтировать старый чиллер, как в двухстах метрах от нас ломается машина с новым чиллером. Точка невозврата уже пройдена, а у фуры сломался поворотный механизм колес прицепа (пульт управления от него).

Отремонтировать на месте не получилось, ездили за дополнительным пультом, который в субботу чудом оказался в офисе этой компании. С пультом удалось докрутить машину. В итоге на прохождение одного поворота у нас ушло больше 3 часов. Со всеми логистическими накладками работы растянулись до ночи. Хорошо, что мы продумали освещение для работ в темное время суток. Оставшиеся работы прошли в штатном режиме, и с понедельника в дата-центре заработал еще один новый чиллер.

В марте этого года мои коллеги провели замену уже третьего чиллера, последнего из переживших ураган. Теперь на Боровой работают три чиллера Stulz и один Hiref. Благодаря такой поэтапной модернизации у нас теперь есть большой запас по холоду, и мы не боимся самой жаркой погоды и тополиного пуха. Новые чиллеры поддерживают режим фрикулинга на большем температурном диапазоне, потребляют меньше энергии и работают очень тихо. Еще их очень удобно обслуживать из-за отдельных компрессорных отсеков: ремонтные работы можно проводить без полной остановки чиллера.

DataLine запустила сервис по управлению кластерами Kubernetes

DataLine запустила сервис по управлению кластерами Kubernetes

DataLine запустила первый в России сервис по предоставлению и обслуживанию промышленных кластеров Kubernetes.
Kubernetes — платформа для управления контейнерами, которые объединены в кластер.
Платформа значительно ускоряет процесс внедрения новых версий приложений и упрощает циклы их разработки и тестирования.
Сервис KuberLine будет полезен для эксплуатации высоконагруженных ИТ-систем и тестовых сред разработки.

DataLine предоставит кластеры, готовые к работе с продукционным окружением, и возьмет на себя задачи по управлению и обеспечению их доступности на уровне 99,95%. Кластеры развернуты на базе дата-центров уровня TIER III. Уровень обслуживания и параметры доступности закреплены в детальном SLA с финансовыми гарантиями.
Сервис KuberLine можно бесплатно протестировать. За условиями теста обращайтесь по электронной почте request@dtln.ru

Справка о компании DataLine
DataLine – специализированный поставщик услуг ИТ-аутсорсинга на базе дата-центров уровня Tier III и облачной инфраструктуры. Компания предоставляет широкий спектр ИТ-услуг: colocation, виртуальную инфраструктуру и облачные сервисы, телеком, а также сервисы по управлению клиентскими дата-центрами и бизнес-приложениями.
С 2013 года DataLine является лидером российского рынка коммерческих дата-центров (IDC, iKS-Consulting, COMNEWS), а также одним из ведущих облачных провайдеров в стране и крупнейшим партнером (Premier Service Provider) VMware в Восточной Европе. Компания является владельцем 8 дата-центров в Москве общей емкостью 4787 стойко-
мест.

www.dtln.ru

Мало места большим данным: почему Москву ждет дефицит мощностей

До конца года в дата-центрах Москвы может возникнуть дефицит мощностей — впервые с начала кризиса 2014 года. Участники рынка уже ощущают нехватку свободных мест для хранения данных, что привело к росту стоимости услуги на 15%

К концу 2018 года клиенты коммерческих центров обработки данных (ЦОД) в столице впервые после экономического кризиса 2014-го могут столкнуться с дефицитом свободных мощностей, сообщил РБК директор по развитию аналитической компании iKS-Consulting Дмитрий Горкавенко.

Количество установленных в подобных центрах стоек, или стандартных шкафов для размещения оборудования, — один из основных показателей для рынка ЦОДов. Согласно прогнозу, к концу года в Москве уровень утилизации (количество занятых стоек к количеству свободных) может превысить 75%. «Это высокая утилизация, так как ЦОД технически не может иметь утилизацию 100% из-за своей конфигурации. Некоторые площадки имеют утилизацию более 90% и уже не смогут поставить себе крупных клиентов (которым потребуется, например, 200–300 стоек)», — пояснил он. По словам Горкавенко, количество свободных мест сократилось в связи с высоким спросом. В частности, более 1,5 тыс. стоек в столице — это новые клиенты из-за рубежа, которые в 2017–2018 годах пришли в Россию, развернули облачные сервисы в партнерстве с российскими игроками, а также глобальные компании, которые таким образом выполняют требования российского законодательства. Так, в сентябре 2015 года вступил в силу закон об обязательном хранении персональных данных россиян внутри страны, 1 июля этого года — требования «закона Яровой», по которым операторы связи и интернет-компании должны хранить в течение шести месяцев записи разговоров пользователей, а с 1 октября — еще и данные об их интернет-активности.

В 2017 году всего в российских дата-центрах было установлено 34,88 тыс. стоек, что на 13% больше, чем в 2016 году, говорится в исследовании iKS-Consulting (копия есть у РБК). На Москву приходилось 67,4% от общего количества. По итогам этого года это число должно вырасти на 16%, до 39,95 тыс. стоек. В прошлом году iKS-Consulting прогнозировала, что в 2017 году общее количество стоек в российских дата-центрах вырастет на 24,5%, до 38 тыс. штук. Как отмечается в нынешнем исследовании компании, фактический рост емкости рынка ЦОД в 2017 году оказался ниже ожидаемого, так как сроки окончания ряда проектов по созданию и развитию дата-центров с гарантированным уровнем надежности не ниже 99,98% (Tier III в классификации Uptime Institute), запланированных на этот период, были перенесены на первое полугодие 2018 года. «Сложности с их своевременным запуском объясняются высоким уровнем себестоимости проектов и необходимостью резервирования дорогостоящих компонентов инженерной инфраструктуры, которые дублируют друг друга в соответствии с требованиями к дата-центрам Tier III», — указывают авторы исследования.


При этом совокупная выручка владельцев коммерческих дата-центров в 2017 году выросла на 26,9% по сравнению с показателем 2016 года, до 21,9 млрд руб. По итогам 2018 года этот показатель прогнозируется на уровне 27 млрд руб. (рост на 23,2%).

Временные трудности
По словам Дмитрия Горкавенко, в 2019 и 2020 годах на рынок должны поступить еще 2,89 тыс. и 2,35 тыс. новых стоек соответственно, проекты уже реализуются. Также есть замороженные проекты на 2,74 тыс. стоек, они могут быть оперативно запущены и введены. «Процесс выбора площадки и переход в коммерческий ЦОД занимает обычно более шести месяцев, поэтому полагаю, что в 2019 году новый спрос будет удовлетворен», — говорит эксперт.

По словам директора по продуктам Selectel Петра Щеглова, уже сейчас справедливо говорить о дефиците свободных мощностей в Москве, в первую очередь в отношении современных дата-центров высокой степени надежности, куда смещается спрос корпоративных заказчиков. «Дефицит вызван как системными причинами, например продолжающейся цифровизацией бизнеса и его переходом в облака, так и отдельными обстоятельствами. В этом году в Россию пришли и обосновались в Москве несколько крупных китайских компаний из сферы технологий и электронной коммерции. Львиная доля выкупленных мощностей в столичных дата-центрах пришлась на этих заказчиков», — отметил Щеглов. Он прогнозирует, что после исчерпания качественного предложения в Москве, возрастет интерес к петербургскому рынку дата-центров.

Представитель еще одного участника рынка рассказал, что все крупные компании, помимо «Ростелекома», о котором нет данных, действительно практически исчерпали свои мощности. «Обычно все крупные игроки заранее задумываются о начале строительства новых площадок. Но во второй половине 2018 года был резкий рост рынка, и все не успели среагировать. В итоге ввод новых мощностей придется в основном на 2020 год», — говорит собеседник РБК. Среди крупных игроков много свободных стоек будет только у DataLine, поскольку арендовавший у них мощности Сбербанк переезжает в собственный дата-центр. При этом всплеск со стороны иностранных игроков он также объяснил политикой Китая, который планирует «захватить европейский облачный рынок и рассматривает Россию как промежуточный пункт на пути в ЕС».

Представитель «Ростелекома» сообщил, что у ЦОДов компании в Москве «исторически достаточно высокая степень утилизации, соответствующая проектной загрузке». «Введенный компанией в конце прошлого года ЦОД Москва-III практически сразу после ввода вышел на проектную загрузку. Свободные места еще есть, но на 2019–2020 годы мы запланировали увеличение мощностей в Москве», — отметил он.

По мнению управляющего директора IXcellerate Дмитрия Фокина, дефицит свободных мощностей к концу 2018 года на рынке «высоковероятен». ​В мае этого года IXcellerate запустила машинный зал на 1,1 тыс. стоек, и в компании ожидают, что к концу года он будет продан и зарезервирован уже на 75%. По словам Фокина, на дефицит стоек влияют как быстрый рост облачных сервисов, так и тот факт, что операторы ЦОДов «запаздывают» с вводом новых мощностей. «Планирование и ввод в эксплуатацию новых машинных залов занимает все большее количество времени, что накладывается на сложности с получением дополнительной электрической мощности», — указал управляющий директор IXcellerate.

При этом сложившийся дефицит привел к повышению цен на услуги ЦОДов, признают участники рынка. «Дефицит напрямую повлиял на уровень цен, стоимость увеличилась где-то на 15% и продолжает расти», — говорит Дмитрий Фокин.​ Некоторое повышение цен ожидает и Петр Щеглов. «Но не только из-за дефицита, скажется повышение НДС и рост энерготарифов», — считает он.

Перспективная цель
По прогнозу iKS-Consulting, в ближайшие три года в среднем количество стоек в российских коммерческих ЦОДах будет увеличиваться не менее чем на 9–10% в год, по итогам 2021 года их число достигнет 53 тыс. штук.

Согласно программе развития цифровой экономики, в 2024 году мощность российских коммерческих ЦОДов должна составить 80 тыс. стоек, говорилось в проекте плана мероприятий по направлению «Информационная инфраструктура». Россия должна занять 5% на мировом рынке хранения и обработки данных.

На конец 2017 года доля России в мировом объеме оказания услуг центров обработки и хранения данных составила 1%, услуг публичного облачного провайдинга — 0,6%, указывают в iKS-Consulting. По оценке компании, для достижения указанной в программе развития цифровой экономики цели, рынок ЦОДов должен расти на 42% в год. Чтобы обеспечить такие темпы, потребуются системные и масштабные меры поддержки. По словам Горкавенко, в том числе необходимо упростить процедуры получения прав на землю в долгосрочную аренду или собственность под строительство ЦОДа; повысить энергетическую доступность для дата-центров, исключив сетевую надбавку МРСК или упростив и ускорив процедуру подключения таких объектов к энергосетям; распространить налоговые льготы для ИТ-компаний на владельцев ЦОДов.

По мнению Петра Щеглова, расти быстрее рынку позволят «налоговые льготы, продуманное регулирование и обоснованный протекционизм». «Мы видим интерес к мнению игроков рынка со стороны новой команды Министерства цифрового развития, связи и массовых коммуникаций. Это дает повод для осторожного оптимизма в отношении достижимости целей программы», — заключил он.

есть 1 выделенный сервер следующей конфигурации

Один из наших клиентов вырос и перешел на более мощный сервер, поэтому у нас есть 1 выделенный сервер следующей конфигурации с моментальной установкой:
  • 2 x Xeon e5620 2.4 ГГц (8 ядер) | 16 Гб Ram | 2 x 1 000 Гб SAS | IP-KVM | 1gbt/s(30Тб) — 5000 рублей в месяц.
Заказ возможен по ссылке, либо в личном кабинете. Установка сервера автоматическая, в течении 30-ти минут.

К серверу есть плюшки в виде:
  • панель ISPmanager 5 Lite;
  • администрирование;
  • место на удаленном сервере для резервных копий;
  • подключение к нашему мониторингу;
  • перезагрузка/переустановка сервера в удобной панели управления;
  • 5 ipv4 адресов и /64 ipv6 к серверу бесплатно.

Располагается сервер в Москве. ДЦ DataLine.
Будем рады найти нового владельца данной машинки!
my.serv-tech.ru/billmgr?func=register&lang=ru

Из наших новостей

  • мы переехали в ДЦ Datalain (Москва)(перевозили все оборудование в течении 3-ех ночей);
  • в ближайшее время у нас появятся в аренде серверы с 1 gbt/s и 10 gbt/s каналами по приятным ценам;
  • готовим для аренды различные конфигурации выделенных серверов;
  • ввели новую услугу «Размещение сервера — Colocation», информация появится на сайте в ближайшее время, узнать условия можете уже сейчас у нас в поддержке и разместиться у нас на хороших условиях;
  • готовим площадку в Нидерландах, скоро можно будет взять в аренду наши виртуальные серверы и там, а позже и выделенные;
  • заменили сервер виртуального хостинга на более новый и мощный, теперь сайты клиентов хостинга работают еще быстрее;
  • готовим к запуску услугу VIP хостинга, которая позволит размещаться на виртуальном хостинге сайтам с большой посещаемостью и требовательным к ресурсам;
  • на виртуальных серверах Премиум линейки снизили стоимость дополнительного диска SSD с 15 рублей до 10 рублей в месяц;
  • появилась возможность заказа сети ipv6 /64 на выделенных серверах и на виртуальных серверах премиум линейки;
  • убрали установочный платеж для анонса ipv4 сетей, теперь мы выдаем сети без установочных платежей(в ближайшее время будет снижение цен на аренду блоков IPv4), уже сейчас можно заказать любой тариф премиум VPS с блоком /24 за 7680 рублей в месяц;
  • при аренде любой IPv4 сети сервер RUKVM-1 предоставим бесплатно!

my.serv-tech.ru/billmgr?func=register&lang=ru

Рады Вам сообщить некоторые новости, которые у нас произошли

Рады Вам сообщить некоторые новости, которые у нас произошли.
  1. мы сменили площадку в Москве, теперь мы размещаемся в Даталайне.
  2. у нас появились новые локации для Виртуальных серверов: Нидерланды, Болгария, Италия. В ближайшее время там будут и выделенные серверы.
  3. в Москве, мы можем предоставить быстрые каналы для аренды выделенных серверов: 1 gbt/s для выделенного сервера стоит 15000 рублей в месяц.

my.sale-dedic.com/billmgr?func=register&lang=ru