Рейтинг
0.00

РТК-ЦОД

1 читатель, 7 топиков

Лаборатория R&D РТК-ЦОД стала лучшей по версии «ЦОДы.РФ»



На церемонии вручения премии «ЦОДы.РФ» наша лаборатория R&D получила награду «Эксперт №1 в области R&D» за вклад в развитие отечественных технологий, уникальный опыт и высококлассный программно-аппаратный комплекс, с помощью которого наши коллеги проводят испытания IT-оборудования и ПО.

За четыре года команда провела более 100 исследований и испытаний серверов, СХД, S3, SDS, СРК, СПД, HPC, системного ПО и систем виртуализации, проанализировала рынок и разработала собственные программы и методики испытаний (ПМИ).

Исследования нашей лаборатории R&D напрямую влияют на развитие российских IT-продуктов и roadmap производителей. Многие отечественные решения, которые успешно прошли тестирование в лаборатории РТК-ЦОД, используются в крупнейших государственных проектах.

Личный кабинет для Colocation



РТК-ЦОД расширил функциональность личного кабинета облачной платформы, добавив возможности для работы с услугой Colocation.



Теперь новые пользователи могут:
  • отслеживать актуальную информацию о стойках, оборудовании и авторизованных лицах;
  • создавать заявки на размещение оборудования в ЦОД, изменение действующих или добавление новых услуг;
  • оформлять заявки на пропуск в дата-центр и перемещение оборудования в соответствии с типовой формой договора;
  • создавать обращения в техническую поддержку.

Компания «РТК-ЦОД» открыла новую площадку «Публичного облака» в Москве



Компания «РТК-ЦОД» (дочерняя компания «Ростелекома») запустила в эксплуатацию новую площадку «Публичного облака» — «Медведково-2». Теперь клиентам «Публичного облака» в Центральном федеральном округе доступен для заказа больший объем ресурсов.

Общая мощность «Медведково-2» — более 28 тыс. виртуальных процессоров (vCPU) частотой 3,0 ГГц, 64 ТБ оперативной памяти (RAM) и почти 1,2 ПБ хранилищ c дисками различного типа (SSD, SAS и SATA). Это позволяет запускать ресурсоемкие проекты, увеличивать размеры инфраструктуры под нагрузку и работать с большими объемами данных.

Площадка подключена к системе управления облачной платформой — это обеспечивает пользователям прямой доступ к цифровым сервисам. Через личный кабинет клиенты уже сейчас могут заказать виртуальную инфраструктуру, гарантированный и негарантированный интернет, резервное копирование. Кроме того, на площадке можно использовать функцию миграции и репликации данных.

Мы продолжаем масштабировать инфраструктуру “Публичного облака”, чтобы наши клиенты –– нынешние и потенциальные –– могли развивать свои цифровые сервисы. Запуск площадки “Медведково-2” повышает доступность облачных решений для бизнеса и расширяет их использование. Наша цель –– создание единого цифрового ландшафта, который охватит все федеральные округа страны
Александр Обухов, директор по продуктам РТК-ЦОД, владелец продукта «Публичное облако»

Публичное облако» от «РТК-ЦОД» создано на базе собственной облачной платформы, зарегистрированной в реестре отечественного программного обеспечения. В составе продукта — облачные IaaS-, PaaS- и SaaS-сервисы.

rt-dc.ru

«РТК-ЦОД» — сервис-провайдер ИТ полного цикла. Группа компаний реализует под ключ комплексные проекты: от инфраструктуры и систем связи до облачных решений и ПО.

РТК-ЦОД занимает лидирующие позиции на рынке коммерческих дата-центров (по версии CNews c 2020–2024 год, iKSConsulting 2020–2024 год). Является лидером поставщиков IaaS-услуг по версии CNews 2020–2023 год. А также занимает первое место рейтинга «Крупнейшие операторы коммерческих дата-центров в России» (по версии Comnews Vision 2024).

Экспертиза «РТК-ЦОД» включает в себя многолетний опыт построения и обслуживания геораспределенной сети дата-центров, сервисы обеспечения связности, инфраструктурное ПО, облачную платформу и широкий набор сервисов на ее основе. Компания предоставляет виртуальную инфраструктуру для крупнейших заказчиков как в государственном секторе, так и в сферах ритейла, банков, энергетики, нефтегаза.

BareMetal 2.0: разбираемся, какие GPU выбрать



Недавно мы обновили BareMetal 2.0 в составе нашего «Публичного облака». Теперь в инфраструктуре есть выделенные физические серверы с высокопроизводительными GPU-картами. Они позволяют работать с задачами, где критична скорость вычислений.

Расскажем, что именно изменилось и какие задачи можно теперь решать быстрее. Но сначала небольшая справка.

Когда нужны графические ускорители?
Вычисления можно разделить на две категории: последовательные, где каждая операция выполняется строго одна за другой, и параллельные, где тысячи операций могут выполняться одновременно.

Процессоры (CPU) — это универсальные рабочие лошадки. Они отлично справляются с последовательными вычислениями: обработкой запросов, работой с базами данных, выполнением бизнес-логики. Но когда речь заходит о сложных вычислениях, требующих параллельной обработки (обучение нейросетей, рендеринг, обработка видео), их мощностей недостаточно.

В отличие от CPU, GPU созданы для объемных параллельных вычислений: вместо 16–64 мощных ядер, как у процессора, у GPU могут быть тысячи более простых, но специализированных ядер. Подход идеален для задач, которые можно разбить на множество мелких операций, выполняемых одновременно, например для data-parallel computing, обработки данных или работы с графикой.

Где нужны GPU?
  • Обучение и инференс больших языковых моделей LLM: развертывание on-premise решений для ChatGPT-подобных систем, RAG-архитектур (Retrieval-Augmented Generation), отраслевых LLM в медицине, юриспруденции, финансах.
  • Распознавание речи: создание высокоточных систем распознавания речи для call-центров, виртуальных ассистентов и т. д.
  • Корпоративные ИИ-решения: создание собственных решений на базе ИИ для повышения эффективности бизнес-процессов компании, аналитика Big Data с параллельной обработкой поведенческих данных.
  • Графика и рендеринг: в 3D-графике расчет сложных моделей в реальном времени возможен только с профессиональными GPU-картами.
  • Научные вычисления и инженерные расчеты: моделирование химических соединений, симуляции физических процессов, анализ Big Data.
  • Медицинская аналитика: обработка МРТ, КТ, рентгеновских снимков, трехмерная реконструкция изображений, системы поддержки принятий врачебных решений.
  • Построение прогнозных моделей: алгоритмическая торговля, риск-менеджмент и обработка больших потоков данных.
  • Визуализация больших массивов данных, например, в бизнес-аналитике.
Практически в любой отрасли найдутся сложные задачи, которые можно эффективно решить с применением GPU. И теперь такие сценарии можно реализовать в облаке, нет необходимости покупать дорогостоящее железо.

Какие GPU доступны в BareMetal 2.0 и что они могут?
В составе «Публичного облака» на сегодня доступны конфигурации BareMetal серверов с процессорами от 36 физических ядер, объемом оперативной памяти от 512 ГБ. Для хранения данных можно использовать локальное SSD-хранилище или внешнюю систему хранения.

Обновленный сервис предоставляет три ключевые модели графических ускорителей под определенные нагрузки: NVIDIA L4 (24 ГБ VRAM), RTX A6000 (48 ГБ VRAM), NVIDIA A100 (80 ГБ VRAM).


Универсальный ускоритель для ML и видео NVIDIA L4 (24 ГБ VRAM)
L4 — это оптимальный вариант для задач, связанных с обработкой видео, компьютерным зрением и легкими ML-вычислениями. Он быстрее предшественника Tesla T4 в 2,5 раза при генерации контента нейросетями, в 4 раза при рендеринге и в 3 раза при трассировке лучей.

Где нужен?
  • Системы распознавания лиц — быстрая обработка потокового видео для аналитики и безопасности.
  • Компьютерное зрение — анализ дорожной обстановки в сфере автономного транспорта, контроль качества в промышленности.
  • Чат-боты и NLP — модели Transformer для обработки и генерации текстов в реальном времени.
  • Медицинская визуализация — анализ снимков МРТ и КТ для диагностики на основе ИИ.
  • VR/AR — создание интерактивных сред с высокой детализацией.

NVIDIA RTX A6000 (48 ГБ VRAM) для графики, рендеринга и AI-разработки
Когда нужна максимальная мощность для 3D-моделирования, симуляции и визуализации, то A6000 — отличный выбор. В сравнении с предыдущим поколением RTX-карт он дает в 2 раза большую производительность при рендеринге и в 3 раза более быструю обработку AI-алгоритмов.

Где нужен?
  • Рендеринг в реальном времени — видеоигры, VR, киноиндустрия.
  • Создание контента нейросетями — работа с GAN-моделями, генерация изображений и анимаций.
  • Архитектурная и инженерная визуализация — быстрый расчет сложных 3D-моделей.
  • Научные вычисления — биоинформатика, молекулярное моделирование, климатические симуляции.
  • Медицина — рендеринг томографических снимков, анализ биоинженерных структур.

NVIDIA A100 (80 ГБ VRAM) — тяжелая артиллерия для больших моделей
A100 — это один из топовых ускорителей для обучения крупных нейросетей, аналитики Big Data и высокопроизводительных вычислений. Он в 8 раз быстрее, чем V100, в задачах Big Data Analytics, а его производительность для HPC-вычислений выше в 3 раза.

Где нужен?
  • Обучение больших языковых моделей (GPT-4, BERT, T5) — ускорение обработки текстов на терабайтных датасетах.
  • Финансовые вычисления — моделирование рисков, прогнозирование трендов на рынках.
  • 3D-рендеринг в кино и анимации — создание сложных сцен с фотореалистичными эффектами.
  • Научные исследования — моделирование климатических процессов, симуляция белков и молекулярное моделирование в биомеханике.
  • Обработка больших видео и изображений — автоматическая сегментация, классификация и анализ.

Гибридная инфраструктура: GPU + облако
BareMetal 2.0 в составе «Публичного облака» — это не просто выделенные серверы с GPU. Это еще и возможность интеграции физических серверов с виртуальной инфраструктурой, что позволяет выстраивать гибридные IaaS-решения.

Что это дает пользователю?
  • Гибкость. Можно использовать GPU-ускоренные серверы только для самых ресурсоемких задач, а остальные процессы запускать в облаке.
  • Экономия. Можно избежать капитальных затрат на покупку и обслуживание оборудования (электропитание, ремонт, апгрейд), оплачивая только те ресурсы, которые используются здесь и сейчас.
  • Масштабируемость. Можно легко добавлять мощности в зависимости от нагрузки.

Пример 1: Разработка чат-бота на основе нейросетей
Если ваша компания создает чат-бота с искусственным интеллектом, можно тренировать модель на A100, используя всю мощность выделенного GPU-сервера, а обработку пользовательских запросов выполнять на менее ресурсоемких инстансах с L4.

Пример 2: Анализ медицинских изображений
Допустим, у вас есть сервис, который анализирует снимки МРТ и КТ с помощью нейросетей. Обучение модели и сложные вычисления можно запускать на сервере BareMetal с RTX A6000, а облачная инфраструктура возьмет на себя хранение данных пациентов и обработку запросов врачей. Это исключит задержки в обращении к системе.

Этот подход позволяет комбинировать разные вычислительные мощности под конкретные задачи, создавая баланс между производительностью, стоимостью и эффективностью.

GPU в облаке — это не будущее, а реальность
Раньше высокопроизводительные вычисления были привилегией крупных корпораций. Теперь же благодаря BareMetal 2.0 доступ к GPU-решениям есть у любой компании, разработчика или исследовательской команды. Не надо инвестировать миллионы в собственные серверы, если нужна мощность для ИИ, анализа данных, графики или финансовых вычислений. Можно просто развернуть GPU в облаке и получить производительность как в дата-центрах мирового уровня.

Ребрендинг РТК-ЦОД



Друзья, мы рады сообщить о ребрендинге кластера РТК-ЦОД.

Смена корпоративной айденики является частью нашей стратегии по реорганизации ИТ-кластера и выходу на IPO.

Обновленный бренд — это прямая визуализация нашей экспертизы, которая включает полный цикл ИТ-услуг от инфраструктуры до облачных решений. Мы сохраняем свои ориентиры на инновационность и надежность, и под новым брендом продолжаем работать над укреплением лидерских позиций кластера на российском рынке ЦОД и облачных сервисов, — Сергей Викторович Бочкарев, генеральный директор РТК-ЦОД.

Мы ценим наше комьюнити и благодарим вас за поддержку и доверие в этот важный для нас период.

www.cloud.rt.ru/registration
www.cloud.rt.ru/showcase/tariffs

Кластер High Capacity в составе «Публичного облака»



«РТК-ЦОД» (дочерняя компания «Ростелекома») запустила новый кластер High Capacity (кластер высокой производительности) в составе своей облачной платформы. High Capacity — это сервис, предназначенный для размещения виртуальных машин и приложений, которые ежедневно обрабатывают большие массивы данных. Новый кластер «РТК-ЦОД» сочетает в себе высокую вычислительную мощность и масштабируемость, что особенно важно для оптимизации затрат.

Главная особенность сервиса — готовые конфигурации виртуальных машин (флейворы), которые разработаны с учетом потребностей различных бизнес-сценариев. Клиенты могут выбрать параметры от 48 до 192 виртуальных процессоров (vCPU) и оперативной памяти до 1920 ГБ. Все это подкреплено стабильной производительностью процессоров с частотой 3,0 ГГц.

Кроме того, кластер High Capacity имеет сетевую связность со стандартным кластером «Публичного облака» и серверами BareMetal. Это позволяет клиентам создавать гибридные решения, выбирая ресурсы в зависимости от технических требований и адаптируя инфраструктуру под свои задачи.

Напомним, что осенью 2024 года «РТК-ЦОД» обновила также сервис BareMetal 2.0 c GPU-картами. Разница между кластером High Capacity и BareMetal заключается в наличии виртуализации и подходе к распределению ресурсов. High Capacity — это часть облачной платформы, где вычислительные ресурсы (процессор, память, диски) распределяются между несколькими пользователями. Пользователи могут легко изменять параметры своих виртуальных машин в зависимости от текущих задач. Физические серверы за счет применения виртуализации используются несколькими клиентами. В свою очередь, Bare Metal предоставляет клиенту эксклюзивный доступ к физическому серверу без виртуализации, что подходит для задач с критическими требованиями к скорости и низкой задержке. Все ресурсы этого сервера доступны только одному клиенту, что повышает безопасность и уровень контроля.

Бизнес все чаще сталкивается с задачами обработки больших объемов данных — это актуальная потребность рынка. High Capacity — производительное и при этом гибкое решение, которое позволит справляться с такими вызовами. Новый сервис станет находкой для компаний, которые работают с аналитическими платформами, системами управления данными, базами данных. High Capacity позволяет справляться с пиковыми нагрузками, не теряя в производительности, а также дает возможность масштабировать ресурсы под текущие потребности
Александр Обухов, директор по продуктам компании «РТК-ЦОД»

www.cloud.rt.ru/registration

Архив покупки активов



www.cloud.rt.ru/registration
www.cloud.rt.ru/showcase/help
www.rt-dc.ru
www.rt-dc.ru/about/licenses/
  • Ростелеком-ЦОД
  • NGENIX
  • MSK-IX
  • Технический центр Интернет
  • Базис
  • Ростелеком М9
  • РТК Цифровые технологии
  • Центр Технологий ЦОД

4 апр 2024
Как мы тестируем серверы

7 ноя 2023
Как мы создали и развиваем лабораторию R&D

17 авг 2023
Упрощаем мониторинг заданий в Veeam Backup and Replication

23 мар 2023
Новая точка на карте ЦОДов Москвы
Мы открыли новый дата-центр «Ростелеком-ЦОД» в Медведково. Строительство началось в июле 2022 года на базе складского комплекса класса А+, первый этап был реализован за 9 месяцев.
Сегодня в эксплуатацию принято 4 машинных зала из шестнадцати. Каждый из них может вместить до 312 стандартных серверных шкафов, т.е. всего 1248 стойко-мест. Общая электрическая мощность четырех машинных залов и поддерживающей инженерной инфраструктуры составляет 9 МВт.


22 дек 2022
Как найти проблему с производительностью ВМ на VMware ESXi

6 окт 2022
Частые вопросы по миграции базы данных 1С с MS SQL на PostgreSQL

15 сен 2022
Нашему ЦОДу в Новосибирске исполнилось полтора года. За это время в дата-центре выросла зона доступности облака DataLine для заказчиков из Сибири и Дальнего Востока, а также появились новые услуги. Сейчас в новосибирском облаке размещаются почтовые сервисы, облачные диски клиентов, объектные хранилища, сервисы DBaaS, Kubernetes, сервисы ИБ, DR-площадки и резервные копии.
На востоке растут облака: новосибирский дата-центр «Ростелеком-ЦОД» сегодня

2 июн 2022
Тестируем комплексную защиту от DDoS в 2 этапа

5 мая 2022
Кастомизируем дашборды в Grafana для инженеров по холодоснабжению ЦОДа

14 апр 2022
Тестируем шлюз безопасности UserGate на железе зарубежного NGFW

31 мар 2022
Как оценить риски для зарубежных NGFW и выбрать схему подключения отечественного аналога

24 мар 2022
Миграция из Office 365: задачи, способы и сроки

13 янв 2022
“А вы точно DBA?” Что спросить у провайдера перед подключением Managed DBaaS

16 дек 2021
Как документировать сервер и контролировать его управление, даже если у вас небольшой стартап

18 ноя 2021
Как быть с сетью, если резервируешь инфраструктуру между городами и провайдерами

11 ноя 2021
Инфраструктура в разных концах города: как не проворонить сетевую связность

28 окт 2021
Почему «падают» серверные стойки

2 сен 2021
За парту в дата-центре, или Как мы строим распределенный центр подготовки инженеров

26 авг 2021
Тестируем переезд ВМ через Hystax и уходим от ручных настроек сети

12 авг 2021
Правила жизни дата-центра в дождь, шторм и аномальную жару

22 июл 2021
Как мы наблюдаем за метриками в дата-центре и развиваем наш мониторинг

10 июн 2021
Уроки стойкости, или Выбираем стойки для ИТ-оборудования правильно

27 мая 2021
Почему виртуалки “на вырост” начинают тормозить, и что с этим делать новичку

29 апр 2021
Чтоб сервер не рассыпался по дороге: как мы перевозим дорогое ИТ-оборудование

15 апр 2021
На пути к умной стойке: как мы тестировали метки для учета серверов в ЦОДе

8 апр 2021
Чек-лист внедрения VDI: что учесть, чтобы виртуальные рабочие столы работали как надо

25 мар 2021
На коленке: агрегация VPN, или Надежная связь на ненадежных каналах

4 мар 2021
Статистика и ЦОД: откуда берутся 5 кВт на стойку и почему это немало

25 фев 2021
Калининский район Санкт-Петербурга и со всех сторон посмотрим на дата-центр «Ростелеком-ЦОД», который запустился в декабре 2020 года. Новый ЦОД построили «с нуля» недалеко от корпусов завода ЛОМО по адресу: ул. Жукова, 43.
Пять лет назад здесь было заброшенное строительство мазутохранилища (любим строить на территориях старых заводов).
Гуляем по новому дата-центру “Ростелеком-ЦОД” в Санкт-Петербурге


28 янв 2021
Как мы разгоняли кластер для нагруженных баз Microsoft SQL и получали заветные 200 000 IOPS

25 дек 2020
2020 глазами дежурного инженера, или Один в ЦОДе
www.youtube.com/watch?v=6Y4FhJmRWCc

17 дек 2020
Что может Citrix Session Recording – решение для записи сессий на виртуальных рабочих столах

10 дек 2020
Из грязи в RPKI-князи-1. Подключаем валидацию маршрутов в ВGP

12 ноя 2020
И целого WAF’а мало: как мы проапгрейдили сервис защиты веб-сайтов

1 окт 2020
Найти 15 инженеров за две недели карантина

24 сен 2020
Как мы защищаем виртуальные рабочие столы клиентов от вирусов, шпионов и атак

9 июл 2020
Между Москвой и Санкт-Петербургом: экскурсия по мегаЦОДу «Удомля»


2 июл 2020
Невыдуманные истории про сеть: как я учил физику на своих и чужих ошибках

18 июн 2020
MMS-система в дата-центре: как мы автоматизировали управление техническим обслуживанием

4 июн 2020
Смертные грехи безопасности сайта: что мы узнали из статистики сканера уязвимостей за год

2 апр 2020
А продемонстрируйте, или Как мы проходили аудит Operational Sustainability в Uptime Institute

26 мар 2020
Чем плоха СМС-аутентификация и как защититься от угона SIM-карты

19 мар 2020
Воздушки, релейки, кабель в окно: как не напороться на провайдера-монополиста в бизнес-центре

12 мар 2020
АВР и все, все, все: автоматический ввод резерва в дата-центре

30 янв 2020
Катастрофоустойчивое облако: как это работает


12 дек 2019
С Hyper-V на VMware и обратно: конвертация виртуальных дисков

28 ноя 2019
Как мы тестировали WD ActiveScale P100 для нашего S3-хранилища

21 ноя 2019
Операция “Миграция”: как происходит переезд в облако DataLine

17 окт 2019
PDU и все-все-все: распределение питания в стойке


10 окт 2019
5+ способов подключиться к облаку DataLine

6 авг 2019
DISKOBALL: соревнования по метанию HDD-дисков, 23 августа, г. Москва
У нас было 150 дисков, 300 литров пива и 150 айтишников, готовых пустить все это в дело.
Это мы про DISKOBALL: первые в России соревнования по метанию HDD-дисков, которые пройдут 23 августа в Москве.

6 дек 2018
Как строятся оптоволоконные сети


29 ноя 2018
Три истории модернизации в дата-центре

30 авг 2018
Независимая приёмка ЦОД

6 фев 2018
10-гигабитный Ethernet: советы новичку

26 дек 2017
Чек-лист неприятностей, которые могут случиться при переезде
Совсем недавно мы открыли облако в Санкт-Петербурге. Оборудование для него перевозили из Москвы.

11 авг 2017
Эволюция сайта — взглядом Linux-админа дата-центра

28 июл 2017
Бюджет на эксплуатацию дата-центра: инструкция по составлению

20 июл 2017
Когда деревья были большими: как маленький дата-центр ураган пережил

29 июн 2017
Эксплуатация дата-центра: что нужно делать самим

30 мая 2017
Dumb ways to die, или отчего “падают” дата-центры

19 мая 2017
Чтобы карета не превратилась в тыкву, или зачем нужны тестовые восстановления из резервных копий

4 мая 2017
Опыт DataLine: работа службы техподдержки

20 апр 2017
Вредные советы по настройке резервного копирования и несколько баек

14 апр 2017
Гуляем по дата-центру TIER III
У нас для вас пятничный видеотур по дата-центру NORD-4. Дата-центр располагается на Коровинском шоссе в Москве. По проекту будет вмещать 2016 стоек. Сейчас в эксплуатации 1008 стоек, в апреле заработает еще 504.

31 мар 2017
Дата-центр по системе Станиславского: как устроен корпоративный театр DataLine

7 мар 2017
Опыт DataLine: как мы готовим дежурных инженеров для своих дата-центров

17 фев 2017
Обслуживание инженерных систем ЦОД: что должно быть в договоре подряда

13 фев 2017
Семинар «Сколько стоит эксплуатация ЦОД?», 21 февраля, дата-центр OST

3 фев 2017
Network Controller: программно-определяемые сети в Windows Server 2016. Часть 1: возможности и службы

20 янв 2017
Как тестируют ДГУ в дата-центре

13 янв 2017
Мониторинг инженерной инфраструктуры в дата-центре. Часть 1. Основные моменты

22 дек 2016
Резервное копирование с помощью Commvault: немного статистики и кейсов

15 дек 2016
Своя точка обмена трафиком в дата-центре. Часть 2. Инструменты для участников DataLine-IX


8 дек 2016
Своя точка обмена трафиком в дата-центре. Часть 1. Как это устроено

9 ноя 2016
Как создавалась система холодоснабжения дата-центра NORD-4


26 окт 2016
Полезные мелочи в дата-центре: Wi-Fi IP KVM


7 окт 2016
Ошибки в проекте дата-центра, которые вы ощутите только на этапе эксплуатации

21 сен 2016
Путь электричества в дата-центре

9 сен 2016
Экскурсия по дата-центру NORD-4

1 сен 2016
Все умрут, а я останусь: репликация и послеаварийное восстановление в облако с помощью Veeam Cloud Connect Replication

25 авг 2016
Работаем с гибридным облаком: VMware vCloud Connector, часть 2

2 авг 2016
Работаем с гибридным облаком: VMware vCloud Connector, часть 1

31 мая 2016
Бесплатный семинар «Холодоснабжение ЦОД: как не перегреться летом», 8 июня, дата-центр NORD 4

23 мая 2016
Семинар «Oracle в «облаке» и экскурсия по одному из крупнейших дата-центров России NORD 4, 26 мая, г. Москва

11 фев 2016
От сложного к простому: запускаем виртуальный сервер Windows/Linux

9 дек 2015
Семинар «Backup любых объектов на основе CommVault Simpana», 10 декабря, дата-центр OST (Москва)


18 ноя 2015
CloudLITE 2.0, или работа над ошибками облачного провайдера
В середине октября мы перезапустили облачный сервис CloudLITE, поменяв платформу провижининга и биллинга на BILLManager. Сегодня расскажем о том, что у нас изменилось и почему.
Переход на vCloud Director оказался непростым, в первую очередь, для вчерашних пользователей VDS/VPS: совершенно незнакомый интерфейс, огромное количество настроек… Мы постарались по возможности «облегчить» это знакомство посредством инструкций и видео-мануалов, но все равно часть пользователей терялись, ошибались – и в результате уходили разочарованными.


12 авг 2015
Моддинг кондиционера Stulz CyberAir


28 июль 2015
vCloud Director для самых маленьких (часть 5): настройка VPN

17 июль 2015
vCloud Director для самых маленьких (часть 4): все о работе с шаблонами виртуальных машин

18 июнь 2015
vCloud Director для самых маленьких (часть 3): настройка балансировщика нагрузки

15 июнь 2015
Запустили новый облачный сервис AzureLine

5 июнь 2015
Изучаем внутренности сервера Huawei RH5885 V3 (unboxing)

18 мая 2015
VMware Virtual SAN (VSAN): зачем он вам и как его готовить

5 мая 2015
vCloud Director для самых маленьких (часть 2): создание виртуальных машин

28 апр 2015
vCloud Director для самых маленьких (часть 1): настройка сети

21 апр 2015
Остаться в живых: чеклист для подготовки ЦОДа к лету

6 апр 2015
Запускаем магазин облачных ресурсов CloudLITE.ru

20 мар 2015
«Идеальный шторм» и как это лечится

23 апр 2014
Гуляем по дата-центру NORD
NORD 1: площадь -1320 кв. м, 284 стойко-мест.
NORD 2: площадь — 1713 кв. м, 474 стойко-мест.
NORD 3: площадь — 1880 кв. м, 426 стойко-мест.
NORD 4 (будет запущен этим летом): площадь — 11700 кв. м, 2016 стойко-мест.

4 фев 2014
Дата-центр OST на ул. Боровая — самый первый ЦОД DataLine. В 2009 году именно с открытием двух машинных залов в этом ЦОДе компания вышла на рынок услуг коммерческих дата-центров. С момента своего старта OST ежегодно расширялся и обзаводился новыми машинными залами. На сегодняшний день ЦОД OST – это 9 машинных залов (общей площадью 2045 кв. м.) на 903 стойки и 250 кв. м офисного пространства для резервных офисов заказчиков. Здесь же трудится головной офис компании, так сказать, без отрыва от производства.

16 сен 2013
7 популярных ошибок при подключении оборудования

11 сен 2013
Дата-центр NORD на Коровинском шоссе
ЦОД состоит из трех корпусов (NORD 1, NORD 2, NORD 3) и на сегодняшний день является самым масштабным объектом компании DataLine. Общая площадь всех корпусов дата-центров NORD 7636 кв. м., на таких пространствах с легкостью разместятся 1280 стоек в 8 машинных залах.