Новый ЦОД Selectel в Москве

Компания ввела в строй вторую очередь дата-центра «Берзарина». Новая площадка вмещает 350 серверных стоек и создана специально для облачных сервисов, на которые приходится более 85% выручки Selectel.

По сути, введенная в эксплуатацию площадка — новый ЦОД, расположенный на верхнем этаже пятиэтажного здания на северо-западе столицы. Этот дата-центр работает независимо от расположенного на втором этаже старого ЦОДа.

По-новому организована система охлаждения, в ней используется фрикулинг с секцией адиабатики. Холодный воздух забирается с одной стороны здания и проходит через очищающие фильтры. Внутрь помещения его нагнетают вентиляционные машины, имеющие дополнительные секции фильтрации. Из горячего коридора воздух выбрасывается с другой стороны здания вентиляторами. Часть горячего воздуха поступает через фальшпотолок в камеру смешения, что обеспечивает подачу в серверный зал воздуха с температурой 20°С и в холодное время года.

В случае жаркой погоды подключаются машины адиабатического охлаждения производства компании Munters. Для каждой из машин зарезервирован бак емкостью 900 л, который позволяет работать в течение 24 ч без долива воды. Всего планируется установить 10 машин, сейчас установлены три. Резервирование осуществляется по схеме N + 1. Суммарная производительность одной машины порядка 40 тыс. куб. м воздуха в час.

По сравнению с традиционными системами такая схема охлаждения потребляет до 80% меньше электроэнергии, затраты на которую составляют значительную часть операционных расходов дата-центра. По утверждению экспертов компании, проектный PUE второй очереди ЦОДа — 1,15.

На новых площадях дата-центра «Берзарина» установлены специально спроектированные стойки открытого типа с увеличенной высотой в 52U, позволяющие максимально эффективно использовать имеющееся пространство.

Общая площадь второй очереди дата-центра «Берзарина» составляет 1,2 тыс. кв. м, проектная мощность — 2,5 МВт. Уровень надежности соответствует стандарту Tier III.

На новых площадях дата-центра «Берзарина» уже развернут ряд услуг Selectel. Здесь присутствует ряд клиентов провайдера, например, сервис заказа такси «Ситимобил» и медиагруппа «Актион-МЦФЭР».

По оценке технического директора Selectel Кирилла Малеванова, значительная доля клиентов компании находится в столице. Новый ЦОД поможет уменьшить для них задержки при обращении к облаку Selectel, что особенно важно, если заказчик строит гибридное облако и создает резервную площадку корпоративного ЦОДа.

Selectel расширяет хранилища для облаков

Компания Selectel планирует инвестировать около 60 млн $ за два-три года в расширение сети дата-центров и разработку облачных сервисов. На московском рынке пока существует дефицит мощностей, который подтолкнул к расширению и другие компании, отмечают эксперты, ожидающие в ближайшее время также роста цен на аренду хранилищ.

Компания Selectel 20 марта вводит в эксплуатацию вторую очередь московского дата-центра «Берзарина», сообщил «Ъ» ее представитель. Инвестиции в проект составили около 5 млн $, уточняет он. Объект рассчитан на 350 специальных стойко-мест, его площадь составила 1,2 тыс. кв. м. Всего в течение двух-трех лет компания намерена вложить 30 млн $ в развитие сети дата-центров, чтобы ввести 1,5 тыс. новых стойко-мест и модернизировать существующие объекты. Еще 25 $–30 млн будет инвестировано в разработку облачных сервисов, говорят в Selectel.

В том числе благодаря запуску второй очереди дата-центра Selectel планирует за два года поднять выручку от облачных сервисов до 2,5 млрд руб., уточняет представитель компании. По итогам 2018 года эта выручка составила 1,3 млрд руб., что на 50% выше, чем годом ранее. Всего на облачные сервисы приходится более 85% выручки Selectel.

Selectel входит в пятерку крупнейших операторов центров обработки данных (ЦОД) в России по количеству стоек по предварительным результатам 2018 года, оценивает ведущий консультант iKS-Consulting Станислав Мирин. По результатам 2017 года по выручке компания занимала четвертое место с 6% на рынке услуг ЦОД.

В конце 2018 года на московском рынке качественных ЦОД наблюдался дефицит, который и подтолкнул компании к расширению, рассуждает господин Мирин. Кроме того, уже несколько других ЦОД заявили о планируемых расширениях в ближайшие годы, добавляет он: «Уже к концу 2019 года планируется ввод около 5 тыс. стойко-мест». Эти события заставили iKS-Consulting пересмотреть прогноз по динамике рынка. Если в прошлом году рост по итогам 2019 года ожидался примерно на 10%, то сейчас считается, что эти цифры будут превышены и рост достигнет 15%, рассказал Станислав Мирин.

Рынок ЦОД растет достаточно динамично, в год рост составляет 12–15%, развитию также способствует увеличение спроса на облачные сервисы, подтверждает руководитель сети дата-центров КРОК Павел Колмычек. Рынку коммерческих дата-центров помогают инициативы нацпроекта «Цифровая экономика» и цель достичь 5% хранения мировых данных на территории России к 2024 году, считает директор по облачным сервисам дата-центра Xelent Илья Рогов.

Пока же, по его словам, дефицит на рынке ЦОД сохраняется. Со временем нехватка хранилищ будет покрываться, однако строительство дата-центра по наиболее востребованному стандарту Tier III занимает несколько лет, указывает господин Рогов. «Операторы ЦОД достигли предела существующих площадок, и возможности вводить очередную порцию стоек сейчас практически ни у кого нет», — сетует Павел Колмычек. При сохранении низких цен операторам сложнее вернуть инвестиции в строительство новых площадок, указывает он. Скорее всего, рынок увидит ощутимый дефицит стоек к середине-концу 2019 года и сопутствующую корректировку уровня рыночной цены на стойко-места, а уже к середине-концу 2020 года можно ожидать ввода новых объектов в эксплуатацию, резюмирует господин Колмычек.

DDoS-GUARD и Selectel поставили на защиту Петербург



02 апреля 2019 года, Москва, Санкт-Петербург — Selectel, провайдер ИТ-инфраструктурных решений для бизнеса, и DDoS-GUARD, оператор связи и услуг по защите от DDoS-атак, совместно запустили узел фильтрации трафика. Он стал первой и единственной точкой в Петербурге, являющейся частью глобально распределенной фильтрующей сети.

Новый узел фильтрации расположен в дата-центре Selectel «Цветочная 2». Узел является разработкой компании DDoS-GUARD, которая занимается защитой от DDoS-атак с 2011 года и планомерно расширяет свою геораспределенную фильтрующую сеть.

Подключиться к узлу фильтрации могут как другие дата-центры, операторы связи, провайдеры и интеграторы, так и компании из других отраслей, которым критично важно защитить свои веб-ресурсы.

Это наш первый большой проект с DDoS-GUARD. Мы довольны его результатами и видим потенциал дальнейшей интеграции наших инфраструктур и услуг. Для Selectel это особенно актуально с учетом масштаба сети дата-центров и широты продуктовой линейки. Отдельно хочется отметить качество и высокую степень автоматизации сервисов DDoS-GUARD
Александр Тугов, директор по развитию услуг Selectel

Почему мы выбрали в качестве партнера именно Selectel? Потому что они делают ставку на современные технологии, не экономят на качестве услуг и всегда открыты для инноваций
Дмитрий Рудь, начальник отдела продаж DDoS-GUARD

В чем заключается выгода для клиентов?
Любой имеющий присутствие в дата-центре «Цветочная 2» заказчик может повысить надежность и отказоустойчивость собственных сервисов, оптимизировать маршруты трафика и снизить задержки на сети. Локальный трафик будет обработан непосредственно в Петербурге, без передачи на фильтрацию в другие регионы. Кроме того, петербургский узел соединен прямыми физическими каналами связи с узлами фильтрации в Москве и Амстердаме, что снижает нагрузку на каждый элемент сети.

Как работает решение?
Система фильтрации, частью которой является узел в Петербурге, способна вычислить и заблокировать DDoS-атаки на уровнях L3-L4 и L7 мощностью до 1,5 Tbps. Самообучаемая система работает в автоматическом режиме. Конечный пользователь получает уже очищенный трафик без задержек, при этом тарифицируется только легитимный трафик.

https://ddos-guard.net

Повышение разрешения изображения с помощью AI


Все мы помним, как часто в фильмах и сериалах кадры из сжатого видео увеличивают в несколько раз и получают чёткое изображение улики или человека в толпе. Мы подготовили для вас краткий перевод статьи, из которой вы сможете узнать, что такой трюк действительно возможен.

Увеличение разрешения изображения — задача по восстановлению фотографии с высоким разрешением из её аналога с низким разрешением. Алгоритмы с более быстрыми и глубокими свёрточными нейронными сетями демонстрируют впечатляющую точность и скорость. Но остаётся нерешённой существенная проблема: как восстановить мелкие детали текстуры при больших коэффициентах масштабирования. Цель последних работ в этой области — минимизация среднеквадратичной ошибки при реконструкции изображений, но в результатах при увеличении разрешения часто терялась точность воспроизведения.

В этой статье мы расскажем о SRGAN — генеративно-состязательной сети (Generative Adversarial Network, GAN) для повышения разрешения изображений (image superresolution). На сегодняшний день это первое решение, способное восстанавливать исходные текстуры из изображений, уменьшенных в четыре раза. Средняя экспертная оценка (MOS — mean opinion score) показывает значительный прирост качества при использовании SRGAN: результаты оказались близки к значениям оригинальных изображений с высоким разрешением, чего не удавалось достичь с помощью других современных методов. Вы сможете сами убедиться в этом, если после ознакомления с принципами работы SRGAN обучите нейросеть или же воспользуетесь готовой моделью.


1. Описание модели
Методы, направленные на качественное увеличение разрешения исходного изображения, называются super-resolution (SR). Мы рассмотрим работу с одним изображением (Single Image Super-Resolution, SISR) и не будем затрагивать тему восстанавливления высокого разрешения из нескольких снимков.

Первые подходы к решению проблемы SISR основывались на прогнозировании. Например, линейная фильтрация, бикубическая фильтрация, фильтрация Ланцоша. Эти методы работают быстро, но выдают решения с чрезмерно гладкими текстурами. Более мощные подходы нацелены на создание сложного отображения между снимками с низким (Low Resolution, LR) и высоким (High Resolution, HR) разрешением и обычно основаны на данных обучения. Такие методы полагаются на примеры пар LR-HR, то есть на те тренировочные шаблоны LR, для которых известны подходящие аналоги HR.

Более глубокие сетевые архитектуры сложнее обучить, однако они могут моделировать сложные отображения, а значит — существенно повысить точность реконструкции. Для эффективного обучения таких сетей часто используется пакетная нормализация, чтобы избежать внутреннего ковариационного сдвига. Глубокие сетевые архитектуры также увеличивают эффективность SISR.

Для многих подходов часто применяются попиксельные (pixel-wise) функции потерь (например, среднеквадратичная ошибка), которые пытаются справиться с неопределённостью при восстановлении текстуры изображения. Минимизация ошибки позволяет находить средние вероятностные решения для каждого пикселя, но они получаются слишком гладкими и, следовательно, имеют низкое качество восприятия, как показано на рисунке ниже. Основными критериями качества в задаче SR являются пиковое отношение сигнала к шуму (peak signal-to-noise ratio, PNSR) и индекс структурного сходства (structure similarity, SSIM), также указанные на рисунке.


Для решения проблемы сглаженных пикселей можно использовать генеративно-состязательные сети (GAN) и применять, например, функции потерь, основанные на евклидовых расстояниях, вычисленных в пространстве признаков нейронных сетей в сочетании с состязательным обучением. Также можно использовать признаки, извлечённые из предварительно обученной VGG (Visual Geometry Group) нейросети, формулируя функцию потерь как евклидово расстояние между картами этих признаков. Результаты, полученные с применением этих подходов, показали высокую эффективность как при работе с SR, так и при передаче художественного стиля (artistic style-transfer).

GAN обеспечивают мощную основу для создания правдоподобных SR-изображений с высоким качеством восприятия. В этой статье мы описываем глубокую архитектуру ResNet, использующую концепцию GAN для фотореалистичного SISR. Основные особенности:
  • увеличение разрешения изображения с высокими коэффициентами масштабирования (4x);
  • использование функции потерь восприятия (perceptual loss function), рассчитанной с помощью карт признаков VGG сети, которые более инвариантны к изменениям пикселей;
  • высокие результаты средней экспертной оценки MOS на общедоступных наборах данных.

2. Архитектура сети
Цель SISR — реконструировать изображение с высоким разрешением (SR) из входного изображения с низким разрешением (LR), которое является уменьшенной копией изначального снимка (HR). Изображения HR доступны только во время обучения, а LR создаются применением к ним фильтра Гаусса с последующей операцией понижения дискретизации (downsampling) и описываются с помощью действительного тензора.

Задача состоит в том, чтобы обучить генеративную функцию, которая для входного LR-изображения оценивает соответствующий HR аналог. Для этого мы обучаем GAN как cвёрточную нейронную сеть (convolutional neural network, CNN) прямого распространения с оптимизацией специфичной для SISR функции потерь восприятия.

Функция потерь восприятия генерируется как взвешенная комбинация нескольких компонентов, которые моделируют различные желаемые характеристики восстановленного SR-изображения.

Далее мы определяем дискриминаторную сеть (Discriminator Network, дискриминатор) и последовательно оптимизируем её вместе с генеративной сетью (генератором) для решения состязательной проблемы min-max. Общая идея заключается в том, чтобы обучить генеративную модель «обманывать» дискриминатор, который обучен отличать SR изображения от реальных. С помощью такого подхода генератор может научиться создавать решения, очень похожие на реальные изображения, и, следовательно, трудно классифицируемые дискриминатором.

В основе генеративной сети находятся B остаточных блоков с идентичной компоновкой. В каждом блоке находятся два свёрточных слоя с небольшими ядрами 3×3 и 64 картами признаков, за которыми расположены слои пакетной нормализации. В качестве функции активации используется PReLU (Parametric Rectified Linear Unit). Входное изображение увеличивается попиксельно с помощью двух свёрточных слоев.

Чтобы отличить реальные HR-снимки от сгенерированных образцов SR, необходимо обучить дискриминаторную сеть, используя функцию активации LeakyReLU и избегая формирования подвыборочных слоёв во всей нейросети. Дискриминаторная сеть содержит 8 свёрточных слоёв с возрастающим числом ядер фильтра 3×3 (с 64 до 512, каждый раз увеличиваясь в 2 раза, как в VGG сети). Пошаговые свёртки используются для уменьшения разрешения изображения каждый раз, когда число признаков удваивается. Полученные 512 карт признаков сопровождаются двумя плотными слоями и конечной сигмоидной функцией активации, чтобы получить вероятность классификации объекта.

Архитектуры обеих сетей показаны на рисунке.


3. Функция потерь восприятия
Определение функции потерь важно для эффективной работы генеративной сети. Обычно функция моделируется на основе среднеквадратичной ошибки, но в этой работе используется её улучшенный вариант. Мы оцениваем решение с учётом значимых характеристик восприятия — взвешенной суммы потерь содержания и состязательных потерь.

Потери содержания определяются на основе слоёв активации ReLU предварительно обученной VGG сети и определяются как евклидово расстояние между признаками восстановленного и опорного изображений.

Потери восприятия заставляют сеть отдавать предпочтение естественным изображениям, пытаясь обмануть дискриминатор. Они определяются на основе вероятности того, что восстановленное изображение является исходным HR-изображением.

4. Эксперименты
Эксперименты проводились на трёх широко используемых наборах данных Set5, Set14 и BSD100, тестовом наборе BSD300. Все опыты выполнены с коэффициентом 4x между снимками с низким и высоким разрешением. Это соответствует 16-кратному уменьшению пикселей изображения. Для достоверного сравнения все измеренные значения PSNR [дБ] и SSIM были рассчитаны на Y-канале с центральным кадрированием и удалением полосы шириной в 4 пикселя у каждой границы изображения.

Обучение проводилось на графическом процессоре NVIDIA Tesla M40 с использованием случайной выборки из 350 тысяч изображений, взятых из базы данных ImageNet. Изображения LR были получены путём понижения дискретизации HR-изображений (BGR) с использованием бикубического ядра.

Для каждого мини-пакета обрезаются 16 случайно выбранных частей HR-изображения с разрешением 96×96 (мы можем применить генеративную модель к снимкам произвольного размера, так как она полностью является свёрточной). Далее входные LR-изображения масштабируются в диапазоне [0, 1], а HR — в диапазоне [-1, 1]. Таким образом, потери среднеквадратичной ошибки рассчитываются в диапазоне интенсивностей [-1, 1].

Для оптимизации используется алгоритм Adam (adaptive moment estimation). В качестве инициализации при обучении сети GAN использовалась ранее обученная нейросеть SRResNet, чтобы избежать нежелательных локальных минимумов.

Все варианты SRGAN прошли обучение с 105 обновляемыми итерациями со скоростью обучения 10−4, и затем ещё с 105 итерациями с более низкой скоростью 10−5, при этом чередуя обновления для генеративной и дискриминаторной сети. Генеративная сеть имеет 16 идентичных (B=16) остаточных блоков. Во время тестирования обновления пакетной нормализации отключены, чтобы получить результат, зависящий только от исходных данных.

5. Оценка качества и результаты
Для количественной оценки способности различных подходов восстанавливать высокое разрешение изображений был выполнен тест MOS. В тесте участвовали 26 оценщиков; они присваивали балл от 1 (плохое качество) до 5 (отличное качество) восстановленным SR-изображениям. Калибровка проводилась на 20 парах изображений с низким и высоким разрешением из набора BSD300. Оценщики сравнили 12 версий каждого изображения из Set5, Set14 и BSD100 для различных упомянутых выше подходов SISR, а также для оригинальных HR-изображений. Каждый оценщик протестировал 1128 экземпляров (12 версий 19 изображений плюс 9 версий 100 изображений) в случайном порядке. Результаты показали хорошую надёжность и никаких существенных различий между оценками идентичных изображений, что продемонстрировано на рисунке ниже.


Качественные оценки потерь для различных методов на визуальном примере:


Количественные оценки:

Решение, основанное на среднеквадратичной ошибке, получает самое высокое значение PSNR, но при этом получается довольно гладким и менее убедительным, чем результаты, полученные с более чувствительным коэффициентом потерь.

Таким образом, эксперименты подтверждают, что SRGAN превосходит все существующие методы с большим отрывом и открывает новые возможности для создания фотореалистичных SR-изображений. Ниже приведены примеры обработки нескольких снимков.


6. Обучение собственной нейросети для SISR
Используя материалы из этой статьи, вы можете обучить свою нейросеть для получения изображений с высоким разрешением. Исходный код доступен на github. Для начала работы вам необходимо:

Подготовить данные и предварительно обученную нейросеть VGG
  • Загрузите предварительно обученную VGG сеть отсюда.
  • Подготовьте изображения с высоким разрешением для обучения.

В качестве эксперимента использовались изображения из соревнования DIV2K — bicubic downscaling x4 competition, поэтому параметры обучения в файле config.py установлены в соответствии с этим набором данных. Если ваш датасет будет больше, то вы можете уменьшить число эпох обучения.

Также можно использовать набор данных Yahoo MirFlickr25k, загрузив их прямо из main.py:
train_hr_imgs = tl.files.load_flickr25k_dataset(tag=None)

Если вы хотите использовать собственные изображения, укажите путь к папке с ними в файле
config.py с помощью config.TRAIN.hr_img_path

Запустить программу
Установите папку с изображениями в config. py (если вы используете датасет DIV2K — ничего не меняйте):
config.TRAIN.img_path = "your_image_folder/"
Ссылки на набор DIV2K: <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/validation_release/DIV2K_test_LR_bicubic_X4.zip">test_LR_bicubic_X4</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/DIV2K_train_HR.zip">train_HR</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/DIV2K_train_LR_bicubic_X4.zip">train_LR_bicubic_X4</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/validation_release/DIV2K_valid_HR.zip">valid_HR</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/DIV2K_valid_LR_bicubic_X4.zip">valid_LR_bicubic_X4</a>

Начните обучение:
python main.py

Начните оценку (можете воспользоваться предварительно обученной на DIV2K моделью):
python main.py --mode=evaluate

Теперь вы можете использовать нейросеть для восстановления высокого разрешения изображений.

Все, кто на практике воспользовался рекомендациями по обучению генеративно-состязательной нейросети, делитесь в комментариях результатами: было ли это просто или возникали сложности. Всегда готовы обсудить с вами все возникающие вопросы.

С оригинальной статьёй можно ознакомиться на портале arxiv.org.

Как организовать техническую поддержку пользователей и отдел продаж?



Для клиентов очень важна быстрая техподдержка в критичных ситуациях, например, если не получается продлить важный домен перед его удалением, или заблокирован аккаунт, что может быть ещё хуже. Вот почему необходимо всегда быть на связи с клиентом. Это можно организовать двумя удобными для обеих сторон способами.

Способ организации тикет-системы для заявок от клиентов
Проще всего организовать систему обработки заявок клиентов на базе уже имеющихся решений. Стоит учитывать, что они ресурсозатратны. Мы рекомендуем вам один из самых оптимальных вариантов, которые находятся на рынке — osticket.com. Эта тикет-система разворачивается, что называется, «из коробки», в три клика, и позволяет вам отвечать на заявки клиентов, а им, в свою очередь, быть в курсе своих запросов в службу поддержки.

Это решение гораздо проще и экономнее в ресурсах, чем, например, OTRS Help Desk и работает значительно быстрее. А это значит, что клиенты будут всегда довольны быстрыми ответами технической поддержки.

Как быстро и дёшево организовать call-центр?
Но то, что действительно будет выделять сайт среди сайтов других реселлеров, так это наличие телефонной технической поддержки и отдела продаж. Возникает вопрос: насколько сложно это сделать? Это проще, чем разместить тикет-систему на поддомене. Не нужно заводить call-центр, покупать телефоны и т. д. Такие сервисы предоставляют приложения под IP-телефонию, а также телефонные номера.

Одни из самых известных
  • sipuni.com
  • tekmi.ru
  • telphin.ru
  • youmagic.pro
Последний в списке youmagic.pro зарекомендовал себя как одна из самых надёжных и простых в использовании виртуальных АТС. Вы получаете в использование прямой городской номер в одном из 8 городов России, а также можете подключить номер 8−800. Стоит дополнительно указать, что SIP-клиент можно установить на компьютер и сотовый телефон, т. е. необязательно закупать IP-телефоны для сотрудников. При подключении базового пакета доступны 5 внутренних номеров для сотрудников, чего на этапе запуска вполне хватит для отдела продаж.

Где искать потенциальных клиентов?
Кстати, можно не создавать отдел продаж на постоянной основе, а лишь периодически нанимать фрилансеров для обзвона веб-студий и клиентов, что обойдётся вашей компании в меньшие деньги. Список веб-студий можно легко найти в открытом доступе. Кроме того, для веб-студий можно создать специальный тариф прямо в REG.Panel и озвучить его в деловом предложении. Большинство студий и агентств заинтересованы в льготных условиях, например, в специальной цене на домены.

www.reg.ru

Горячие новости Облака за март



Яндекс.Облако: все новости платформы


Мы запустили партнёрскую программу
Теперь компании, которые разрабатывают уникальные технологические решения, могут не только использовать облачные сервисы Яндекса, но и размещать свои решения в Yandex Cloud Marketplace. Став партнёром-разработчиком, вы получите грант на тестирование сервиса, сможете пройти бесплатное обучение и получать техническую поддержку.
Есть партнёрская программа для системных интеграторов — подробности на сайте.
cloud.yandex.ru/partners


В Яндекс.Облаке появился блог
Мы будем регулярно рассказывать о новостях платформы, новых возможностях Облака, разбирать кейсы и делиться личным опытом пользователей.


Грант для разработчиков Диалогов Алисы
Создали новый навык для Алисы? Теперь вы можете получить годовой грант на 3000р. на его разработку и развитие. Для этого разместите навык в Облаке и подайте запрос на грант.
tech.yandex.ru/dialogs/alice/doc/ycloud-promo-docpage/

Коротко о важном
Блог Облака: Как настроить управляемую базу ClickHouse с данными для Graphite
ClickHouse можно использовать как хранилище данных Graphite. Из статьи вы узнаете о том, как настроить конфигурацию rollup в ClickHouse и создать таблицы на основе GraphiteMergeTree
hosting.kitchen/yandex-cloud/kak-nastroit-upravlyaemuyu-bazu-clickhouse-s-dannymi-dlya-graphite.html

Хабр: MPLS повсюду. Как устроена сетевая инфраструктура Яндекс.Облака
Мы получаем много вопросов о сетевой инфраструктуре Облака — эта январская статья раскроет ответы на основные из них. В статье мы рассказали, почему в Облаке применяется непопулярная для дата‑центров парадигма MPLS, как мы ей управляем, какие сложные решения нам пришлось принять и какие мониторинги используем.
habr.com/ru/company/yandex/blog/437816/

Пользователи об Облаке
Как перенести сайт на базе WordPress в Яндекс.Облако?
Наш пользователь Олег Иванов написал пошаговую инструкцию о переносе сайта в инфраструктуру Облака: по ссылке вы найдете подробный разбор каждого шага, возможных сложностей и подходов к их решению. Вы можете рассказать свою историю о работе с платформой — присылайте материалы на cloud‑blog@yandex‑team.ru
cloud.yandex.ru/blog/posts/2019/03/wp

Вебинары и видеокурсы

Новые сервисы в Яндекс.Облаке: как мы выросли со дня запуска




Мы постоянно добавляем в Яндекс.Облако новые сервисы и развиваем существующие. В декабре 2018 года мы открыли доступ к инфраструктурным сервисам. С их помощью уже на старте можно было наладить обработку и хранение данных, безопасный доступ и обмен трафиком. В Яндекс.Облаке сразу же стал доступен и набор платформенных сервисов, позволяющих пользоваться проверенными технологиями Яндекса. Мы предоставили управляемые базы данных, API синтеза и распознавания речи и уникальный гибридный перевод. Три месяца спустя мы видим, что правильно оценили готовность рынка — доля потребления платформенных сервисов растёт. Крупные клиенты уже по достоинству оценили простоту и скорость внедрения решений на базе PaaS Яндекс.Облака в коммерческую эксплуатацию.

Посмотрите, какие новые сервисы появились в Яндекс.Облаке после запуска:

Инфраструктурные:
  • Yandex Load Balancer — позволяет создавать и настраивать балансировщики для обеспечения отказоустойчивости вашего приложения или для распределения сетевого трафика по облачным ресурсам
  • Yandex Instance Groups — компонент сервиса Yandex Compute Cloud, предназначенный для развёртывания и горизонтального масштабирования виртуальных машин
  • Yandex Message Queue — универсальное масштабируемое решение для обмена сообщениями между приложениями.
  • Yandex Container Registry — сервис для развёртывания Docker-образов контейнеров и управления ими в инфраструктуре Облака.

Платформенные:
  • Yandex Managed Service for Redis/MySQL — автоматизирует процесс внедрения и поддержки кластеров баз данных в инфраструктуре Облака. Мы расширили список доступных СУБД с трёх до пяти: помимо ClickHouse, PostgreSQL и MongoDB теперь можно использовать Redis и MySQL.
Новые сервисы на данной стадии не тарифицируются. Получить к ним доступ можно на сайте — при условии, что вы уже являетесь пользователем Облака. Подтверждение доступа придёт в виде письма на email, указанный в настройках консоли.

Terraform — ещё один способ управления вашим облаком




Хорошие новости: у нас появился официальный Terraform-провайдер — один из самых популярных инструментов управления облачной инфраструктурой.

В Terraform настройка облачной инфраструктуры любого масштаба происходит через создание конфигурационных файлов. Они составляются на JSON-подобном языке HashiCorp Configuration Language (HCL) и отличаются простым в написании и прозрачным синтаксисом.

Terraform стоит рассматривать как альтернативу консоли, API и CLI — у каждого метода есть свои плюсы. Всё зависит от того, как именно вы организовали управление Облаком. По виду HCL-файла легко оценить масштаб и сложность инфраструктуры, узнать основные параметры; добавлять компоненты и перестраивать группы ресурсов не составляет труда. Это могут быть ресурсы любых типов: виртуальные машины, хранилища, базы данных и т. д.

Почитайте в документации Яндекс.Облака, как установить Terraform, настроить его и создать первую конфигурацию. Стандартный грант на тестирование платформы, который активируется при регистрации, позволит вам испытать любые инструменты управления и выбрать один или несколько под разные задачи.

Как настроить управляемую базу ClickHouse с данными для Graphite




При развитии Яндекс.Облака мы, с одной стороны, наращиваем функциональность самой платформы, а с другой — следим, чтобы компоненты было несложно интегрировать с внешними продуктами. Graphite — пример ПО, лёгкость интеграции с которым является важным свойством баз данных Облака. Это библиотека с открытым кодом для хранения и визуализации метрик.

Graphite удобно настроить так, чтобы данные хранились в столбцовой аналитической базе ClickHouse. Специально для этого разработан один из множества движков — GraphiteMergeTree. Он лучше всего подходит для прореживания и агрегирования (либо усреднения) содержимого БД. Саму базу полезно разместить в Яндекс.Облаке через платформенный сервис Yandex Managed Service for ClickHouse. Тогда её не потребуется обслуживать и обновлять — все подобные функции сервис возьмёт на себя.

В этом посте мы опишем процесс настройки Yandex Managed Service for ClickHouse специально под Graphite.

1. Регистрация конфигурации rollup в ClickHouse
Создание конфигурации rollup в существующем кластере Managed Service for Clickhouse можно произвести через CLI или API.

CLI
Если вы выбрали интерфейс командной строки, подготовьте yaml-файл с описанием параметров rollup, например:
graphite-rollup.yaml:
          name: test_rollup
patterns:    
  - regexp: click_cost
    function: max
    retention:
      - age: 86400
        precision: 60

Указанные в файле параметры соответствуют конфигурации, описанной в документации.

Далее выполните команду, указав ID кластера ClickHouse и имя файла конфигурации, созданного на предыдущем шаге:
$ yc managed-clickhouse cluster add-graphite-rollup <CLUSTER_ID> --rollup-file-name graphite_rollup.yaml


API
Используйте метод update для кластера ClickHouse, передав в теле запроса требуемые параметры rollup:
"graphiteRollup": [
          {
            "name": "test_rollup",
            "patterns": [
              {
                "regexp": "click_cost",
                "function": "max",
                "retention": [
                  {
                    "age": "86400",
                    "precision": "60"
                  }
                ]
              }
            ]
          }
        ]


2. Создание таблицы на основе GraphiteMergeTree
Подключитесь к хосту ClickHouse и выполните запрос на создание таблицы на основе GraphiteMergeTree. В качестве параметра передайте имя секции rollup, описанной на предыдущем этапе. Вот пример:
CREATE TABLE GraphiteTable
(        
    metric String, 
    time DateTime, 
    value Int64, 
    version UInt64
)
ENGINE = GraphiteMergeTree('test_rollup')
PARTITION BY time
ORDER BY cityHash64(version, metric)

Теперь можно настроить Graphite для сохранения значений метрик на выбранном хосте ClickHouse. При этом прореживание данных будет проводиться автоматически средствами сервера ClickHouse в соответствии с параметрами, которые вы указали.

Облачные базы данных: внедрение быстрого хранения

Начиная с этой недели, новые облачные базы данных OVH основаны на высокопроизводительном SSD-накопителе NVMe.

Интерес имеет два аспекта:
  • Прибыль в выступлениях (чтениях / письмах). После теста FIO мы сделали скачок вперед, и я обнаружил, что около 20 000 IOPS постоянно.
  • Что говорит о лучшей производительности, означает больше возможностей для ваших баз для управления запросами. Как правило, это уменьшает потребление оперативной памяти, и, следовательно, уменьшает OOMKill

Мы не забываем существующих клиентов и базы данных! В ближайшие недели мы переходим на новый техно каждый день. Конец оценивается в мае.
Не планирую разглашать. Чтобы выяснить, мигрировали ли вы уже, вы можете посмотреть на своего «Хоста» в клиентской области, он должен быть на 007
Пример: «dbaas002.sql007»

Задача работает: travaux.ovh.net/?do=details&id=37809

Изменений тарифов не ожидается, ни для новостей, ни для существующих.
Облачные базы данных: www.ovh.com/en/cloud/cloud-databases/