DDoS-GUARD и Selectel поставили на защиту Петербург



02 апреля 2019 года, Москва, Санкт-Петербург — Selectel, провайдер ИТ-инфраструктурных решений для бизнеса, и DDoS-GUARD, оператор связи и услуг по защите от DDoS-атак, совместно запустили узел фильтрации трафика. Он стал первой и единственной точкой в Петербурге, являющейся частью глобально распределенной фильтрующей сети.

Новый узел фильтрации расположен в дата-центре Selectel «Цветочная 2». Узел является разработкой компании DDoS-GUARD, которая занимается защитой от DDoS-атак с 2011 года и планомерно расширяет свою геораспределенную фильтрующую сеть.

Подключиться к узлу фильтрации могут как другие дата-центры, операторы связи, провайдеры и интеграторы, так и компании из других отраслей, которым критично важно защитить свои веб-ресурсы.

Это наш первый большой проект с DDoS-GUARD. Мы довольны его результатами и видим потенциал дальнейшей интеграции наших инфраструктур и услуг. Для Selectel это особенно актуально с учетом масштаба сети дата-центров и широты продуктовой линейки. Отдельно хочется отметить качество и высокую степень автоматизации сервисов DDoS-GUARD
Александр Тугов, директор по развитию услуг Selectel

Почему мы выбрали в качестве партнера именно Selectel? Потому что они делают ставку на современные технологии, не экономят на качестве услуг и всегда открыты для инноваций
Дмитрий Рудь, начальник отдела продаж DDoS-GUARD

В чем заключается выгода для клиентов?
Любой имеющий присутствие в дата-центре «Цветочная 2» заказчик может повысить надежность и отказоустойчивость собственных сервисов, оптимизировать маршруты трафика и снизить задержки на сети. Локальный трафик будет обработан непосредственно в Петербурге, без передачи на фильтрацию в другие регионы. Кроме того, петербургский узел соединен прямыми физическими каналами связи с узлами фильтрации в Москве и Амстердаме, что снижает нагрузку на каждый элемент сети.

Как работает решение?
Система фильтрации, частью которой является узел в Петербурге, способна вычислить и заблокировать DDoS-атаки на уровнях L3-L4 и L7 мощностью до 1,5 Tbps. Самообучаемая система работает в автоматическом режиме. Конечный пользователь получает уже очищенный трафик без задержек, при этом тарифицируется только легитимный трафик.

https://ddos-guard.net

Повышение разрешения изображения с помощью AI


Все мы помним, как часто в фильмах и сериалах кадры из сжатого видео увеличивают в несколько раз и получают чёткое изображение улики или человека в толпе. Мы подготовили для вас краткий перевод статьи, из которой вы сможете узнать, что такой трюк действительно возможен.

Увеличение разрешения изображения — задача по восстановлению фотографии с высоким разрешением из её аналога с низким разрешением. Алгоритмы с более быстрыми и глубокими свёрточными нейронными сетями демонстрируют впечатляющую точность и скорость. Но остаётся нерешённой существенная проблема: как восстановить мелкие детали текстуры при больших коэффициентах масштабирования. Цель последних работ в этой области — минимизация среднеквадратичной ошибки при реконструкции изображений, но в результатах при увеличении разрешения часто терялась точность воспроизведения.

В этой статье мы расскажем о SRGAN — генеративно-состязательной сети (Generative Adversarial Network, GAN) для повышения разрешения изображений (image superresolution). На сегодняшний день это первое решение, способное восстанавливать исходные текстуры из изображений, уменьшенных в четыре раза. Средняя экспертная оценка (MOS — mean opinion score) показывает значительный прирост качества при использовании SRGAN: результаты оказались близки к значениям оригинальных изображений с высоким разрешением, чего не удавалось достичь с помощью других современных методов. Вы сможете сами убедиться в этом, если после ознакомления с принципами работы SRGAN обучите нейросеть или же воспользуетесь готовой моделью.


1. Описание модели
Методы, направленные на качественное увеличение разрешения исходного изображения, называются super-resolution (SR). Мы рассмотрим работу с одним изображением (Single Image Super-Resolution, SISR) и не будем затрагивать тему восстанавливления высокого разрешения из нескольких снимков.

Первые подходы к решению проблемы SISR основывались на прогнозировании. Например, линейная фильтрация, бикубическая фильтрация, фильтрация Ланцоша. Эти методы работают быстро, но выдают решения с чрезмерно гладкими текстурами. Более мощные подходы нацелены на создание сложного отображения между снимками с низким (Low Resolution, LR) и высоким (High Resolution, HR) разрешением и обычно основаны на данных обучения. Такие методы полагаются на примеры пар LR-HR, то есть на те тренировочные шаблоны LR, для которых известны подходящие аналоги HR.

Более глубокие сетевые архитектуры сложнее обучить, однако они могут моделировать сложные отображения, а значит — существенно повысить точность реконструкции. Для эффективного обучения таких сетей часто используется пакетная нормализация, чтобы избежать внутреннего ковариационного сдвига. Глубокие сетевые архитектуры также увеличивают эффективность SISR.

Для многих подходов часто применяются попиксельные (pixel-wise) функции потерь (например, среднеквадратичная ошибка), которые пытаются справиться с неопределённостью при восстановлении текстуры изображения. Минимизация ошибки позволяет находить средние вероятностные решения для каждого пикселя, но они получаются слишком гладкими и, следовательно, имеют низкое качество восприятия, как показано на рисунке ниже. Основными критериями качества в задаче SR являются пиковое отношение сигнала к шуму (peak signal-to-noise ratio, PNSR) и индекс структурного сходства (structure similarity, SSIM), также указанные на рисунке.


Для решения проблемы сглаженных пикселей можно использовать генеративно-состязательные сети (GAN) и применять, например, функции потерь, основанные на евклидовых расстояниях, вычисленных в пространстве признаков нейронных сетей в сочетании с состязательным обучением. Также можно использовать признаки, извлечённые из предварительно обученной VGG (Visual Geometry Group) нейросети, формулируя функцию потерь как евклидово расстояние между картами этих признаков. Результаты, полученные с применением этих подходов, показали высокую эффективность как при работе с SR, так и при передаче художественного стиля (artistic style-transfer).

GAN обеспечивают мощную основу для создания правдоподобных SR-изображений с высоким качеством восприятия. В этой статье мы описываем глубокую архитектуру ResNet, использующую концепцию GAN для фотореалистичного SISR. Основные особенности:
  • увеличение разрешения изображения с высокими коэффициентами масштабирования (4x);
  • использование функции потерь восприятия (perceptual loss function), рассчитанной с помощью карт признаков VGG сети, которые более инвариантны к изменениям пикселей;
  • высокие результаты средней экспертной оценки MOS на общедоступных наборах данных.

2. Архитектура сети
Цель SISR — реконструировать изображение с высоким разрешением (SR) из входного изображения с низким разрешением (LR), которое является уменьшенной копией изначального снимка (HR). Изображения HR доступны только во время обучения, а LR создаются применением к ним фильтра Гаусса с последующей операцией понижения дискретизации (downsampling) и описываются с помощью действительного тензора.

Задача состоит в том, чтобы обучить генеративную функцию, которая для входного LR-изображения оценивает соответствующий HR аналог. Для этого мы обучаем GAN как cвёрточную нейронную сеть (convolutional neural network, CNN) прямого распространения с оптимизацией специфичной для SISR функции потерь восприятия.

Функция потерь восприятия генерируется как взвешенная комбинация нескольких компонентов, которые моделируют различные желаемые характеристики восстановленного SR-изображения.

Далее мы определяем дискриминаторную сеть (Discriminator Network, дискриминатор) и последовательно оптимизируем её вместе с генеративной сетью (генератором) для решения состязательной проблемы min-max. Общая идея заключается в том, чтобы обучить генеративную модель «обманывать» дискриминатор, который обучен отличать SR изображения от реальных. С помощью такого подхода генератор может научиться создавать решения, очень похожие на реальные изображения, и, следовательно, трудно классифицируемые дискриминатором.

В основе генеративной сети находятся B остаточных блоков с идентичной компоновкой. В каждом блоке находятся два свёрточных слоя с небольшими ядрами 3×3 и 64 картами признаков, за которыми расположены слои пакетной нормализации. В качестве функции активации используется PReLU (Parametric Rectified Linear Unit). Входное изображение увеличивается попиксельно с помощью двух свёрточных слоев.

Чтобы отличить реальные HR-снимки от сгенерированных образцов SR, необходимо обучить дискриминаторную сеть, используя функцию активации LeakyReLU и избегая формирования подвыборочных слоёв во всей нейросети. Дискриминаторная сеть содержит 8 свёрточных слоёв с возрастающим числом ядер фильтра 3×3 (с 64 до 512, каждый раз увеличиваясь в 2 раза, как в VGG сети). Пошаговые свёртки используются для уменьшения разрешения изображения каждый раз, когда число признаков удваивается. Полученные 512 карт признаков сопровождаются двумя плотными слоями и конечной сигмоидной функцией активации, чтобы получить вероятность классификации объекта.

Архитектуры обеих сетей показаны на рисунке.


3. Функция потерь восприятия
Определение функции потерь важно для эффективной работы генеративной сети. Обычно функция моделируется на основе среднеквадратичной ошибки, но в этой работе используется её улучшенный вариант. Мы оцениваем решение с учётом значимых характеристик восприятия — взвешенной суммы потерь содержания и состязательных потерь.

Потери содержания определяются на основе слоёв активации ReLU предварительно обученной VGG сети и определяются как евклидово расстояние между признаками восстановленного и опорного изображений.

Потери восприятия заставляют сеть отдавать предпочтение естественным изображениям, пытаясь обмануть дискриминатор. Они определяются на основе вероятности того, что восстановленное изображение является исходным HR-изображением.

4. Эксперименты
Эксперименты проводились на трёх широко используемых наборах данных Set5, Set14 и BSD100, тестовом наборе BSD300. Все опыты выполнены с коэффициентом 4x между снимками с низким и высоким разрешением. Это соответствует 16-кратному уменьшению пикселей изображения. Для достоверного сравнения все измеренные значения PSNR [дБ] и SSIM были рассчитаны на Y-канале с центральным кадрированием и удалением полосы шириной в 4 пикселя у каждой границы изображения.

Обучение проводилось на графическом процессоре NVIDIA Tesla M40 с использованием случайной выборки из 350 тысяч изображений, взятых из базы данных ImageNet. Изображения LR были получены путём понижения дискретизации HR-изображений (BGR) с использованием бикубического ядра.

Для каждого мини-пакета обрезаются 16 случайно выбранных частей HR-изображения с разрешением 96×96 (мы можем применить генеративную модель к снимкам произвольного размера, так как она полностью является свёрточной). Далее входные LR-изображения масштабируются в диапазоне [0, 1], а HR — в диапазоне [-1, 1]. Таким образом, потери среднеквадратичной ошибки рассчитываются в диапазоне интенсивностей [-1, 1].

Для оптимизации используется алгоритм Adam (adaptive moment estimation). В качестве инициализации при обучении сети GAN использовалась ранее обученная нейросеть SRResNet, чтобы избежать нежелательных локальных минимумов.

Все варианты SRGAN прошли обучение с 105 обновляемыми итерациями со скоростью обучения 10−4, и затем ещё с 105 итерациями с более низкой скоростью 10−5, при этом чередуя обновления для генеративной и дискриминаторной сети. Генеративная сеть имеет 16 идентичных (B=16) остаточных блоков. Во время тестирования обновления пакетной нормализации отключены, чтобы получить результат, зависящий только от исходных данных.

5. Оценка качества и результаты
Для количественной оценки способности различных подходов восстанавливать высокое разрешение изображений был выполнен тест MOS. В тесте участвовали 26 оценщиков; они присваивали балл от 1 (плохое качество) до 5 (отличное качество) восстановленным SR-изображениям. Калибровка проводилась на 20 парах изображений с низким и высоким разрешением из набора BSD300. Оценщики сравнили 12 версий каждого изображения из Set5, Set14 и BSD100 для различных упомянутых выше подходов SISR, а также для оригинальных HR-изображений. Каждый оценщик протестировал 1128 экземпляров (12 версий 19 изображений плюс 9 версий 100 изображений) в случайном порядке. Результаты показали хорошую надёжность и никаких существенных различий между оценками идентичных изображений, что продемонстрировано на рисунке ниже.


Качественные оценки потерь для различных методов на визуальном примере:


Количественные оценки:

Решение, основанное на среднеквадратичной ошибке, получает самое высокое значение PSNR, но при этом получается довольно гладким и менее убедительным, чем результаты, полученные с более чувствительным коэффициентом потерь.

Таким образом, эксперименты подтверждают, что SRGAN превосходит все существующие методы с большим отрывом и открывает новые возможности для создания фотореалистичных SR-изображений. Ниже приведены примеры обработки нескольких снимков.


6. Обучение собственной нейросети для SISR
Используя материалы из этой статьи, вы можете обучить свою нейросеть для получения изображений с высоким разрешением. Исходный код доступен на github. Для начала работы вам необходимо:

Подготовить данные и предварительно обученную нейросеть VGG
  • Загрузите предварительно обученную VGG сеть отсюда.
  • Подготовьте изображения с высоким разрешением для обучения.

В качестве эксперимента использовались изображения из соревнования DIV2K — bicubic downscaling x4 competition, поэтому параметры обучения в файле config.py установлены в соответствии с этим набором данных. Если ваш датасет будет больше, то вы можете уменьшить число эпох обучения.

Также можно использовать набор данных Yahoo MirFlickr25k, загрузив их прямо из main.py:
train_hr_imgs = tl.files.load_flickr25k_dataset(tag=None)

Если вы хотите использовать собственные изображения, укажите путь к папке с ними в файле
config.py с помощью config.TRAIN.hr_img_path

Запустить программу
Установите папку с изображениями в config. py (если вы используете датасет DIV2K — ничего не меняйте):
config.TRAIN.img_path = "your_image_folder/"
Ссылки на набор DIV2K: <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/validation_release/DIV2K_test_LR_bicubic_X4.zip">test_LR_bicubic_X4</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/DIV2K_train_HR.zip">train_HR</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/DIV2K_train_LR_bicubic_X4.zip">train_LR_bicubic_X4</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/validation_release/DIV2K_valid_HR.zip">valid_HR</a>, <a href="https://data.vision.ee.ethz.ch/cvl/DIV2K/DIV2K_valid_LR_bicubic_X4.zip">valid_LR_bicubic_X4</a>

Начните обучение:
python main.py

Начните оценку (можете воспользоваться предварительно обученной на DIV2K моделью):
python main.py --mode=evaluate

Теперь вы можете использовать нейросеть для восстановления высокого разрешения изображений.

Все, кто на практике воспользовался рекомендациями по обучению генеративно-состязательной нейросети, делитесь в комментариях результатами: было ли это просто или возникали сложности. Всегда готовы обсудить с вами все возникающие вопросы.

С оригинальной статьёй можно ознакомиться на портале arxiv.org.

Как организовать техническую поддержку пользователей и отдел продаж?



Для клиентов очень важна быстрая техподдержка в критичных ситуациях, например, если не получается продлить важный домен перед его удалением, или заблокирован аккаунт, что может быть ещё хуже. Вот почему необходимо всегда быть на связи с клиентом. Это можно организовать двумя удобными для обеих сторон способами.

Способ организации тикет-системы для заявок от клиентов
Проще всего организовать систему обработки заявок клиентов на базе уже имеющихся решений. Стоит учитывать, что они ресурсозатратны. Мы рекомендуем вам один из самых оптимальных вариантов, которые находятся на рынке — osticket.com. Эта тикет-система разворачивается, что называется, «из коробки», в три клика, и позволяет вам отвечать на заявки клиентов, а им, в свою очередь, быть в курсе своих запросов в службу поддержки.

Это решение гораздо проще и экономнее в ресурсах, чем, например, OTRS Help Desk и работает значительно быстрее. А это значит, что клиенты будут всегда довольны быстрыми ответами технической поддержки.

Как быстро и дёшево организовать call-центр?
Но то, что действительно будет выделять сайт среди сайтов других реселлеров, так это наличие телефонной технической поддержки и отдела продаж. Возникает вопрос: насколько сложно это сделать? Это проще, чем разместить тикет-систему на поддомене. Не нужно заводить call-центр, покупать телефоны и т. д. Такие сервисы предоставляют приложения под IP-телефонию, а также телефонные номера.

Одни из самых известных
  • sipuni.com
  • tekmi.ru
  • telphin.ru
  • youmagic.pro
Последний в списке youmagic.pro зарекомендовал себя как одна из самых надёжных и простых в использовании виртуальных АТС. Вы получаете в использование прямой городской номер в одном из 8 городов России, а также можете подключить номер 8−800. Стоит дополнительно указать, что SIP-клиент можно установить на компьютер и сотовый телефон, т. е. необязательно закупать IP-телефоны для сотрудников. При подключении базового пакета доступны 5 внутренних номеров для сотрудников, чего на этапе запуска вполне хватит для отдела продаж.

Где искать потенциальных клиентов?
Кстати, можно не создавать отдел продаж на постоянной основе, а лишь периодически нанимать фрилансеров для обзвона веб-студий и клиентов, что обойдётся вашей компании в меньшие деньги. Список веб-студий можно легко найти в открытом доступе. Кроме того, для веб-студий можно создать специальный тариф прямо в REG.Panel и озвучить его в деловом предложении. Большинство студий и агентств заинтересованы в льготных условиях, например, в специальной цене на домены.

www.reg.ru

Горячие новости Облака за март



Яндекс.Облако: все новости платформы


Мы запустили партнёрскую программу
Теперь компании, которые разрабатывают уникальные технологические решения, могут не только использовать облачные сервисы Яндекса, но и размещать свои решения в Yandex Cloud Marketplace. Став партнёром-разработчиком, вы получите грант на тестирование сервиса, сможете пройти бесплатное обучение и получать техническую поддержку.
Есть партнёрская программа для системных интеграторов — подробности на сайте.
cloud.yandex.ru/partners


В Яндекс.Облаке появился блог
Мы будем регулярно рассказывать о новостях платформы, новых возможностях Облака, разбирать кейсы и делиться личным опытом пользователей.


Грант для разработчиков Диалогов Алисы
Создали новый навык для Алисы? Теперь вы можете получить годовой грант на 3000р. на его разработку и развитие. Для этого разместите навык в Облаке и подайте запрос на грант.
tech.yandex.ru/dialogs/alice/doc/ycloud-promo-docpage/

Коротко о важном
Блог Облака: Как настроить управляемую базу ClickHouse с данными для Graphite
ClickHouse можно использовать как хранилище данных Graphite. Из статьи вы узнаете о том, как настроить конфигурацию rollup в ClickHouse и создать таблицы на основе GraphiteMergeTree
hosting.kitchen/yandex-cloud/kak-nastroit-upravlyaemuyu-bazu-clickhouse-s-dannymi-dlya-graphite.html

Хабр: MPLS повсюду. Как устроена сетевая инфраструктура Яндекс.Облака
Мы получаем много вопросов о сетевой инфраструктуре Облака — эта январская статья раскроет ответы на основные из них. В статье мы рассказали, почему в Облаке применяется непопулярная для дата‑центров парадигма MPLS, как мы ей управляем, какие сложные решения нам пришлось принять и какие мониторинги используем.
habr.com/ru/company/yandex/blog/437816/

Пользователи об Облаке
Как перенести сайт на базе WordPress в Яндекс.Облако?
Наш пользователь Олег Иванов написал пошаговую инструкцию о переносе сайта в инфраструктуру Облака: по ссылке вы найдете подробный разбор каждого шага, возможных сложностей и подходов к их решению. Вы можете рассказать свою историю о работе с платформой — присылайте материалы на cloud‑blog@yandex‑team.ru
cloud.yandex.ru/blog/posts/2019/03/wp

Вебинары и видеокурсы

Новые сервисы в Яндекс.Облаке: как мы выросли со дня запуска




Мы постоянно добавляем в Яндекс.Облако новые сервисы и развиваем существующие. В декабре 2018 года мы открыли доступ к инфраструктурным сервисам. С их помощью уже на старте можно было наладить обработку и хранение данных, безопасный доступ и обмен трафиком. В Яндекс.Облаке сразу же стал доступен и набор платформенных сервисов, позволяющих пользоваться проверенными технологиями Яндекса. Мы предоставили управляемые базы данных, API синтеза и распознавания речи и уникальный гибридный перевод. Три месяца спустя мы видим, что правильно оценили готовность рынка — доля потребления платформенных сервисов растёт. Крупные клиенты уже по достоинству оценили простоту и скорость внедрения решений на базе PaaS Яндекс.Облака в коммерческую эксплуатацию.

Посмотрите, какие новые сервисы появились в Яндекс.Облаке после запуска:

Инфраструктурные:
  • Yandex Load Balancer — позволяет создавать и настраивать балансировщики для обеспечения отказоустойчивости вашего приложения или для распределения сетевого трафика по облачным ресурсам
  • Yandex Instance Groups — компонент сервиса Yandex Compute Cloud, предназначенный для развёртывания и горизонтального масштабирования виртуальных машин
  • Yandex Message Queue — универсальное масштабируемое решение для обмена сообщениями между приложениями.
  • Yandex Container Registry — сервис для развёртывания Docker-образов контейнеров и управления ими в инфраструктуре Облака.

Платформенные:
  • Yandex Managed Service for Redis/MySQL — автоматизирует процесс внедрения и поддержки кластеров баз данных в инфраструктуре Облака. Мы расширили список доступных СУБД с трёх до пяти: помимо ClickHouse, PostgreSQL и MongoDB теперь можно использовать Redis и MySQL.
Новые сервисы на данной стадии не тарифицируются. Получить к ним доступ можно на сайте — при условии, что вы уже являетесь пользователем Облака. Подтверждение доступа придёт в виде письма на email, указанный в настройках консоли.

Terraform — ещё один способ управления вашим облаком




Хорошие новости: у нас появился официальный Terraform-провайдер — один из самых популярных инструментов управления облачной инфраструктурой.

В Terraform настройка облачной инфраструктуры любого масштаба происходит через создание конфигурационных файлов. Они составляются на JSON-подобном языке HashiCorp Configuration Language (HCL) и отличаются простым в написании и прозрачным синтаксисом.

Terraform стоит рассматривать как альтернативу консоли, API и CLI — у каждого метода есть свои плюсы. Всё зависит от того, как именно вы организовали управление Облаком. По виду HCL-файла легко оценить масштаб и сложность инфраструктуры, узнать основные параметры; добавлять компоненты и перестраивать группы ресурсов не составляет труда. Это могут быть ресурсы любых типов: виртуальные машины, хранилища, базы данных и т. д.

Почитайте в документации Яндекс.Облака, как установить Terraform, настроить его и создать первую конфигурацию. Стандартный грант на тестирование платформы, который активируется при регистрации, позволит вам испытать любые инструменты управления и выбрать один или несколько под разные задачи.

Как настроить управляемую базу ClickHouse с данными для Graphite




При развитии Яндекс.Облака мы, с одной стороны, наращиваем функциональность самой платформы, а с другой — следим, чтобы компоненты было несложно интегрировать с внешними продуктами. Graphite — пример ПО, лёгкость интеграции с которым является важным свойством баз данных Облака. Это библиотека с открытым кодом для хранения и визуализации метрик.

Graphite удобно настроить так, чтобы данные хранились в столбцовой аналитической базе ClickHouse. Специально для этого разработан один из множества движков — GraphiteMergeTree. Он лучше всего подходит для прореживания и агрегирования (либо усреднения) содержимого БД. Саму базу полезно разместить в Яндекс.Облаке через платформенный сервис Yandex Managed Service for ClickHouse. Тогда её не потребуется обслуживать и обновлять — все подобные функции сервис возьмёт на себя.

В этом посте мы опишем процесс настройки Yandex Managed Service for ClickHouse специально под Graphite.

1. Регистрация конфигурации rollup в ClickHouse
Создание конфигурации rollup в существующем кластере Managed Service for Clickhouse можно произвести через CLI или API.

CLI
Если вы выбрали интерфейс командной строки, подготовьте yaml-файл с описанием параметров rollup, например:
graphite-rollup.yaml:
          name: test_rollup
patterns:    
  - regexp: click_cost
    function: max
    retention:
      - age: 86400
        precision: 60

Указанные в файле параметры соответствуют конфигурации, описанной в документации.

Далее выполните команду, указав ID кластера ClickHouse и имя файла конфигурации, созданного на предыдущем шаге:
$ yc managed-clickhouse cluster add-graphite-rollup <CLUSTER_ID> --rollup-file-name graphite_rollup.yaml


API
Используйте метод update для кластера ClickHouse, передав в теле запроса требуемые параметры rollup:
"graphiteRollup": [
          {
            "name": "test_rollup",
            "patterns": [
              {
                "regexp": "click_cost",
                "function": "max",
                "retention": [
                  {
                    "age": "86400",
                    "precision": "60"
                  }
                ]
              }
            ]
          }
        ]


2. Создание таблицы на основе GraphiteMergeTree
Подключитесь к хосту ClickHouse и выполните запрос на создание таблицы на основе GraphiteMergeTree. В качестве параметра передайте имя секции rollup, описанной на предыдущем этапе. Вот пример:
CREATE TABLE GraphiteTable
(        
    metric String, 
    time DateTime, 
    value Int64, 
    version UInt64
)
ENGINE = GraphiteMergeTree('test_rollup')
PARTITION BY time
ORDER BY cityHash64(version, metric)

Теперь можно настроить Graphite для сохранения значений метрик на выбранном хосте ClickHouse. При этом прореживание данных будет проводиться автоматически средствами сервера ClickHouse в соответствии с параметрами, которые вы указали.

Облачные базы данных: внедрение быстрого хранения

Начиная с этой недели, новые облачные базы данных OVH основаны на высокопроизводительном SSD-накопителе NVMe.

Интерес имеет два аспекта:
  • Прибыль в выступлениях (чтениях / письмах). После теста FIO мы сделали скачок вперед, и я обнаружил, что около 20 000 IOPS постоянно.
  • Что говорит о лучшей производительности, означает больше возможностей для ваших баз для управления запросами. Как правило, это уменьшает потребление оперативной памяти, и, следовательно, уменьшает OOMKill

Мы не забываем существующих клиентов и базы данных! В ближайшие недели мы переходим на новый техно каждый день. Конец оценивается в мае.
Не планирую разглашать. Чтобы выяснить, мигрировали ли вы уже, вы можете посмотреть на своего «Хоста» в клиентской области, он должен быть на 007
Пример: «dbaas002.sql007»

Задача работает: travaux.ovh.net/?do=details&id=37809

Изменений тарифов не ожидается, ни для новостей, ни для существующих.
Облачные базы данных: www.ovh.com/en/cloud/cloud-databases/

Важное обновление о макете счета и изменения портальных клиентов



Уважаемый клиент,
В рамках нашего обязательства постоянно улучшать уровень обслуживания мы обеспечиваем, мы модернизируем свои системы. Поэтому мы хотели бы напомнить вам, что эффективная 8 апреля 2019, вы заметите несколько изменений в формат счетов — фактур и в некоторых экранах портала клиентов.

Какие изменения?
Счет в формате:
Для того, чтобы предоставить вам простой и быстрый обзор, мы переработали наши документы, такие как счета-фактуры и цитаты.
  • «Идентификатор сервера» будет называться «Оборудование Id»
  • А «Контракт Id» будет добавлен. Этот договор будет содержать все оборудование, заказанное в одно время.
Мы рекомендуем вам добавить ссылку на ваши услуги. Это поможет определить их легко в счетах, полученных с мая 2019 года.
Для получения более подробной информации обо всех изменениях можно найти в нашей статье о фактурной изменения формата.

Обновление оплаты:
При использовании кредитной карточки Direct Debit, пожалуйста, повторно подписываться от портала клиента с 9 апреля — 30 апреля, 2019.

Портал для клиентов и интерфейсы:
Изменения в терминологии:
  • «Идентификатор сервера» будет называться «Оборудование Id»
  • А «Контракт Id» будет добавлен. Этот договор будет содержать все оборудование, заказанное в одно время.

Мы рекомендуем вам добавить ссылку на ваши услуги. Это поможет вам определить их легко.
Для получения более подробной информации обо всех изменениях можно найти в нашей статье об изменениях портала клиентов.
Ваши старые счета не будут доступны на портале клиента. Если вам нужно для справки, пожалуйста, сохраните эти документы до 8 апреля 2019 г. Мы будем продолжать посылать свои счета через электронную почту.
Платежи через портал клиентов не могут быть выполнены в период с 4 апреля — 8 апреля 2019 года.
На странице «Все услуги» не будет иметь поиска и фильтрации функций. Тем не менее, мы работаем, чтобы эти функциональные отреставрированные.
Это будет невозможно отменить услуги от 4 апреля — 8 апреля 2019 года.

Изменения API:
  • Bare Metal: сервер Id и контракт Id изменится
  • Виртуальный сервер: Ид изменится
  • Private Cloud: Ид изменится
  • Все интерфейсы: Идентификатор клиента изменится
Если вы в настоящее время хранения или кэширования этих Идентификаторов, пожалуйста, получить новые Идентификаторы после нашего окна обслуживания 7 апреля 2019 Вызовов API не будут работать со старыми Ids после окна обслуживания.

Там может быть возможная задержка в доставке заказов в период с 4 апреля — 8 апреля 2019 года.
С 8 апреля 2019 года, эти изменения будут эффективны для всех ваших услуг.

Вы еще не заказали наш VPS сервер? Скидка 50% на заказ



Здравствуйте, уважаемый клиент!
Мы заметили, что вы зарегистрированы в личном кабинете, но по одной из причин не пользуетесь нашими услугами. Поэтому, мы хотим предложить вам уникальный бонус в качестве знака благодарности и предлагаем скидку 50% на первый заказ.


Как получить бонус? Все очень просто!
Закажите одну из услуг с тарифным планом не ниже SSD SMALL / 1GB RAM / 15GB SSD / 1 vCPU и активируйте скидку в 50%. Стоимость сервера составит всего 126 рублей за первый месяц!

Для активации бонуса, просто введите промо-код BONUS50.
Срок проведения акции с 03.04.2019 по 10.04.2019. Количество активаций ограничено.
Если вам требуется помощь, мы всегда доступны и готовы помочь в решение вопроса. Для этого просто обратитесь в онлайн чат на нашем сайте или в центр поддержки клиентов.

vds4you.com