Космический ЦОД: RUvds отправил сервер в стратосферу



12 апреля, в День космонавтики, облачный провайдер RUVDS провел первый в России эксперимент по разворачиванию интернета с использованием стратостатных зондов.

Эксперимент проводился для проверки работы облака RUVDS в условиях, приближенных к космическим. «Первый космический ЦОД» обеспечил доступ к веб-серверу в стратосфере через спутниковый интернет. Резервирование каналов связи происходило по схеме N+1 с помощью двух систем космической связи — Iridium и GlobalStar.

В стратосферу, на высоту 22 километра был отправлен стратостат, оборудованный сервером, бортовым компьютером, двумя экранами, тремя видеокамерами, средствами связи и GPS-маяком.
Зонд стартовал из окрестностей Переяславля-Залесского и провел в стратосфере более часа, после чего начал спуск, приземлившись в 70 километрах от места старта. На протяжении всего времени полета для проверки связи с веб-сервером со страницы проекта 12.ruvds.com можно было отправлять текстовые сообщения, которые передавались на бортовой компьютер по HTTP-протоколу с помощью систем спутниковой связи и выводились на 2 экрана, установленные на зонде. Согласно телеметрии, за бортом было -60 oС, а внутри гермобокса -17 oС, но всё работало стабильно. Связь со стратостатом была на протяжении всего полета. Сообщения без сбоев принимались и выводились на дисплей.


В свою очередь, экраны с сообщениями и частью горизонта снимали камеры на борту аппарата. Видеосъемка и полученные послания транслировались по радиоканалу обратно на землю. Таким образом, наблюдатели следили за перемещением «‎сервера в облаках».


На карту проекта на сайте выводился график полета стратостата с телеметрией и с отметками о получении каждого сообщения, благодаря которым можно было вычислить процент потерянной информации «‎на маршруте».



RUVDS планирует сделать следующий шаг. На последующие запуски ставится цель увеличить количество точек доступа и обеспечить стабильную скорость интернет-соединения до 1 Мбит/сек в радиусе 100-150 км. Достижение подобных значений позволит судить о возможности реального применения интернета в труднодоступных с земли местах.
Справка.

RUVDS российский хостинг-провайдер VPS серверов, специализирующийся на оказании услуг IAAS корпоративного класса. Партнерами компании являются АО «ФИНАМ», финансовая группа «БКС», Национальный расчетный депозитарий (Московская биржа), АО «ВЦИОМ», компания «Гарс-Телеком», оператор такси Gett, оператор доставки Delivery Club и многие другие.

Компания RUVDS обладает собственным дата-центром уровня TIER III в г. Королеве, Московская область, а также гермозонами в дата-центрах в Цюрихе Interxion ZUR1 (Швейцария), Лондоне Equinix LD8 (Великобритания), Москве ММТС-9 (Россия), Санкт-Петербурге Linxdatacenter (Россия) и Казани IT Park (Россия).

ruvds.com/ru-rub

WebHOST1: скидки на майские праздники!




Друзья!
Майские праздники всегда ожидаемы, в преддверии их мы запускаем акцию и предоставляем скидку 10% на новый заказ или продление услуги хостинга и VDS сервера.
У вас есть возможность с 27.04 по 01.05 (включительно) оплатить услугу со скидкой по промокоду mirtrudmai19 и спокойно, а главное с удовольствием отметить праздники.

Мир, Труд, Май!
Вступайте в нашу группу Вконтакте.
webhost1.ru

Узлы VMmanager KVM по 5000р

Уже был такой топик, напоминаю
Все конфиги и домены перечислены там.

Возможно кто-то подумал что серверы обязательно покупать у нас.
Нет, не обязательно. Просто сервер должен находиться в ОВХ чтобы узлы и корневой сервер с VMmanager корректно работали.

Так вот. Перефразирую акцию.
У нас готовы VMmanager вечные оплаченные уже на множество лет продлены все обновления и все такое. За наш счет оплачено «на будущие годы» :) Какие-то до 2023, какие-то до 2025 и тд.

Сейчас вы платите
350/мес за VMmanager KVM, за год это 3500р если сразу или 4200 если по 1 месяцу.
А если вы купите узел в наших заготовках, он обойдется вам всего в 5000р.
Допустим 2019 2020 2021 2022 2023 — 5 лет. 5*12 = 60, 5000/60 = 83 рубля за 1 сервер

Выгода.
Обращайтесь.

А еще мы все сами можем настроить и поддерживать ноды, а вы просто оплачиваете свои сервера/узлы и продаете ВДС-ки :)

ProxCP v1.1 теперь доступен!


ProxCP версия 1.1 теперь доступна для скачивания! Прошло всего несколько недель после нашего первого публичного релиза, и у нас уже есть несколько приятных новых возможностей для вас.

Что нового? В версии 1.1 основное внимание уделяется очистке панели администратора и добавлению одной из самых востребованных функций для конечных пользователей. С этой целью панель администратора имеет новый макет для лучшей организации. Он также включает в себя автоматическую проверку версий, чтобы вы могли сразу узнать, когда будет доступна новая версия ProxCP. Наконец, ваши конечные пользователи теперь могут загружать собственные ISO-образы для использования со своими службами KVM или Public Cloud. Файлы ISO могут быть большими… но не проблема! ProxCP предлагает возобновляемую загрузку файлов на случай, если процесс будет прерван. Конечно, было также немало исправлений ошибок; особенно это касается создания KVM и хранения LVM.

Что дальше?
Мы продолжим расширять и улучшать продукт ProxCP. Следующее крупное обновление будет включать в себя как минимум интеграцию биллинга Blesta и скрипты миграции из другого программного обеспечения панели управления. Вдобавок ко всему, мы всегда будем искать дополнительные предложения и улучшения юзабилити.

Не использовали ProxCP с бета-версии ранее в этом году? Сейчас самое подходящее время, чтобы взять копию и предоставить своим клиентам VPS лучший опыт управления панелью, одновременно снижая эксплуатационные расходы.

proxcp.com
proxcp.com/licenses
proxcp.com/tour

Готовьтесь, NGINX идет



Возможно, одним из наиболее востребованных и популярных запросов функций, представленных для cPanel & WHM, было добавление веб-сервера NGINX в качестве альтернативы Apache. У нас есть хорошие новости для тех из вас, кто спрашивал: NGINX идет.


Примечание: поскольку поддержка NGINX на серверах cPanel и WHM все еще является экспериментальной, она не будет сразу доступна в графическом пользовательском интерфейсе WHM. Имейте в виду, что это представление о том, как интерфейс может появиться в более поздних версиях.

Первый шаг сделан
cPanel уже давно рассматривает возможность предложения NGINX в качестве альтернативы Apache. Однако, учитывая то, что cPanel & WHM полагается на Apache в своей основе, мы решили, что в то время этот процесс был слишком сложным для выполнения. Мы потратили значительное время на то, чтобы отделить продукт от зависимости от Apache. Хотя наша работа еще не завершена, мы продвинулись достаточно далеко, чтобы сделать первые шаги в направлении интеграции другого веб-сервера.

Наше исследование показало, что основным вариантом использования для людей, запрашивающих поддержку NGINX, были сайты WordPress, поэтому именно на этом мы сфокусировали этот минимально жизнеспособный продукт. Мы выбрали PHP-FPM в качестве обработчика PHP, поскольку именно этот обработчик рекомендует WordPress и уже поддерживается cPanel & WHM. Чтобы воспользоваться NGINX, вам нужно включить PHP-FPM на всех доменах, которые обслуживают контент PHP.

Несколько предостережений
NGINX не полностью заменяет Apache в этом экспериментальном выпуске. cPanel & WHM по-прежнему требует Apache для некоторых функций (например, Mailman) для правильной работы. На этой итерации Apache перемещается на альтернативный порт в процессе установки NGINX и возвращается в прежнее состояние, когда NGINX удаляется.

Пожалуйста, также будьте предупреждены, это экспериментальный релиз. Как и в случае со всеми сборками EDGE и Experimental, мы не рекомендуем запускать NGINX в производственной среде, если администратор сервера не имеет большого опыта и не имеет плана отката. Будут вещи, которые просто не будут работать в продукте, что мы ожидаем. Мы будем искать ваши отзывы о том, что, по-видимому, не работает должным образом, и мы с радостью повторим, если позволит время.

В настоящее время мы можем с уверенностью сказать, что правила mod_security не будут работать с NGINX, а правила и ограничения переписывания .htaccess больше не будут применяться. Значение таких перезаписей как защищенных паролем каталогов больше не будет работать.

Хорошие новости!
Вместо того чтобы сосредоточиться на частях cPanel & WHM, которые в настоящее время не работают с NGINX, вот части, которые мы протестировали и показали, что они работают нормально:
  • WordPress
  • PHP-FPM
  • cPanel и субдомены веб-службы
  • почтальон
  • MultiPHP (с PHP-FPM)
  • AutoSSL

Итак… Как мне установить его?
Процесс установки довольно прост, но требует SSH-доступа корневого уровня к вашему серверу. Получив доступ к вашему серверу, выполните следующие команды:
yum install ea4-experimental


yum install ea-nginx



NGINX вообще не подключается к cPanel & WHM, поэтому, если будут внесены какие-либо изменения в конфигурацию, вам нужно будет вручную запустить
/scripts/ea-nginx config --all

для регенерации конфигураций NGINX и перезагрузить сервер. Добавление этого сценария в корневой каталог при использовании NGINX является одним из потенциальных решений для серверов, на которых часто происходят изменения.

Что мы ищем?
Мы решили выпустить его как экспериментальный, потому что полностью осознаем, что NGINX еще не готов к работе в среде cPanel. Наша цель — получить обратную связь от вас, сообщества cPanel, чтобы мы могли оценить ваши потребности и потребности от NGINX в качестве функции и использовать ее для будущих итераций. В настоящее время мы не планируем запускать NGINX в производство, поскольку некоторые важные функции cPanel в настоящее время не работают должным образом. Ваши отзывы о NGINX будут чрезвычайно полезны для демонстрации того значения, которое он добавляет к пользовательской базе в целом.

Когда это пойдет в производство?
Ответ на это не простой. Этот выпуск поможет нам оценить текущий интерес к NGINX как альтернативе Apache и получить ценные отзывы сообщества. Однако у нас пока нет сроков перехода от этой реализации к экспериментальной и производственной. Как только мы увидим принятие этой экспериментальной реализации и получим отзывы от этих пользователей, следующим шагом будет исправление известных нам проблем. Затем мы подвергаем продукт строгому испытательному периоду, следя за тем, чтобы не было выявлено критических или серьезных ошибок, и чтобы эта функция соответствовала нашим критериям для функции производственного уровня. Только тогда мы начнем внедрять его в производственную среду.

Для получения дополнительной информации о запуске NGINX на вашем сервере cPanel & WHM, пожалуйста, ознакомьтесь с нашей документацией.

Выпущен WISECP v2.0 - интеллектуальная автоматизация веб-решений



Что такое WiseCP?
WiseCP — это современная веб-система автоматизации, которая включает современный интерфейс веб-сайта с панелью управления клиентами и панелью управления администратора. Он был разработан для того, чтобы все индивидуальные и корпоративные организации, работающие в области информационных технологий, могли легко обеспечивать продажи и управление продуктами и услугами, операции выставления счетов и принудительного исполнения, управление клиентами, услуги поддержки и все другие сопутствующие услуги.
wisecp.com

Какие услуги вы можете предложить с WISECP?
  • Веб-хостинг (хостинг, домен, сервер, SSL, лицензии на продукт и т. Д.)
  • Услуги программного обеспечения (продажа и лизинг скриптов, веб-программное обеспечение, программное обеспечение для настольных ПК и т. Д.)
  • Bulk SMS Services (Международные SMS-рассылки)
  • Сервисы социальных сетей (пакеты трекеров, пакеты социальных сетей и т. Д.)
  • Рекламные / рекламные услуги (рекламные и рекламные пакеты услуг, фирменный стиль, логотип и т. Д.)
  • Услуги SEO (пакеты SEO, пакеты обратной ссылки, пакеты рекламных материалов и т. Д.)
  • Любые виды цифровых услуг

Что нового в версии 2.0?
В версии 2.0 имеется множество обновлений, однако ниже мы упомянули только важные обновления.
  • Современная клиентская панель WClient (теперь пользователи могут использовать функцию «Только клиентская панель», а встроенный веб-сайт можно отключить)
  • Усовершенствованная система продвижения (наряду с купоном мы ввели систему продвижения, которая позволяет предлагать бесплатные или платные услуги вместе с услугой. Например, бесплатный домен теперь может предлагаться вместе с хостингом)
  • WAnalytics, встроенная аналитическая функция, которая очень подробно выдает статистику вместе с отслеживанием пользователей в реальном времени.
  • Налогообложение, цены теперь могут быть определены вместе с НДС или без НДС. Это также сделано в соответствии с налоговым законодательством Европейского Союза. Различные налоговые ставки теперь могут быть определены для каждой страны. Налоги также автоматически применяются в зависимости от местоположения пользователя.
  • Поддержка тикетной системы была переработана. Теперь он работает как живой чат. Все происходит в режиме реального времени!
  • Модуль регистратора доменов Namecheap
  • Модуль регистратора доменов Namesilo
  • Новый модуль способа оплаты: Stripe
  • Новый модуль метода оплаты: Skrill
  • Новый модуль метода оплаты: CoinPayments
  • Новый способ оплаты: PerfectMoney
  • Модуль реселлинга SSL: GoGetSSL
  • Модуль реселлинга SSL: Namecheap
  • Модуль реселлинга SSL: ResellerClub
  • Модуль реселлинга SSL: OnlineNIC
  • Модуль перепродажи лицензий на программное обеспечение: BuycPanel
  • Модуль виртуального сервера: Virtualizor
  • Модуль виртуального сервера: AutoVM

Проверьте полный журнал обновлений здесь: www.docs.wisecp.com/en/kb/v2-0

Служба поддержки
Форумы сообщества: community.wisecp.com
Discord: discord.gg/pW3U3uW
Свяжитесь с нашей службой поддержки: my.wisecp.com

WISECP: wisecp.com

Приглашаем переводчика в свою команду. Среди ваших знакомых есть native English speaker?

Порекомендуйте ему нашу вакансию: selectel.ru/careers/all/vacancy/#31007628
Официальное оформление, современная технологичная компания, веселая атмосфера. Резюме ждём на hr@selectel.ru

Prescience: Представляем платформу машинного обучения OVH

Проекты машинного обучения становятся все более важной составляющей сегодняшнего поиска более эффективных и сложных производственных процессов. OVH Prescience — это платформа для машинного обучения, цель которой — облегчить концепцию, развертывание и обслуживание моделей в промышленном контексте. Система управляет конвейерами машинного обучения, от приема данных до мониторинга моделей. Это включает в себя автоматизацию предварительной обработки данных, выбор модели, оценку и развертывание в масштабируемой платформе.



Prescience поддерживает различные виды проблем, такие как регрессия, классификация, прогнозирование временных рядов и вскоре обнаружение аномалий. Решение проблем осуществляется с использованием как традиционных моделей ML, так и нейронных сетей.

Prescience в настоящее время используется в производственных масштабах для решения различных задач, с которыми сталкивается OVH, а его альфа-версия доступна для бесплатной проверки в OVH Labs. В этом сообщении мы представим Prescience и познакомим вас с типичным рабочим процессом вместе с его компонентами. Подробная презентация компонентов будет доступна в следующих публикациях в блоге.

Начало Prescience
В какой-то момент все проекты машинного обучения сталкиваются с одной и той же проблемой: как преодолеть разрыв между прототипом системы машинного обучения и ее использованием в производственном контексте. Это было краеугольным камнем развития платформы машинного обучения в OVH.

Производственные тетради
Чаще всего ученые-разработчики проектируют системы машинного обучения, которые включают обработку данных и выбор моделей в ноутбуках. Если они успешны, эти ноутбуки затем адаптируются для производственных нужд инженерами данных или разработчиками. Этот процесс обычно деликатный. Это отнимает много времени и должно повторяться каждый раз, когда модель или обработка данных требуют обновления. Эти проблемы приводят к серийным моделям, которые, хотя и являются идеальными при поставке, могут со временем сойти с реальной проблемы. На практике модели никогда не используются в производственном режиме, несмотря на их качество, только потому, что конвейер данных слишком сложен (или скучен), чтобы его можно было извлечь из ноутбука. В результате вся работа ученых-данных идет напрасно.

В свете этого первая проблема, которую Prescience необходимо было решить, заключалась в том, как обеспечить простой способ развертывания и обслуживания моделей при одновременном обеспечении мониторинга и эффективного управления моделями, включая (но не ограничиваясь этим) переподготовку моделей, оценку моделей или запрос моделей через обслуживающий REST API.

Улучшенное прототипирование
После того, как разрыв между прототипированием и производством был преодолен, второй целью было сокращение фазы прототипирования проектов машинного обучения. Базовое наблюдение состоит в том, что навыки ученых данных являются наиболее важными при применении к подготовке данных или разработке функций. По сути, задача исследователя данных состоит в том, чтобы правильно определить проблему. Это включает характеристику данных, фактическую цель и правильную метрику для оценки. Тем не менее, выбор модели — также задача, решаемая специалистом по данным — та, которая приносит гораздо меньше пользы от этого специалиста. Действительно, один из классических способов найти хорошую модель и ее параметры по-прежнему состоит в том, чтобы перебрать все возможные конфигурации в данном пространстве. В результате выбор модели может быть довольно кропотливым и трудоемким.

Следовательно, Prescience необходимо было предоставить ученым, работающим с данными, эффективный способ тестирования и оценки алгоритмов, которые позволили бы им сосредоточиться на повышении ценности данных и определении проблем. Это было достигнуто путем добавления компонента оптимизации, который, учитывая пространство конфигурации, оценивает и тестирует конфигурации внутри него, независимо от того, были ли они подобраны специалистом по данным. Поскольку архитектура масштабируема, мы можем быстро протестировать значительное количество возможностей таким образом. Компонент оптимизации также использует методы, чтобы попытаться превзойти подход грубой силы, используя байесовскую оптимизацию. Кроме того, проверенные конфигурации для данной проблемы сохраняются для последующего использования и для облегчения запуска процесса оптимизации.

Расширяя возможности
В такой компании, как OVH, много проблем можно решить с помощью методов машинного обучения. К сожалению, по каждому из этих вопросов невозможно назначить ученого, особенно если не установлено, стоит ли инвестировать. Несмотря на то, что наши специалисты по бизнесу не освоили все методы машинного обучения, они обладают обширными знаниями о данных. Опираясь на эти знания, они могут дать нам минимальное определение проблемы под рукой. Автоматизация предыдущих этапов (подготовка данных и выбор модели) позволяет специалистам быстро оценить возможные преимущества подхода машинного обучения. Тогда можно принять процесс быстрого выигрыша / быстрого отказа для потенциальных проектов. Если это удастся, мы можем, если необходимо, ввести в цикл исследователя данных.

Prescience также включает в себя автоматическое управление конвейером, чтобы адаптировать необработанные данные, которые будут использоваться алгоритмами машинного обучения (то есть, предварительную обработку), затем выбрать подходящий алгоритм и его параметры (то есть выбор модели), сохраняя при этом автоматическое развертывание и мониторинг.

Архитектура Prescience и рабочие процессы машинного обучения


По сути, платформа Prescience основана на технологиях с открытым исходным кодом, таких как Kubernetes для операций, Spark для обработки данных и Scikit-learn, XGBoost, Spark MLlib и Tensorflow для машинного обучения. Большая часть разработок Prescience заключалась в объединении этих технологий. Кроме того, все промежуточные выходы системы, такие как предварительно обработанные данные, этапы преобразования или модели, сериализуются с использованием технологий и стандартов с открытым исходным кодом. Это предотвращает привязку пользователей к Prescience в случае необходимости использования другой системы.

Взаимодействие пользователей с платформой Prescience стало возможным благодаря следующим элементам:
  • пользовательский интерфейс
  • клиент Python
  • REST API
Давайте рассмотрим типичный рабочий процесс и дадим краткое описание различных компонентов…

Прием данных
Первый шаг рабочего процесса машинного обучения — получение пользовательских данных. В настоящее время мы поддерживаем три типа источников, которые затем будут расширены в зависимости от использования:

CSV, отраслевой стандарт
Паркет, который довольно крутой (плюс автоматически документированный и сжатый)
Временной ряд, благодаря OVH Observability, работает на Warp10
Необработанные данные, предоставляемые каждым из этих источников, редко используются как есть в алгоритмах машинного обучения. Алгоритмы обычно ожидают, что числа будут работать. Поэтому первый шаг рабочего процесса выполняется компонентом Parser. Единственная задача Parser — обнаруживать типы и имена столбцов, в случае простых текстовых форматов, таких как CSV, хотя источники Parquet и Warp10 содержат схему, что делает этот шаг спорным. После ввода данных анализатор извлекает статистику, чтобы точно ее охарактеризовать. Полученные данные вместе со статистикой хранятся в нашей серверной памяти хранилища — Public Cloud Storage, работающей на OpenStack Swift.

Преобразование данных
После того, как типы выведены и статистика извлечена, данные, как правило, должны быть обработаны, прежде чем они будут готовы к машинному обучению. Этот шаг обрабатывается препроцессором. Опираясь на вычисленную статистику и тип проблемы, он определяет лучшую стратегию для применения к источнику. Например, если у нас есть одна категория, то выполняется горячее кодирование. Однако, если у нас есть большое количество различных категорий, то выбирается более подходящий тип обработки, такой как кодирование уровня / воздействия. После вывода стратегия применяется к источнику, превращая его в набор данных, который станет основой для последующего шага выбора модели.

Препроцессор выводит не только набор данных, но и сериализованную версию преобразований. Выбранный формат для сериализации — PMML (язык разметки прогнозной модели). Это стандарт описания для совместного использования алгоритмов интеллектуального анализа данных и машинного обучения. Используя этот формат, мы сможем применить точно такое же преобразование во время обслуживания, когда столкнемся с новыми данными.

Выбор модели
Как только набор данных будет готов, следующим шагом будет попытка подобрать лучшую модель. В зависимости от проблемы пользователю предоставляется набор алгоритмов вместе с их конфигурационным пространством. В зависимости от уровня квалификации пользователь может настроить пространство конфигурации и предварительно выбрать подмножество алгоритмов, которые лучше всего подходят для данной проблемы.

Байесовская оптимизация


Компонент, который выполняет оптимизацию и выбор модели, является механизмом оптимизации. При запуске оптимизации подкомпонент, называемый контроллером, создает внутреннюю задачу оптимизации. Контроллер управляет планированием различных шагов оптимизации, выполняемых во время задачи. Оптимизация достигается с помощью байесовских методов. По сути, байесовский подход заключается в изучении модели, которая сможет предсказать, какая конфигурация является наилучшей. Мы можем разбить шаги следующим образом:
  • Модель в холодном состоянии. Оптимизатор возвращает набор настроек по умолчанию для контроллера
  • Контроллер распределяет начальные конфигурации по кластеру учащихся
  • По завершении начальных конфигураций контроллер сохраняет результаты
  • Оптимизатор запускает вторую итерацию и обучает модель на основе доступных данных.
  • На основе полученной модели оптимизатор выводит лучших претендентов, которые можно попробовать. Рассматривается как их потенциальная эффективность, так и объем информации, который она предоставит для улучшения модели выбора.
  • Контроллер распределяет новый набор конфигураций по кластеру и ждет новой информации, a.k.a вновь оцененных конфигураций. Конфигурации оцениваются с использованием K-кратной перекрестной проверки, чтобы избежать переоснащения.
  • Когда доступна новая информация, запускается новая итерация оптимизации, и процесс начинается снова на шаге 4
  • После предварительно определенного числа итераций оптимизация останавливается

Проверка модели
Как только оптимизация завершена, пользователь может либо запустить новую оптимизацию, используя существующие данные (следовательно, не возвращаясь в холодное состояние), либо выбрать конфигурацию в соответствии с ее оценочными показателями. Как только подходящая конфигурация достигнута, она используется для обучения окончательной модели, которая затем сериализуется либо в формате PMML, либо в формате сохраненной модели Tensorflow. Те же ученики, которые занимались оценками, проводят фактическое обучение.

В конце концов, окончательная модель оценивается по тестовому набору, извлеченному во время предварительной обработки. Этот набор никогда не используется во время выбора модели или обучения, чтобы обеспечить беспристрастность вычисленных показателей оценки. На основе полученных показателей оценки может быть принято решение использовать модель в производстве или нет.

Модель сервировки
На этом этапе модель обучается и экспортируется и готова к обслуживанию. Последний компонент платформы Prescience — это обслуживание Prescience. Это веб-сервис, который использует PMML и сохраненные модели и предоставляет REST API поверх. Поскольку преобразования экспортируются вместе с моделью, пользователь может запросить вновь развернутую модель, используя необработанные данные. Прогнозы теперь готовы к использованию в любом приложении.

Модельный мониторинг
Кроме того, одной из характерных особенностей машинного обучения является его способность адаптироваться к новым данным. В отличие от традиционных жестко заданных бизнес-правил, модель машинного обучения способна адаптироваться к базовым шаблонам. Для этого платформа Prescience позволяет пользователям легко обновлять источники, обновлять наборы данных и переучивать модели. Эти шаги жизненного цикла помогают поддерживать актуальность модели в отношении проблемы, которую необходимо решить. Затем пользователь может сопоставить частоту переподготовки с новой квалификацией данных. Они могут даже прервать процесс обучения в случае аномалии в конвейере генерации данных. Каждый раз, когда модель переобучается, вычисляется новый набор баллов и сохраняется в OVH Observability для мониторинга.

Как мы отмечали в начале этого поста, наличие точной модели не дает никаких гарантий относительно ее способности поддерживать эту точность с течением времени. По многим причинам производительность модели может снизиться. Например, необработанные данные могут ухудшиться в качестве, могут появиться некоторые аномалии в конвейерах обработки данных или сама проблема может дрейфовать, делая текущую модель неактуальной, даже после переподготовки. Поэтому крайне важно постоянно отслеживать производительность модели на протяжении всего жизненного цикла, чтобы избежать принятия решений на основе устаревшей модели.

Движение к ИИ-управляемой компании
Prescience в настоящее время используется в OVH для решения ряда промышленных проблем, таких как предотвращение мошенничества и профилактическое обслуживание в центрах обработки данных.

С помощью этой платформы мы планируем наделить все большее число команд и служб в OVH возможностью оптимизировать свои процессы с помощью машинного обучения. Мы особенно рады нашей работе с Временными рядами, которые играют решающую роль в управлении и мониторинге сотен тысяч серверов и виртуальных машин.

Разработка Prescience проводится командой служб машинного обучения. MLS состоит из четырех инженеров машинного обучения: Маэль, Адриен, Рафаэль и я. Командой руководит Гийом, который помог мне спроектировать платформу. Кроме того, в команду входят два исследователя данных, Оливье и Клемент, которые занимались внутренними случаями использования и предоставили нам обратную связь, и, наконец, Лоран: студент CIFRE, работающий над многоцелевой оптикой.