Готовьтесь, NGINX идет



Возможно, одним из наиболее востребованных и популярных запросов функций, представленных для cPanel & WHM, было добавление веб-сервера NGINX в качестве альтернативы Apache. У нас есть хорошие новости для тех из вас, кто спрашивал: NGINX идет.


Примечание: поскольку поддержка NGINX на серверах cPanel и WHM все еще является экспериментальной, она не будет сразу доступна в графическом пользовательском интерфейсе WHM. Имейте в виду, что это представление о том, как интерфейс может появиться в более поздних версиях.

Первый шаг сделан
cPanel уже давно рассматривает возможность предложения NGINX в качестве альтернативы Apache. Однако, учитывая то, что cPanel & WHM полагается на Apache в своей основе, мы решили, что в то время этот процесс был слишком сложным для выполнения. Мы потратили значительное время на то, чтобы отделить продукт от зависимости от Apache. Хотя наша работа еще не завершена, мы продвинулись достаточно далеко, чтобы сделать первые шаги в направлении интеграции другого веб-сервера.

Наше исследование показало, что основным вариантом использования для людей, запрашивающих поддержку NGINX, были сайты WordPress, поэтому именно на этом мы сфокусировали этот минимально жизнеспособный продукт. Мы выбрали PHP-FPM в качестве обработчика PHP, поскольку именно этот обработчик рекомендует WordPress и уже поддерживается cPanel & WHM. Чтобы воспользоваться NGINX, вам нужно включить PHP-FPM на всех доменах, которые обслуживают контент PHP.

Несколько предостережений
NGINX не полностью заменяет Apache в этом экспериментальном выпуске. cPanel & WHM по-прежнему требует Apache для некоторых функций (например, Mailman) для правильной работы. На этой итерации Apache перемещается на альтернативный порт в процессе установки NGINX и возвращается в прежнее состояние, когда NGINX удаляется.

Пожалуйста, также будьте предупреждены, это экспериментальный релиз. Как и в случае со всеми сборками EDGE и Experimental, мы не рекомендуем запускать NGINX в производственной среде, если администратор сервера не имеет большого опыта и не имеет плана отката. Будут вещи, которые просто не будут работать в продукте, что мы ожидаем. Мы будем искать ваши отзывы о том, что, по-видимому, не работает должным образом, и мы с радостью повторим, если позволит время.

В настоящее время мы можем с уверенностью сказать, что правила mod_security не будут работать с NGINX, а правила и ограничения переписывания .htaccess больше не будут применяться. Значение таких перезаписей как защищенных паролем каталогов больше не будет работать.

Хорошие новости!
Вместо того чтобы сосредоточиться на частях cPanel & WHM, которые в настоящее время не работают с NGINX, вот части, которые мы протестировали и показали, что они работают нормально:
  • WordPress
  • PHP-FPM
  • cPanel и субдомены веб-службы
  • почтальон
  • MultiPHP (с PHP-FPM)
  • AutoSSL

Итак… Как мне установить его?
Процесс установки довольно прост, но требует SSH-доступа корневого уровня к вашему серверу. Получив доступ к вашему серверу, выполните следующие команды:
yum install ea4-experimental


yum install ea-nginx



NGINX вообще не подключается к cPanel & WHM, поэтому, если будут внесены какие-либо изменения в конфигурацию, вам нужно будет вручную запустить
/scripts/ea-nginx config --all

для регенерации конфигураций NGINX и перезагрузить сервер. Добавление этого сценария в корневой каталог при использовании NGINX является одним из потенциальных решений для серверов, на которых часто происходят изменения.

Что мы ищем?
Мы решили выпустить его как экспериментальный, потому что полностью осознаем, что NGINX еще не готов к работе в среде cPanel. Наша цель — получить обратную связь от вас, сообщества cPanel, чтобы мы могли оценить ваши потребности и потребности от NGINX в качестве функции и использовать ее для будущих итераций. В настоящее время мы не планируем запускать NGINX в производство, поскольку некоторые важные функции cPanel в настоящее время не работают должным образом. Ваши отзывы о NGINX будут чрезвычайно полезны для демонстрации того значения, которое он добавляет к пользовательской базе в целом.

Когда это пойдет в производство?
Ответ на это не простой. Этот выпуск поможет нам оценить текущий интерес к NGINX как альтернативе Apache и получить ценные отзывы сообщества. Однако у нас пока нет сроков перехода от этой реализации к экспериментальной и производственной. Как только мы увидим принятие этой экспериментальной реализации и получим отзывы от этих пользователей, следующим шагом будет исправление известных нам проблем. Затем мы подвергаем продукт строгому испытательному периоду, следя за тем, чтобы не было выявлено критических или серьезных ошибок, и чтобы эта функция соответствовала нашим критериям для функции производственного уровня. Только тогда мы начнем внедрять его в производственную среду.

Для получения дополнительной информации о запуске NGINX на вашем сервере cPanel & WHM, пожалуйста, ознакомьтесь с нашей документацией.

Выпущен WISECP v2.0 - интеллектуальная автоматизация веб-решений



Что такое WiseCP?
WiseCP — это современная веб-система автоматизации, которая включает современный интерфейс веб-сайта с панелью управления клиентами и панелью управления администратора. Он был разработан для того, чтобы все индивидуальные и корпоративные организации, работающие в области информационных технологий, могли легко обеспечивать продажи и управление продуктами и услугами, операции выставления счетов и принудительного исполнения, управление клиентами, услуги поддержки и все другие сопутствующие услуги.
wisecp.com

Какие услуги вы можете предложить с WISECP?
  • Веб-хостинг (хостинг, домен, сервер, SSL, лицензии на продукт и т. Д.)
  • Услуги программного обеспечения (продажа и лизинг скриптов, веб-программное обеспечение, программное обеспечение для настольных ПК и т. Д.)
  • Bulk SMS Services (Международные SMS-рассылки)
  • Сервисы социальных сетей (пакеты трекеров, пакеты социальных сетей и т. Д.)
  • Рекламные / рекламные услуги (рекламные и рекламные пакеты услуг, фирменный стиль, логотип и т. Д.)
  • Услуги SEO (пакеты SEO, пакеты обратной ссылки, пакеты рекламных материалов и т. Д.)
  • Любые виды цифровых услуг

Что нового в версии 2.0?
В версии 2.0 имеется множество обновлений, однако ниже мы упомянули только важные обновления.
  • Современная клиентская панель WClient (теперь пользователи могут использовать функцию «Только клиентская панель», а встроенный веб-сайт можно отключить)
  • Усовершенствованная система продвижения (наряду с купоном мы ввели систему продвижения, которая позволяет предлагать бесплатные или платные услуги вместе с услугой. Например, бесплатный домен теперь может предлагаться вместе с хостингом)
  • WAnalytics, встроенная аналитическая функция, которая очень подробно выдает статистику вместе с отслеживанием пользователей в реальном времени.
  • Налогообложение, цены теперь могут быть определены вместе с НДС или без НДС. Это также сделано в соответствии с налоговым законодательством Европейского Союза. Различные налоговые ставки теперь могут быть определены для каждой страны. Налоги также автоматически применяются в зависимости от местоположения пользователя.
  • Поддержка тикетной системы была переработана. Теперь он работает как живой чат. Все происходит в режиме реального времени!
  • Модуль регистратора доменов Namecheap
  • Модуль регистратора доменов Namesilo
  • Новый модуль способа оплаты: Stripe
  • Новый модуль метода оплаты: Skrill
  • Новый модуль метода оплаты: CoinPayments
  • Новый способ оплаты: PerfectMoney
  • Модуль реселлинга SSL: GoGetSSL
  • Модуль реселлинга SSL: Namecheap
  • Модуль реселлинга SSL: ResellerClub
  • Модуль реселлинга SSL: OnlineNIC
  • Модуль перепродажи лицензий на программное обеспечение: BuycPanel
  • Модуль виртуального сервера: Virtualizor
  • Модуль виртуального сервера: AutoVM

Проверьте полный журнал обновлений здесь: www.docs.wisecp.com/en/kb/v2-0

Служба поддержки
Форумы сообщества: community.wisecp.com
Discord: discord.gg/pW3U3uW
Свяжитесь с нашей службой поддержки: my.wisecp.com

WISECP: wisecp.com

Приглашаем переводчика в свою команду. Среди ваших знакомых есть native English speaker?

Порекомендуйте ему нашу вакансию: selectel.ru/careers/all/vacancy/#31007628
Официальное оформление, современная технологичная компания, веселая атмосфера. Резюме ждём на hr@selectel.ru

Prescience: Представляем платформу машинного обучения OVH

Проекты машинного обучения становятся все более важной составляющей сегодняшнего поиска более эффективных и сложных производственных процессов. OVH Prescience — это платформа для машинного обучения, цель которой — облегчить концепцию, развертывание и обслуживание моделей в промышленном контексте. Система управляет конвейерами машинного обучения, от приема данных до мониторинга моделей. Это включает в себя автоматизацию предварительной обработки данных, выбор модели, оценку и развертывание в масштабируемой платформе.



Prescience поддерживает различные виды проблем, такие как регрессия, классификация, прогнозирование временных рядов и вскоре обнаружение аномалий. Решение проблем осуществляется с использованием как традиционных моделей ML, так и нейронных сетей.

Prescience в настоящее время используется в производственных масштабах для решения различных задач, с которыми сталкивается OVH, а его альфа-версия доступна для бесплатной проверки в OVH Labs. В этом сообщении мы представим Prescience и познакомим вас с типичным рабочим процессом вместе с его компонентами. Подробная презентация компонентов будет доступна в следующих публикациях в блоге.

Начало Prescience
В какой-то момент все проекты машинного обучения сталкиваются с одной и той же проблемой: как преодолеть разрыв между прототипом системы машинного обучения и ее использованием в производственном контексте. Это было краеугольным камнем развития платформы машинного обучения в OVH.

Производственные тетради
Чаще всего ученые-разработчики проектируют системы машинного обучения, которые включают обработку данных и выбор моделей в ноутбуках. Если они успешны, эти ноутбуки затем адаптируются для производственных нужд инженерами данных или разработчиками. Этот процесс обычно деликатный. Это отнимает много времени и должно повторяться каждый раз, когда модель или обработка данных требуют обновления. Эти проблемы приводят к серийным моделям, которые, хотя и являются идеальными при поставке, могут со временем сойти с реальной проблемы. На практике модели никогда не используются в производственном режиме, несмотря на их качество, только потому, что конвейер данных слишком сложен (или скучен), чтобы его можно было извлечь из ноутбука. В результате вся работа ученых-данных идет напрасно.

В свете этого первая проблема, которую Prescience необходимо было решить, заключалась в том, как обеспечить простой способ развертывания и обслуживания моделей при одновременном обеспечении мониторинга и эффективного управления моделями, включая (но не ограничиваясь этим) переподготовку моделей, оценку моделей или запрос моделей через обслуживающий REST API.

Улучшенное прототипирование
После того, как разрыв между прототипированием и производством был преодолен, второй целью было сокращение фазы прототипирования проектов машинного обучения. Базовое наблюдение состоит в том, что навыки ученых данных являются наиболее важными при применении к подготовке данных или разработке функций. По сути, задача исследователя данных состоит в том, чтобы правильно определить проблему. Это включает характеристику данных, фактическую цель и правильную метрику для оценки. Тем не менее, выбор модели — также задача, решаемая специалистом по данным — та, которая приносит гораздо меньше пользы от этого специалиста. Действительно, один из классических способов найти хорошую модель и ее параметры по-прежнему состоит в том, чтобы перебрать все возможные конфигурации в данном пространстве. В результате выбор модели может быть довольно кропотливым и трудоемким.

Следовательно, Prescience необходимо было предоставить ученым, работающим с данными, эффективный способ тестирования и оценки алгоритмов, которые позволили бы им сосредоточиться на повышении ценности данных и определении проблем. Это было достигнуто путем добавления компонента оптимизации, который, учитывая пространство конфигурации, оценивает и тестирует конфигурации внутри него, независимо от того, были ли они подобраны специалистом по данным. Поскольку архитектура масштабируема, мы можем быстро протестировать значительное количество возможностей таким образом. Компонент оптимизации также использует методы, чтобы попытаться превзойти подход грубой силы, используя байесовскую оптимизацию. Кроме того, проверенные конфигурации для данной проблемы сохраняются для последующего использования и для облегчения запуска процесса оптимизации.

Расширяя возможности
В такой компании, как OVH, много проблем можно решить с помощью методов машинного обучения. К сожалению, по каждому из этих вопросов невозможно назначить ученого, особенно если не установлено, стоит ли инвестировать. Несмотря на то, что наши специалисты по бизнесу не освоили все методы машинного обучения, они обладают обширными знаниями о данных. Опираясь на эти знания, они могут дать нам минимальное определение проблемы под рукой. Автоматизация предыдущих этапов (подготовка данных и выбор модели) позволяет специалистам быстро оценить возможные преимущества подхода машинного обучения. Тогда можно принять процесс быстрого выигрыша / быстрого отказа для потенциальных проектов. Если это удастся, мы можем, если необходимо, ввести в цикл исследователя данных.

Prescience также включает в себя автоматическое управление конвейером, чтобы адаптировать необработанные данные, которые будут использоваться алгоритмами машинного обучения (то есть, предварительную обработку), затем выбрать подходящий алгоритм и его параметры (то есть выбор модели), сохраняя при этом автоматическое развертывание и мониторинг.

Архитектура Prescience и рабочие процессы машинного обучения


По сути, платформа Prescience основана на технологиях с открытым исходным кодом, таких как Kubernetes для операций, Spark для обработки данных и Scikit-learn, XGBoost, Spark MLlib и Tensorflow для машинного обучения. Большая часть разработок Prescience заключалась в объединении этих технологий. Кроме того, все промежуточные выходы системы, такие как предварительно обработанные данные, этапы преобразования или модели, сериализуются с использованием технологий и стандартов с открытым исходным кодом. Это предотвращает привязку пользователей к Prescience в случае необходимости использования другой системы.

Взаимодействие пользователей с платформой Prescience стало возможным благодаря следующим элементам:
  • пользовательский интерфейс
  • клиент Python
  • REST API
Давайте рассмотрим типичный рабочий процесс и дадим краткое описание различных компонентов…

Прием данных
Первый шаг рабочего процесса машинного обучения — получение пользовательских данных. В настоящее время мы поддерживаем три типа источников, которые затем будут расширены в зависимости от использования:

CSV, отраслевой стандарт
Паркет, который довольно крутой (плюс автоматически документированный и сжатый)
Временной ряд, благодаря OVH Observability, работает на Warp10
Необработанные данные, предоставляемые каждым из этих источников, редко используются как есть в алгоритмах машинного обучения. Алгоритмы обычно ожидают, что числа будут работать. Поэтому первый шаг рабочего процесса выполняется компонентом Parser. Единственная задача Parser — обнаруживать типы и имена столбцов, в случае простых текстовых форматов, таких как CSV, хотя источники Parquet и Warp10 содержат схему, что делает этот шаг спорным. После ввода данных анализатор извлекает статистику, чтобы точно ее охарактеризовать. Полученные данные вместе со статистикой хранятся в нашей серверной памяти хранилища — Public Cloud Storage, работающей на OpenStack Swift.

Преобразование данных
После того, как типы выведены и статистика извлечена, данные, как правило, должны быть обработаны, прежде чем они будут готовы к машинному обучению. Этот шаг обрабатывается препроцессором. Опираясь на вычисленную статистику и тип проблемы, он определяет лучшую стратегию для применения к источнику. Например, если у нас есть одна категория, то выполняется горячее кодирование. Однако, если у нас есть большое количество различных категорий, то выбирается более подходящий тип обработки, такой как кодирование уровня / воздействия. После вывода стратегия применяется к источнику, превращая его в набор данных, который станет основой для последующего шага выбора модели.

Препроцессор выводит не только набор данных, но и сериализованную версию преобразований. Выбранный формат для сериализации — PMML (язык разметки прогнозной модели). Это стандарт описания для совместного использования алгоритмов интеллектуального анализа данных и машинного обучения. Используя этот формат, мы сможем применить точно такое же преобразование во время обслуживания, когда столкнемся с новыми данными.

Выбор модели
Как только набор данных будет готов, следующим шагом будет попытка подобрать лучшую модель. В зависимости от проблемы пользователю предоставляется набор алгоритмов вместе с их конфигурационным пространством. В зависимости от уровня квалификации пользователь может настроить пространство конфигурации и предварительно выбрать подмножество алгоритмов, которые лучше всего подходят для данной проблемы.

Байесовская оптимизация


Компонент, который выполняет оптимизацию и выбор модели, является механизмом оптимизации. При запуске оптимизации подкомпонент, называемый контроллером, создает внутреннюю задачу оптимизации. Контроллер управляет планированием различных шагов оптимизации, выполняемых во время задачи. Оптимизация достигается с помощью байесовских методов. По сути, байесовский подход заключается в изучении модели, которая сможет предсказать, какая конфигурация является наилучшей. Мы можем разбить шаги следующим образом:
  • Модель в холодном состоянии. Оптимизатор возвращает набор настроек по умолчанию для контроллера
  • Контроллер распределяет начальные конфигурации по кластеру учащихся
  • По завершении начальных конфигураций контроллер сохраняет результаты
  • Оптимизатор запускает вторую итерацию и обучает модель на основе доступных данных.
  • На основе полученной модели оптимизатор выводит лучших претендентов, которые можно попробовать. Рассматривается как их потенциальная эффективность, так и объем информации, который она предоставит для улучшения модели выбора.
  • Контроллер распределяет новый набор конфигураций по кластеру и ждет новой информации, a.k.a вновь оцененных конфигураций. Конфигурации оцениваются с использованием K-кратной перекрестной проверки, чтобы избежать переоснащения.
  • Когда доступна новая информация, запускается новая итерация оптимизации, и процесс начинается снова на шаге 4
  • После предварительно определенного числа итераций оптимизация останавливается

Проверка модели
Как только оптимизация завершена, пользователь может либо запустить новую оптимизацию, используя существующие данные (следовательно, не возвращаясь в холодное состояние), либо выбрать конфигурацию в соответствии с ее оценочными показателями. Как только подходящая конфигурация достигнута, она используется для обучения окончательной модели, которая затем сериализуется либо в формате PMML, либо в формате сохраненной модели Tensorflow. Те же ученики, которые занимались оценками, проводят фактическое обучение.

В конце концов, окончательная модель оценивается по тестовому набору, извлеченному во время предварительной обработки. Этот набор никогда не используется во время выбора модели или обучения, чтобы обеспечить беспристрастность вычисленных показателей оценки. На основе полученных показателей оценки может быть принято решение использовать модель в производстве или нет.

Модель сервировки
На этом этапе модель обучается и экспортируется и готова к обслуживанию. Последний компонент платформы Prescience — это обслуживание Prescience. Это веб-сервис, который использует PMML и сохраненные модели и предоставляет REST API поверх. Поскольку преобразования экспортируются вместе с моделью, пользователь может запросить вновь развернутую модель, используя необработанные данные. Прогнозы теперь готовы к использованию в любом приложении.

Модельный мониторинг
Кроме того, одной из характерных особенностей машинного обучения является его способность адаптироваться к новым данным. В отличие от традиционных жестко заданных бизнес-правил, модель машинного обучения способна адаптироваться к базовым шаблонам. Для этого платформа Prescience позволяет пользователям легко обновлять источники, обновлять наборы данных и переучивать модели. Эти шаги жизненного цикла помогают поддерживать актуальность модели в отношении проблемы, которую необходимо решить. Затем пользователь может сопоставить частоту переподготовки с новой квалификацией данных. Они могут даже прервать процесс обучения в случае аномалии в конвейере генерации данных. Каждый раз, когда модель переобучается, вычисляется новый набор баллов и сохраняется в OVH Observability для мониторинга.

Как мы отмечали в начале этого поста, наличие точной модели не дает никаких гарантий относительно ее способности поддерживать эту точность с течением времени. По многим причинам производительность модели может снизиться. Например, необработанные данные могут ухудшиться в качестве, могут появиться некоторые аномалии в конвейерах обработки данных или сама проблема может дрейфовать, делая текущую модель неактуальной, даже после переподготовки. Поэтому крайне важно постоянно отслеживать производительность модели на протяжении всего жизненного цикла, чтобы избежать принятия решений на основе устаревшей модели.

Движение к ИИ-управляемой компании
Prescience в настоящее время используется в OVH для решения ряда промышленных проблем, таких как предотвращение мошенничества и профилактическое обслуживание в центрах обработки данных.

С помощью этой платформы мы планируем наделить все большее число команд и служб в OVH возможностью оптимизировать свои процессы с помощью машинного обучения. Мы особенно рады нашей работе с Временными рядами, которые играют решающую роль в управлении и мониторинге сотен тысяч серверов и виртуальных машин.

Разработка Prescience проводится командой служб машинного обучения. MLS состоит из четырех инженеров машинного обучения: Маэль, Адриен, Рафаэль и я. Командой руководит Гийом, который помог мне спроектировать платформу. Кроме того, в команду входят два исследователя данных, Оливье и Клемент, которые занимались внутренними случаями использования и предоставили нам обратную связь, и, наконец, Лоран: студент CIFRE, работающий над многоцелевой оптикой.

Новые процессоры Intel в Облаке и возможности для экономии



В Yandex Compute Cloud теперь можно создавать виртуальные машины на базе нового поколения процессоров Intel Xeon Gold (Cascade Lake). Благодаря сотрудничеству Яндекса и Intel мы первыми в России предлагаем своим пользователям мощности новых процессоров Intel Xeon Gold среди облачных провайдеров.
Мы протестировали новые процессоры в Облаке и подтвердили, что виртуальные машины на Intel Xeon Gold производительнее, чем ВМ на процессорах предыдущей линейки.
При этом виртуальные машины на базе новых процессоров обойдутся вам дешевле: например, наша самая популярная конфигурация в 2 vCPU, 4 RAM и диском 13 ГБ обойдётся в 1673.89 ₽ в месяц. Такая же конфигурация на процессорах предыдущей линейки стоит 1740.56 ₽.


Вы сможете сэкономить ещё больше, если выберете виртуальную машину с частичной загрузкой ядра — 5%, 20% или 50% vCPU. Например, та же конфигурация ВМ 2 vCPU, 4 RAM и диском 13 ГБ, но с гарантированной долей 20% vCPU будет стоить 1037.98 ₽.


Управляемые базы данных в Облаке теперь тоже доступны по более выгодным ценам. Разверните БД с неполным уровнем производительности хоста (burstable) и используйте их для тестирования и разработки — такие БД стоят от 530 ₽ в месяц.


Подробности о новых процессорах и их возможностях читайте в документации.
cloud.yandex.ru/docs/compute/concepts/vm-platforms
Чтобы работать с ВМ на базе нового поколения процессоров, выбирайте Intel Cascade Lake при создании ВМ в поле «Тип платформы».
cloud.yandex.ru

Бесплатный вебинар «Как продвигать малый бизнес в интернете»



На вебинаре вы узнаете:
  • как создать сайт без дизайнеров и программистов;
  • как привлечь новую аудиторию с помощью SEO;
  • что предлагать клиентам, чтобы они к вам возвращались.
Мы обсудим теоретические вопросы и потренируемся в реальных инструментах. В конце вебинара, как всегда, с удовольствием ответим на ваши вопросы.
  • Вебинар пройдет 29 апреля в 12:00 (московское время)
  • Участие бесплатное
Регистрируйтесь сейчас, чтобы занять место и не забыть о вебинаре. Мы отправим напоминание и ссылку на трансляцию за час до старта.
187.bizml.site/webinar-promotion

Технические работы 29 апреля с 0:00 по 7:00 MSK



Сообщаем вам, что мы запланировали технические работы с 0:00 MSK по 7:00 MSK 29 апреля на портале самообслуживания mcs.mail.ru. Эти работы проводятся с целью выпуска новой версии портала и связанных подсистем.

Во время работ будет недоступен портал самообслуживания, а также возможность изменения/добавления ресурсов через API.

Перерыва в доступности уже созданных ресурсов в сервисах:
1. Облачные вычисления;
2. Базы данных;
3. Контейнеры;
4. Сети;
5. Файловое хранилище;
6. Объектное хранилище;
7. Магазин приложений;
8. Vision.
– не ожидается.

Если вы управляете нашими сервисами через API, то после завершения технических работ пароль для доступа к API будет изменен на идентичный с паролем от личного кабинета на портале mcs.mail.ru. Изменение пароля потребует от вас переконфигурирования систем, использующих авторизацию по API (Terraform и др.), которые вы пользуете.

При использовании файла Openstack RC file v3, скачанного из панели Horizon, для работы с API Openstack вам потребуется скачать его заново или внести изменения в существующий:
  1. удалить строку, начинающуюся с export OS_PROJECT_NAME;
  2. при наличии строки export OS_USER_DOMAIN_ID=«default» заменить ее на export OS_USER_DOMAIN_ID=«users»;
  3. удалить строку export OS_PROJECT_DOMAIN_ID=«default».