Выгодные предложения на сервисы и инструменты для бизнеса от REG.RU



Максимальная экономия на хостинге: скидка до 45%!
Получите быстрый и надёжный хостинг и сэкономьте. Чем больше срок заказа, тем больше скидка! Например, при заказе виртуального хостинга на 36 месяцев вы получите скидку в 45%.
www.reg.ru/company/promotions/693

Домен .INFO: адреса для СМИ и инфопроектов за 99 рублей
Успейте зарегистрировать необычное и яркое доменное имя для своего блога, обучающего сайта или интернет-СМИ. Предложение действует до 31 декабря 2019 года.
www.reg.ru/company/promotions/5111

Бесплатный хостинг и SSL-сертификат в подарок при регистрации домена
Домен — это то, с чего начинается любой интернет-бизнес.
На сайте REG.RU в подарок к красивому и недорогому домену вы получаете бесплатный SSL-сертификат и хостинг на 2 месяца.
www.reg.ru/company/promotions/672

Универсальные домены .XYZ по 99 рублей
Разработчики, дизайнеры, маркетологи, архитектурные бюро, digital-агентства и многие другие компании или независимые специалисты могут с полной уверенностью зарегистрировать домен .XYZ и получить современный и необычный адрес для сайта.
www.reg.ru/company/promotions/5121

Закажите VPS и получите ISPmanager 5 Lite на 1 месяц бесплатно!
Сделайте вашу работу с сервером проще с ISPmanager 5 Lite. Закажите любой тариф VPS или Dedicated и получите бесплатно на один месяц удобную панель управления сервером.
www.reg.ru/company/promotions/5065

Топовые IT-мероприятия этого месяца
Участвуйте в самых интересных и продуктивных конференциях, выставках, мастер-классах и улучшайте свои профессиональные навыки. Анонсы главных IT-событий вы найдёте в разделе «Мероприятия» на сайте REG.RU.
www.reg.ru/company/promotions/

Мощный виртуальный сервер с большим диском

Здравствуйте, уважаемые клиенты!

Хотим представить вашему вниманию новый мощный виртуальный сервер в Москве со следующими параметрами:
  • CPU: 8 X 2.4 GHz
  • RAM: 8 GB DDR3
  • HDD: 500 GB SATA (RAID10)
  • Канал: 100 MBPS/Unlim
  • Стоимость: 1600 рублей в месяц


Для заказа создайте тикет в панели управления.

С уважением, администрация XPE.SU.

Информация о попытках несанкционированного доступа



За последние сутки нами было зафиксированы множественные попытки сброса пароля наших клиентов и попыток авторизации в биллинг.

Мы детально проанализировали все запросы, и пришли к выводу, что это несанкционированные запросы, которые были сделаны с использованием сторонних баз данных электронных адресов и паролей. С нашей стороны утечек данных не зафиксировано.

Успешная авторизация возможна, если вы используете один и тот же пароль на разных сервисах. Есть уже подтверждения, что подобные запросы осуществляются уже и на сторонние сервисы. Поэтому эта проблема затрагивает также сервисы сторонних провайдеров и поставщиков услуг. Пожалуйста, будьте бдительны и никогда не используйте один и тот же пароль на разных сервисах.

Мы рекомендуем Вам изменить пароли на почту и другие важные сервисы, а также используйте двухфакторную авторизацию, где есть такая возможность.

Рекомендуем также включить двухфакторную авторизацию у нас в биллинге — fornex.com/auth/account/two_factor/

С уважением,
Команда Fornex Hosting S.L.

Как настроить VPS сервер для хостинга сайтов (скидка внутри)



Есть как минимум 2 способа приготовления сервера для хостинга сайтов:
  • Устанавливать / настраивать / отлаживать каждый из элементов LAMP (Linux+Apache+MySQL+PHP) руками
  • Поставить панель управления, которая сама все настроит и управлять всем хозяйством через web
Я обычно использую второй вариант, если нет жестких требований к проекту. Использование панели управления обычно позволяет:
  • Значительно сократить время развертывания LAMP (15-20 минут против половины дня)
  • Исключить ошибки первичной настройки (пути, права)
  • Упростить / ускорить рутинные операции (добавление доменов, пользователей)

Какую панель управления выбрать?
Тут тоже два пути:
  • Коммерческие (ISPmanager, cPanel, Plesk)
  • Бесплатные (VestaCP, CWP, Ajenty)
Список конечно шире, я перечислил те что попадаются на серверах наших клиентов чаще всего.

И сегодня я расскажу подробнее о панели управления хостингом VestaCP
Бесплатная. С открытым исходным кодом. Написана большей частью на PHP и Bash (можно при желании поправить что-нибудь).
Живет тут vestacp.com
Ветка на GitHub тут github.com/serghey-rodin/vesta

Что может?
  • Весь необходимый функционал в комплекте
  • Хостинг сайтов, почты, DNS
  • Управление бекапами, заданиями cron, службами на сервере
  • Веб-почта, phpmyadmin
  • Мониторинг ресурсов сервера

Для искушенных пользователей
  • CLI интерфейс
  • Многопользовательский режим
  • Автогенерация Let's Encrypt сертификтов
  • Nginx + php-fpm из коробки

Есть ложка дегтя: в комплекте нет встроенного в панель файлового менеджера. Потому либо (s)FTP либо покупать плагин файлового менеджера отдельно

Как посмотреть?
Тут есть demo demo.vestacp.com

Как установить?
Сама панель весьма не требовательна к ресурсам. Потому CloudVDS 1 или CloudVDS Custom c базовыми опциями (1 CPU + 1 Gb RAM + 20 Gb SSD) более чем подойдет.
Я обычно использую для VestaCP серверы с Debian 9 x64, хотя так же без проблем становится и на Centos 7 x64.
Для запуска установки нужно выполнить в консоли сервера (первая команда скачает, а вторая запустит установщик):
wget http://vestacp.com/pub/vst-install.sh
bash vst-install.sh

После запуска установщик спросит какое ПО ставить. Можно выбрать нужное, можно оставить по умолчанию.
А можно воспользоваться мастером на сайте в собрать строку запуска сразу с нужными опциями vestacp.com/install (внизу страницы)

Установка проходит в автоматическом режиме. Вопросов не задает. Через 10-15 в консоли покажет адрес / логин / пароль для входа.

Управление — интуитивное. Однако — если возникнут вопросы по работе с этой панелью — обращайтесь, обязательно помогу.

А еще до конца февраля действует промокод "vestacp". Он дает 50% скидку при заказе виртуального сервера CloudVDS 1 или CloudVDS Custom
Собрать свою уникальную конфигурацию сервера можно тут www.flynet.pro/ru/hosting/vds-vps-hosting

С уважением, Ковальчук Евгений
www.flynet.pro
Тел.: +7 (3822) 71-21-96
E-mail: kovalchuk@flynet.pro

Управление Kubernetes над Kubernetes было хорошей идеей

Управление Kubernetes над Kubernetes было хорошей идеей для компонентов без контроля состояния плоскости управления… но как насчет etcd?


В нашем предыдущем посте мы описали архитектуру Kubinception, как мы запускаем Kubernetes над Kubernetes для компонентов без состояний в плоскостях управления кластерами клиентов. Но как насчет компонента с состоянием, etcd?

Необходимость очевидна: каждый кластер клиентов должен иметь доступ к etcd, чтобы иметь возможность хранить и извлекать данные. Весь вопрос в том, где и как развернуть etcd, чтобы сделать его доступным для каждого кластера клиентов.

Самая простая идея не всегда хорошая
Первый подход заключается в простом следовании логике Kubinception: для каждого клиентского кластера развертывание кластера etcd в качестве модулей, работающих на административном кластере.


Этот полный подход Kubinception имеет преимущество быть простым, он кажется продолжением того, что мы делаем с компонентами без сохранения состояния. Но если взглянуть на него подробно, он показывает свои недостатки. Развертывание кластера etcd не так просто и просто, как развертывание без сохранения состояния и является критически важным для работы кластера, мы не могли просто обработать его вручную, нам был необходим автоматизированный подход для управления им на более высоком уровне. www.diycode.cc/projects/coreos/etcd-operator

Использование оператора
Мы были не единственными, кто думал, что сложность работы с развертыванием и работой кластера etcd на Kubernetes была чрезмерной, люди из CoreOS заметили это, и в 2016 году они выпустили элегантное решение проблемы: etcd оператор coreos.com/blog/introducing-the-etcd-operator.html

Оператор — это специальный контроллер, который расширяет API Kubernetes для простого создания, настройки и управления экземплярами сложных (часто распределенных) приложений с отслеживанием состояния в Kubernetes. Для записи, понятие оператора было введено CoreOS с оператором etcd.


Оператор etcd управляет кластерами etcd, развернутыми в Kubernetes, и автоматизирует рабочие задачи: создание, уничтожение, изменение размера, аварийное переключение, непрерывное обновление, резервное копирование
kubernetes.io

Как и в предыдущем решении, кластер etcd для каждого клиентского кластера развертывается в качестве модулей в административном кластере. По умолчанию оператор etcd развертывает кластер etcd, используя локальное непостоянное хранилище для каждого модуля etcd. Это означает, что если все модули умирают (маловероятно) или перепланируются и появляются в другом узле (гораздо более вероятно), мы можем потерять данные etcd. А без этого заказчик Kubernetes оказывается в кирпиче.

Оператор etcd может быть настроен на использование постоянных томов (PV) для хранения данных, поэтому теоретически проблема была решена. Теоретически, поскольку управление томами не было достаточно зрелым, когда мы тестировали его, и если модуль etcd был убит и переназначен, новый модуль не смог получить свои данные на PV. Таким образом, риск полной потери кворума и блокирования клиентского кластера все еще был у оператора etcd.
kubernetes.io/docs/concepts/storage/persistent-volumes/

Короче говоря, мы немного поработали с оператором etcd и обнаружили, что он недостаточно зрел для нашего использования.

StatefulSet
Помимо оператора, другим решением было использование StatefulSet, своего рода распределенного развертывания, хорошо подходящего для управления распределенными приложениями с отслеживанием состояния.
kubernetes.io/docs/concepts/workloads/controllers/statefulset/
kubernetes.io/docs/concepts/workloads/controllers/deployment/
github.com/helm/charts/tree/master/incubator/etcd

Существует официальная диаграмма ETCD Helm, которая позволяет развертывать кластеры ETCD в виде StafefulSets, которая обменивает некоторую гибкость оператора и удобство для пользователя на более надежное управление PV, которое гарантирует, что перепланированный модуль etcd будет получать свои данные.


Etcd StatefulSet менее удобен, чем оператор etcd, поскольку он не предлагает простого API для операций, таких как масштабирование, отработка отказа, последовательное обновление или резервное копирование. Взамен вы получаете некоторые реальные улучшения в управлении PV. StatefulSet поддерживает липкую идентификацию для каждой записи etcd, и этот постоянный идентификатор сохраняется при любом перепланировании, что позволяет просто связать его с PV.

Система настолько устойчива, что даже если мы потеряем все модули etcd, когда Kubernetes перепланирует их, они найдут свои данные, и кластер продолжит работать без проблем.

Постоянные объемы, задержка и простой расчет затрат
Etcd StatefulSet казался хорошим решением… пока мы не начали интенсивно его использовать. В etcd StatefulSet используются PV, то есть тома сетевого хранилища. И т.д.DD довольно чувствительны к задержке в сети, ее производительность сильно ухудшается, когда сталкивается с задержкой.

Даже если задержку можно держать под контролем (и это очень важно), чем больше мы думаем об этой идее, тем больше она кажется дорогостоящим решением. Для каждого клиентского кластера нам нужно будет развернуть три модуля (фактически удваивая количество модулей) и три связанных PV, это плохо масштабируется для управляемой службы.

В сервисе OVH Managed Kubernetes мы выставляем счета нашим клиентам в соответствии с количеством рабочих узлов, которые они используют, то есть плоскость управления свободна. Это означает, что для обеспечения конкурентоспособности сервиса важно держать под контролем ресурсы, потребляемые плоскостями управления, поэтому нет необходимости удваивать количество пакетов с помощью etcd.

С Kubinception мы пытались мыслить нестандартно, казалось, что для etcd нам нужно было выбраться из этой коробки еще раз.

Мультитенантный кластер etcd
Если мы не хотели развертывать etcd внутри Kubernetes, альтернативой было бы развернуть его снаружи. Мы решили развернуть мультитенантный кластер etcd на выделенных серверах. Все клиентские кластеры будут использовать один и тот же ETCD, каждый сервер API получает свое место в этом мультитенантном кластере etcd.



Благодаря такому решению устойчивость обеспечивается обычными механизмами etcd, проблемы с задержкой не возникает, поскольку данные находятся на локальном диске каждого узла etcd, а количество модулей остается под контролем, поэтому оно решает основные проблемы, которые у нас возникли с другими решение. Компромисс здесь заключается в том, что нам нужно установить и использовать этот внешний кластер etcd, а также управлять контролем доступа, чтобы каждый сервер API имел доступ только к своим собственным данным.

Что дальше?
В следующих статьях из серии Kubernetes мы углубимся в другие аспекты построения OVH Managed Kubernetes и дадим клавиатуру некоторым из наших бета-клиентов, чтобы рассказать о своем опыте использования сервиса.

На следующей неделе давайте сосредоточимся на другой теме, мы разберемся с языком запросов TSL, и почему мы его создали и открыли

How we’ve updated 850 vCenter in 4 weeks



Управление выпусками на корпоративном программном обеспечении — непростая задача: обновлять инфраструктуры, справляться со страхом, что редактор программного обеспечения не будет поддерживаться, обновлять лицензии для обеспечения совместимости с новыми версиями и принимать все меры предосторожности для отката, если что-то не работает, как ожидается…

С OVH Private Cloud мы избавим вас от этой сложности. Мы справляемся с этим дорогостоящим и напряженным аспектом, чтобы вы могли сосредоточиться на своем бизнесе и своем производстве.

Но это не значит, что это не проблема для нас.

Обновление сотен vSphere 5.5 до 6.0
vSphere является ведущим продуктом предложения Private Cloud, входящего в пакет SDDC, предоставляемый VMware. vSphere — это программное обеспечение, позволяющее пользователю управлять своими хостами, хранилищем, сетью… С помощью клиента он может создавать кластеры с этими ресурсами для надежного, стабильного и высокодоступного хостинга.

С сентября 2018 года vSphere (vCenter, ESXi…) версии 5.5 прекращает поддержку VMware. Владея безопасностью и стабильностью инфраструктур частного облака, мы начали процессы обновления для всех vCenter.


У нас было около 850 vCenter в версии 5.5 в производстве, что представляет собой значительную работу по обновлению всего, если это было сделано вручную. Но в OVH у нас есть общий лейтмотив: автоматизировать все действия человека для повышения эффективности и избежать ошибок.

Вот так нам удалось обновить 850 vCenter с версии 5.5 до 6.0 за 4 недели. Другими словами, более 210 vCenter в неделю, 30 vCenter в день, с командой из 10 человек, которые следят за этим обслуживанием в фоновом режиме, не оказывая никакого влияния на производительность клиентов.


Наша команда разработчиков разработала и создала набор сценариев (которые мы называем внутренне «роботом») для автоматизации обновлений vCenter несколько лет назад. Этот робот сильно развился с момента появления продукта Private Cloud и следует за нами с версии 4.1 до 6.5, которая находится в стадии разработки.

Мы столкнулись с множеством проблем при настройке автоматических действий, таких как повреждение базы данных, сервисы, не интегрированные в единый вход (им было очень сложно управлять в версии 5.0 и 5.1), а также отпечаток, который не был обновлен для всех сервисов., очень трудно устранить неполадки и воспроизвести его. У нас даже были некоторые операционные системы, которые блокировали обновление программного обеспечения, делая все жестоко остановленным.

Наши рабочие команды много работали со службой поддержки VMware, чтобы найти обходные пути для возникающих проблем и автоматизировать их с помощью команды разработчиков. Это привело к созданию VMware KB, чтобы уведомлять клиентов о проблемах, с которыми мы столкнулись, и которые были признаны VMware ошибками. Команды провели много ночей, чтобы обеспечить минимальное влияние доступности vSphere для клиентов.

Обновление апгрейдер: новая версия робота
Все эти проблемы убеждают нас действовать по двум причинам. Во-первых, добавьте новую версию робота обновления, создавая меньше ошибок, обеспечивая более быстрое выполнение с точки зрения клиента, более надежный и надежный. Во-вторых, мы отказались от процесса обновления по умолчанию, используя обновление программного обеспечения VMware, для решения, в котором мы начинаем с недавно установленного обновленного стека vCenter, на обновленной виртуальной машине, а затем повторно подключаем все компоненты (база данных, NSX…) к этому новому vCenter.

Это значительно улучшило стабильность нашего сервиса, поскольку мы гарантируем, что у нас есть новая исправная и обновленная база для vCenter. Все это резко сократило количество вмешательств наших SRE в инфраструктуру частного облака.

Если мы подведем итоги наших действий: мы проверяем, что служба работает, прежде чем что-то делать, то мы готовим все наши сохранения и снимки, чтобы подготовить обновление. Как только это будет сделано, мы развернем нашу автоматизацию, чтобы запустить обновление. Каждый шаг включает в себя автоматическую проверку, чтобы убедиться, что все действия были выполнены.


Мы создали этого робота обновления в роботе-оркестраторе, который, согласно введенным параметрам, будет создавать задачи обновления для каждого частного облака, связанного с техническим обслуживанием, и планировать его на автоматические даты, в течение как минимум 72 часов с момента рассмотрения для клиента, но также количество обновлений, запущенных по часам, и критических периодов (таких как Черная пятница или Зимние распродажи). Клиенты могут перепланировать свои обновления с помощью диспетчера в части «Операции», чтобы выполнить обслуживание в более удобное время для их производства.


Наши команды SRE следят за роботами и следят за тем, чтобы обслуживание выполнялось, как и ожидалось, в запланированное время.


Подводя итог, мы перешли от необходимости автоматизации операции обновления vCenter, которая должна занимать не менее 12 часов на vCenter, к первой версии автоматизации, которая позволяет выполнить эту операцию за 4 часа, но с слишком высокий уровень ошибок (20%) из-за повторяющихся ошибок, которые должны были быть исправлены SRE вручную. Теперь вторая версия является надежной, надежной и стабильной, избегая известных проблем и создавая только редкие и уникальные проблемы, которые будут исправлены в автоматизации за кураторский проход.

Что дальше?
В последующие месяцы последуют другие виды обслуживания, обновления хоста с версии 5.5 до 6.0, обновления нашего варианта резервного копирования Veeam с версии 8.0 до 9.5, обновления нашего варианта Zerto с 5.0 до 5.5 и множество других обновлений наших внутренних машин. обеспечить процедуру аудита PCI-DSS.

Мы будем сохранять ту же прозрачность и общение, прислушиваясь к вашим отзывам и улучшая нашу систему обслуживания.

Selectel признан самым быстрорастущим облачным провайдером



Selectel, провайдер ИТ-инфраструктурных решений для бизнеса, в 2018 году развивался успешнее других игроков российского рынка IaaS. Такой вывод сделали эксперты iKS-Consulting в отчете «Облачный провайдинг 2018-2022: экономика, стратегии, бизнес-модели».

Selectel возглавил рейтинг наиболее динамично развивающихся провайдеров IaaS (Infrastructure-as-a-service, инфраструктура как услуга). Места в нем распределялись на основании темпов прироста выручки от облачных инфраструктурных сервисов в 2018 году.

Павел Алимов, генеральный директор Selectel:
Мы работаем на одном из самых высококонкурентных сегментов российской экономики. Поэтому для нас особенно приятно, что эксперты iKS отметили именно Selectel как лидера по росту. При этом, за последние 5 лет среднегодовой темп роста „облачной“ выручки Selectel превысил средний показатель по рынку в несколько раз

По оценкам iKS-Consulting, объем рынка IaaS в 2018 году составил 17.4 млрд рублей, что на 33% больше показателя 2017 года. В ТОП-5 его крупнейших игроков помимо Selectel вошли «Ростелеком», DataLine, «Сервионика» и «КРОК».

Эксперты iKS-Consulting прогнозируют, что в 2022 году объем рынка облачных услуг в России превысит 155 млрд рублей. Доля этого рынка, приходящаяся на IaaS увеличиться с 25% в 2018 году до 31% в 2022 году.

DataCenter Scaleway DC5 (часть 5)



Это помещение для проведения испытаний компьютерного оборудования в различных погодных ситуациях, искусственно воссозданного с помощью ПЛК, короче говоря, исследований и разработок для доведения оборудования до его пределов.





Читать дальше →

DataCenter Scaleway DC5 (часть 4)



DC5 также является местом, где собираются различные серверные массивы Scaleway, которые отправляются в различные центры обработки данных в Иль-де-Франсе и Амстердаме.

Вот несколько пустых ягод, ожидающих на сайте:


А вот несколько поддонов серверов:


Запас серверов:


Запас мелких компонентов жесткие диски, SSD, SDRAM DDR4, SFP +, XFP, QSFP



Читать дальше →