Знакомим с тарифами виртуального хостинга



Знакомим с тарифами виртуального хостинга:
  • Доступный: 1,25 $/мес./ SSD 5 000 Mb/ Сайтов 10
  • Выгодный: 2,5 $/мес./ SSD 10 000 Mb/ Сайтов 20
  • Оптимальный: 3,5 $/мес./ SSD 15 000 Mb/ Сайтов 30
  • Корпоративный: 4,5 $/мес./ SSD 20 000 Mb/ Сайтов 40

Подробнее о тарифах узнать можно тут: zomro.com/virtual.html
На всех тарифных планах:
  • Безлимитный трафик
  • Безлимитные почтовые ящики
  • Безлимитные FTP-аккаунты
  • Без жестких ограничений ресурсов
  • Безлимитное количество баз данных

С нами Вы получаете стабильность, скорость и безопасность.

Представляем тариф VDS/VPS «BIG»



Представляем тариф VDS/VPS «BIG» — всё, что нужно для потребностей Ваших проектов.

Процессор — 3 ядра Intel Xeon
ОЗУ — 6144 Mb
SSD-диск — 300 000 Mb
Порт — 100 Mbps
ОС — Windows или Linux
Цена — 23.99$ / мес.

Активация VDS/VPS производится в автоматическом режиме, вне зависимости от времени суток и занимает менее одной минуты.

Подробнее о все тарифах VDS/VPS с большими SSD-дисками на нашем сайте: zomro.com/big_vds.html

Object Storage numbered endpoints

On February 18 2020, we are going to disable the following numbered endpoints/regions for Object Storage and Cloud Archive services:
— storage.bhs1.cloud.ovh.net (BHS1)
— storage.bhs3.cloud.ovh.net (BHS3)
— storage.bhs5.cloud.ovh.net (BHS5)
— storage.de1.cloud.ovh.net (DE1)
— storage.gra1.cloud.ovh.net (GRA1)
— storage.gra3.cloud.ovh.net (GRA3)
— storage.gra5.cloud.ovh.net (GRA5)
— storage.gra7.cloud.ovh.net (GRA7)
— storage.sbg1.cloud.ovh.net (SBG1)
— storage.sbg3.cloud.ovh.net (SBG3)
— storage.sbg5.cloud.ovh.net (SBG5)
— storage.sgp1.cloud.ovh.net (SPG1)
— storage.syd1.cloud.ovh.net (SYD1)
— storage.uk1.cloud.ovh.net (UK1)
— storage.waw1.cloud.ovh.net (WAW1)

Before then, configurations should be updated.
New endpoints/regions are available and ready to use since mid-October 2019 (FS#40834):
— storage.bhs.cloud.ovh.net (BHS)
— storage.de.cloud.ovh.net (DE)
— storage.gra.cloud.ovh.net (GRA)
— storage.sbg.cloud.ovh.net (SBG)
— storage.sgp.cloud.ovh.net (SGP)
— storage.syd.cloud.ovh.net (SYD)
— storage.uk.cloud.ovh.net (UK)
— storage.waw.cloud.ovh.net (WAW)

gateways.storage.*.cloud.ovh.net (Cloud Archive rsync/scp/sftp gateways) are concerned by this change in the same way.
BHS2, SBG2 and private regions are not concerned by this change.

Приглашаем на вебинар по VMware



Из on-premises в облако — легко и без рисков
  • Только факты. Расскажем о нюансах построения облачной инфраструктуры и ее отличиях от on-premises.
  • Кейсы. Покажем, как настроить vCloud Availability. Расскажем о полезных инструментах VMware.
  • Обратная связь. Ответим на вопросы, обсудим ваши кейсы.

Присоединяйтесь и прокачивайте свои знания по VMware!
Все подробности — по ссылке.
promo.selectel.ru/webinar_vmware_20_02_2020/

Спикер:
Иван Колегов — менеджер продукта VMware, Selectel.

Тестирование системы защиты от DDoS

Уважаемый абонент, с 14 и до конца месяца мы будем тестировать автоматизированную систему защиты от DDoS от ЭрТелеком Холдинг.
В том случае, если система не создаст ухудшения качества обслуживания, защита будет активирована для всех услуг НетПоинт по умолчанию.

Мы настоятельно просим вас обратить внимание на работоспособность ваших услуг в этот период и сообщать нам о возникающих проблемах.
Это поможет нам своевременно предпринимать действия по их предотвращению и составить правильное представление о работе системы.

Спасибо за вашу поддержку, команда НетПоинт

Балансируй меня полностью: сценарии настройки



Решение задачи балансировки нагрузки в большинстве случаев кажется простой и банальной. Но дьявол обычно кроется в деталях. Сегодня мы разберем в каких случаях без балансировщика не обойтись и как выбрать лучший метод балансировки.

Прежде всего рассмотрим сам процесс работы типичного Web-приложения:
  • Запрос пользователя попадает на Front-end.
  • Front-end делает запрос в Back-end.
  • Back-end отдает ответ на Front-end.
  • Front-end формирует и отдает пользователю результат.
Если у нас есть только один Front-end и один Back-end, то балансировать тут особо и нечего. Усложним задачу. Теперь у нас есть один Front-end и два Back-end сервера. Если балансировщик отсутствует вообще и программно не настроено распределение запросов, то один Back-end всегда будет простаивать, а второй принимать на себя всю нагрузку. Так или иначе нужно распределить запросы между двумя серверами.

И вот мы плавно переходим к методам балансировки. В нашем Балансировщике нагрузки для Облачной платформы Selectel реализовано два самых эффективных и часто используемых алгоритма:
  • Round Robin (циклический алгоритм);
  • Least connections (алгоритм наименьших соединений).
Рассмотрим каждый из алгоритмов подробнее.

Round Robin
Этот алгоритм очень прост для понимания. Запросы отправляются на все балансируемые серверы попеременно. Так что, в описываемом нами случае с одним Front-end и двумя Back-end серверами все выглядит просто замечательно. В идеальном варианте у нас нагрузка на каждый Back-end будет распределена равномерно, то есть 50% на 50%. Но есть одна серьезная проблема.

Несмотря на то, что запросы равномерно распределились по серверам, их обработка будет занимать разное время. А это значит, что через N-ное количество запросов загрузка обоих Back-end серверов станет различной. Это не будет являться проблемой ровно до того момента, пока один из них не начнет отдавать в ответ ошибки.

Для пользователя такие ошибки будут выражаться в том, что запрашиваемые функции просто перестанут адекватно работать, например, пользователь не сможет «положить товар в корзину». С точки зрения бизнеса подобные ошибки равноценны упущенной прибыли, а следовательно, к вопросу балансировки следует подойти еще более ответственно.

Least connections
Теперь, зная потенциально уязвимое место алгоритма Round Robin, перейдем ко второму алгоритму Least connections. Суть его в том, что балансировщик смотрит сколько соединений установлено на каждом из подконтрольных ему серверов и определяет минимально загруженный. Именно на него начинают отправляться новые запросы.

Казалось бы, вот он — идеальный механизм балансировки. Серверы будут равномерно загружены вне зависимости от времени исполнения запросов. Но это справедливо ровно до того момента, пока перед нами не встает необходимость балансировки нагрузки между двумя и более Front-end серверами.

Когда пользователь установил соединение с одним из Front-end сервером, то все его последующие запросы нужно отправлять на тот же самый сервер. Если же будет отрабатывать только алгоритм Least connections, то мы создаем ситуацию, когда установивший сессию пользователь может быть направлен на другой Front-end. И это означает повторную необходимость в авторизации, чего быть не должно. Тут на помощь нам приходит такая полезная опция балансировщика, как Sticky sessions.

Sticky sessions
Название говорит само за себя. Указанный механизм заставляет балансировщик направлять запрос одного и того же пользователя на один и тот же Front-end сервер. Для этого балансировщику нужно опознать пользователя, используя один из трех доступных вариантов:
  • по ARP-cookie;
  • по HTTP-cookie;
  • используя Source IP.
Каждый из вариантов имеет право на существование, но нужно тщательно понимать какой именно выбрать.
  • ARP-cookie в большинстве случаев идеален для сложных веб-приложений, но выдачу этого фрагмента данных необходимо заранее реализовать в коде приложения.
  • HTTP-cookie — отличный вариант для авторизации пользователя. Балансировщик вначале задействует алгоритм Least connections для выбора сервера, а затем прикрепляет собственный HTTP-cookie, чтобы последующие запросы клиента отправлялись только на тот же самый сервер.
  • Source IP — тут тоже все вроде просто. Балансировщик смотрит на соответствующее поле пакета и все запросы с одного IP-адреса отправляет на один и тот же Front-end сервер. При этом балансировщик еще и учитывает параметр «вес» подконтрольных серверов, но об этом поговорим ниже.
Отметим, что вариант Source IP имеет очень серьезный «подводный камень», а именно пользователей, которые приходят из сетей мобильных операторов связи. В некоторых случаях сотни пользователей могут приходить с одного-единственного IP-адреса. И все они будут заботливо отправлены балансировщиком на один Front-end сервер, который вполне может и лечь под нагрузкой. Так что, выбирая этот вариант, нужно учитывать возможность возникновения подобной ситуации.

Тюнинг балансировки
«Вес» сервера

Мы рассказали, как выбрать идеальный для вас вариант балансировки для каждого из сервисов. Тем не менее, это не исключает возникновения ситуации, когда трафик будет распределен с перекосом в сторону одного или нескольких подконтрольных серверов. Поэтому помимо автоматической работы алгоритмов мы предусмотрели возможность ручного воздействия на поведение балансировщика.

Сама собой напрашивается аналогия с автоматической коробкой переключения передач в машине, где есть псевдо-ручной режим (TipTronic / AutoStick / Steptronic / Multitronic и другие). Автомобиль управляется автоматической коробкой переключения передач, но водитель может ограничивать ее работу диапазоном передач или напрямую указать желаемую передачу для движения. При этом автоматика постарается выполнить команду водителя, но не даст коробке работать в недопустимых для нее условиях.

Так и в случае нашего балансировщика, вы можете задать желаемый «вес» сервера в диапазоне от 1 до 256, что позволит повлиять на нервномерное распределение нагрузки в условиях работы автоматического алгоритма.

Эй, ты там живой?
Работа балансировщика нагрузки непрерывно связана с процессом проверки доступности серверов, на которые будет распределена нагрузка. В нашем случае есть следующие варианты:
  • HTTP/HTTPS;
  • PING;
  • TCP.
Проверки гибко настраиваются по нескольким параметрам, таким как:
  • интервалы проверки;
  • таймауты соединения;
  • для HTTP-запросов — URL и ожидаемые коды ответа;
  • пороговые значения успешных и неуспешных запросов подряд.

Прекрасные таймауты
В схеме работы Входящий запрос — Балансировщик — Сервер важно определить доступные временные рамки для выполнения запроса. Именно эти рамки и называются таймаутами. В нашем случае можно контролировать как таймаут между входящими запросами и балансировщиком нагрузки, так и таймаут между балансировщиком нагрузки и подконтрольными серверами.

Задав предельное значение таймаута, можно избежать возникновения большого количества «зависших» сессий. На место таких сессий смогут подключиться реальные пользователи, а ресурс количества соединений не будет расходоваться зря. Важно подобрать правильное значение, учитывая то, что клиенты используют разные интернет-каналы и не всегда они являются скоростными.

Сценарии использования
Мы детально рассмотрели в нашей Базе Знаний использование Балансировщика нагрузки для равномерного распределения запросов между разными серверами. Теперь расскажем о том, в каких сценариях можно его применять.
kb.selectel.ru/47683265.html

Масштабирование
Горизонтальное и вертикальное масштабирование без даунтайма — всегда актуально. Облачная платформа Selectel позволяет легко произвести оба вида масштабирования, но для того, чтобы не было перерывов в обслуживании как раз подойдет Балансировщик нагрузки.

При вертикальном масштабировании можно временно перенаправить клиентские запросы на другие виртуальные серверы и выполнить увеличение количества ресурсов на целевом сервере, а затем включить его в работу. После этого он сможет обслуживать большее количество клиентов.

Горизонтальное масштабирование также не вызывает никаких проблем. Создали необходимое количество виртуальных серверов и включили их в работу балансировщика нагрузки — вот и все. Теперь запросы клиентов стали обслуживаться большим количеством серверов, общая нагрузка на каждый сервер снизилась.

Отказоустойчивость
Мы уже не раз рассказывали о том, что такое High Availability и для чего используется. Процесс балансировки нагрузки как раз подразумевает отказоустойчивость в плане обслуживания запросов клиентов. Как только балансировщик «понимает», что подконтрольный ему сервер не может более отвечать на запросы (ну к примеру, он перегружен), то трафик переводится на другие серверы.

Помимо обычного режима работы, подконтрольному серверу можно назначить роль резервного. То есть, пока остальные серверы в рамках созданного правила работают, он находится в режиме ожидания. Как только они выходят из строя и перестают обрабатывать запросы — сервер выходит из ожидания и забирает нагрузку на себя.

Развертывание приложений
В работе DevOps большую популярность имеет техника развертывания приложений, под названием «канареечный релиз». Такое забавное название берет свое начало из работы шахтеров. Основную опасность при работе в шахте представляет метан, бесцветный газ без вкуса и запаха. Сам по себе он не токсичен, однако его опасность очевидна. Чтобы произошел взрыв, достаточно даже небольшой концентрации от 5% до 16%.

Поскольку почувствовать присутствие в воздухе метана человеку невозможно, шахтеры брали с собой клетки с канарейками. Пока птица жива и раздаются ее трели — можно безопасно работать. Если птица внезапно умолкла и скончалась — пора срочно выбираться на поверхность.

Процесс развертывания новых версий приложения чем-то схож с метаном. Баг может никак себя не проявлять, а затем внезапно вызвать очень серьезные проблемы, вплоть до остановки сервиса. Поэтому при развертывании один из серверов можно использовать в качестве «канарейки» и с помощью балансировщика нагрузки направить на него небольшую часть трафика. Чтобы трафик пользователей, попавший на «канареечный сервер», не уходил на другие серверы, используется уже описанный выше механизм Sticky sessions.

Если весь функционал приложения корректно заработал на «канареечном сервере», то можно продолжать его развертывание и на остальные серверы. Если же вдруг возникли проблемы — трафик переключается на работающие серверы со старой версией приложения с помощью того же самого балансировщика нагрузки.

Заключение
Распределение нагрузки на серверы — задача крайне важная, поскольку ее решение позволяет эффективно утилизировать ресурсы, а следовательно, экономить средства. Помимо этой задачи наш балансировщик нагрузки позволяет снижать потенциальные риски остановки сервиса при обновлениях приложений, а также обеспечивать отказоустойчивость виртуальной инфраструктуры.

Программу лояльности в каждый дом!

Для самых любимых клиентов мы ввели программу лояльности, благодаря который вы сможете получать приятные скидки на наши услуги.

Скидки предоставляются на услуги:
☀Веб-хостинг
☀Пакет «START UP»
☀Все домены

Процент скидки зависит от ваших расходов за весь период.
⭐ Расход 200₽+ — скидка 5%
⭐ Расход 500₽+ — скидка 10%
⭐ Расход 1000₽+ — скидка 20%

Скидки не сгорают и действуют на весь период заказа и продления.

Также напоминаем вам о нашей Реферальной системе. Приглашая своих друзей к нам, вы получаете 15% с их расходов.

Наш сайт
Наш чат в ВК / в Телеграме

155/155 reg.ru

Пришло время пополнять баланс.
Кому нужно продлить домены reg.ru через скидку — переносим.



например домены можно купить тут
bill.ovh/billmgr
panel.abcd.studio/billmgr
panel.skladchik.ovh

ps
Скоро еще будет 5ый год просера на nic.ru
Там 147/151

Но 4 рубля роли не играют как мне кажется ;)

Виртуальные серверы в Москве с AntiDDoS от 219р/месяц и 10р/день



Дорогие друзья!

Стартовали продажи сверх-быстрых виртуальных серверов в Москве!
Локация в Москве защищена от DDoS-атак — мы гарантируем лучшую защиту и минимальный пинг по СНГ:



На тарифах в МСК предоставлено максимально мощное железо за минимальную цену: быстрые NVMe накопители, сеть до 1 ГБит/с, мощные процессоры 3.6ГГц и Game AntiDDoS. А самое главное — цены на все это начинаются от 219р/месяц или 10р/день.
Также есть возможность установки дополнительных фильтров для игровых проектов: SAMP, Minecraft, Rust, MCPE, CS:GO / CS 1.6 и других.

Подробнее ознакомиться и сделать заказ: https://msk.host

Регистратор доменов третьего уровня с крутыми фишками и не только

Запускаем тест нашего нового сервиса — bomjre.ga

Это регистратор доменов третьего уровня с крутыми фишками:
✏ Бесплатные домены!
✏ DNS хостинг
✏ DynamicDNS с API
✏ Перенаправления (HTTP 301)

Пока сервис еще тестируется и для регистрации доступен небольшой выбор тестовых зон. В будущем будет огромное количество доменов под разные тематики и с различным юмором. (юмор это самое главное)

Панель управления: bomjre.ga/panel

Также наш чат ВК для обсуждения сервиса:
https://vk.me/join/AJQ1d4_TlhZXEbaBptCViqDS