Ежегодное увеличение наших сборов услуг



В LEASEWEB, мы всегда ищем новые способы, чтобы помочь вашему бизнесу добиться успеха. В прошлом году не стал исключением. Для того, чтобы предоставить вам еще лучше связь с миром, мы обновили наши центры обработки данных с повышенной пропускной способностью, большей емкостью и большей избыточностью. Мы выпустили ряд новых продуктов и услуг, в том числе, более APIs для CloudStack и VPSs, новый noVNC консоли для CloudStack, быстрой доставки босых серверов металла, способность мгновенно обновления серверов VPS от Портала клиентов, и многого другого. И, конечно же, все это опирается на наше стремление к надежности, которые мы вложили в счет расширения нашей поддержки клиентов Team.

Для того, чтобы продолжать предоставлять вам с тем же качеством продукции и услуг, один раз в год мы переориентировать наши сервисные сборы, чтобы отразить изменения рынка. Мы считаем этот рост до 3% в соответствии с нашими общими условиями. Вы можете найти их здесь
www.leaseweb.com/sites/default/files/Legal/SG_ENG_B2B_General_Conditions.pdf

Пересмотренные ставки применяются только с 1 января 2018 года соглашения начались до 1 января 2017 года пересмотренная цена будет включена в первых в 2018 году счетов и может быть просмотрены на портале клиентов.

Благодарим Вас за выбор нас в качестве поставщика облачного хостинга, и надеюсь продолжить поиск новых путей, чтобы помочь вам достичь ваших целей бизнеса в ближайшие годах. Если у вас есть какие — либо вопросы, вы можете связаться с нашим обслуживания клиентов отдела в любое время.

С наилучшими пожеланиями,
Bas Винкель
Управляющий директор, LEASEWEB Asia Pacific Pte. Ltd.

Staying ahead of IPv4 exhaustion

Темпы устаревания IPv4 оказалось трудным, так как спрос постоянно возрастает при больших объемах выплат наших клиентов. На сегодняшний день мы приобрели 7680 IPv4-адресов в разных подсетях с открытым рынком, плюс финал / 22 от RIPE.
Поскольку Заре всего 3 года, мы присоединились к RIPE, когда они назначали новым членам последнее / 22, и после этого вам пришлось покупать IPv4 на открытом рынке или создать новую учетную запись RIPE. Мы решили сделать первое для простоты.

В каких секторах наибольший спрос на IPv4?
Мы наблюдаем огромный спрос на IPv4 на рынках VPN, VPS и proxy. Мы полагаем, что это было обусловлено усилением государственного мониторинга, геообъектами по содержанию и потребностью в интернет-анонимности.

Переход на IPv6
Zare полностью поддерживает IPv6 по всей нашей сети, однако мы обычно наблюдаем низкий уровень потребления и постоянно растущий спрос и зависимость от IPv4. В настоящее время 5% клиентов запрашивают бесплатный диапазон IPv6.

Current IPv4 open market pricing
  • /24 (256 IPs) 11 GBP 2816 GBP
  • /23 (512 IPs) 9.50 GBP 4864 GBP
  • /22 (1024 IPs) 8 GBP 8192 GBP

Out with the old, in with the new

В течение следующих 4 недель все лондонские клиенты будут переведены на коммутаторы Juniper EX4200, которые заменяют Netgear ProSafe (я расскажу о том, почему мы использовали их позже), и есть несколько причин, почему мы это делаем:
  • Двойной блок питания, чтобы мы могли использовать источники питания A + B для центров обработки данных
  • Нижняя латентность отправки
  • Множественные системы пересылки пакетов
  • 10G волоконно-оптические порты
  • Больший общий / выделенный буферный пул
  • Интерфейс SSH для автоматизации на нашей платформе
  • Коммутаторы Netgear не могли справиться с высокой пропускной способностью, которую требовали клиенты из Лондона

Почему мы использовали Netgear
  • Экономичность — с самого начала мы были небольшой компанией с небольшим бюджетом, поэтому коммутаторы Netgear были единственным оборудованием в нашем ценовом диапазоне — они также были известны как простые в использовании и надежной.
  • Надежность. В настоящее время у нас есть около 50 коммутаторов Netgear, используемых в наших двух местах, и на сегодняшний день у нас не было ни одного отказа. Единственные проблемы, с которыми мы столкнулись, — это возможности программного обеспечения. Это одна из причин, по которым мы продолжали использовать их так долго.
  • Потребляемая мощность. По сравнению с Juniper EX4200, использование Netgear под половиной мощности, поэтому они были более жизнеспособными для начала.

Juniper EX-4200 готова к установке в нашем лондонском месте

400 серверов меняли детали

travaux.ovh.net/?do=details&id=28242
There are still ~2000 ips that are still down on multiple hosts. Tech in DC working on it.
travaux.ovh.net/?do=details&id=28247
— pci / vps
64 hosts with
1000 VPS/PCI
no issue on ceph
A technician manages about 25 heavy interventions per day. With 400 issues to solve, the calculation is simple: we need between 15 to 25 technicians to complete the incident. That's why the teams take turns since yesterday noon thanks to the staff who arrived from the others DCs. OneTeam
У нас осталось чуть меньше 400 серверов. У нас есть все типы аппаратных проблем с этими серверами, и мы заменяем их к концу дня.

12-11-2017
  • PCI/VPS: there is 10 hosts that has to be reparted. the host is very complex and we need 1H per host.
  • Servers (SYS/OVH) We have 200 serveurs that the hardware issues that we are working on.

Еще суммарно про DC Roubaix

travaux.ovh.net/?do=details&id=28244
Краткое описание инцидента:
8h00: все ссылки 100G на DC Roubaix не работают.
8h15: невозможно подключиться к узлу
8h40: Мы перезапускаем главный кадр электрически.
9:00 утра: узел все еще недоступен.
9:15 утра: мы отказываемся от узла управления.
9:30 утра: Мы восстанавливаем контроль над Рубе.
9h40: Мы можем видеть все кадры, но на кадре нет тревоги, и конфигурация схемы исчезла.
10h00: Мы добавляем последнюю резервную копию базы данных на узле
10h15: схемы снова начинают подниматься
10h30: Большинство схем подняты, 8 все еще
11:00: Некоторые транспондеры не могут быть обнаружены системой, а усилитель неисправен, запускается RMA усилителя.
11h30: Мы сбросили все приемоответчики, не распознанные, все схемы подняты
14h15: Замена усилителя завершена
14h30: все схемы вставлены, функциональные защиты и последние тревоги были деградированы.

Объяснение:
Согласно журналам, собранным из всех кадров узла Roubaix (20), кажется, что у нас было три отдельных события, каскадирующих на узле Roubaix:

1. Перегрузка процессора узла (главный кадр)
Каждый оптический узел имеет главный кадр, который позволяет обмениваться информацией между узлами и обмениваться со своими подчиненными кадрами. На этом главном кадре база данных сохраняется на двух картах контроллера, а также на ЖК-дисплее.

С 7:50 а. м., мы заметили, что Roubaix начинает испытывать проблемы связи с узлами, напрямую связанными с ним, и показывает перегрузку ЦП на главном кадре. На сегодняшний день мы не уверены, что вызвало перегрузку процессора. Несмотря на то, что SBG раньше, мы смотрим на все возможные причины. Команды производителя все еще следят за этой причиной. Мы запланировали звонок в субботу, 11 ноября, чтобы узнать больше о первопричине.

2. Переключение каскадов
После перегрузки процессора узел, главный кадр сделал переключение плат контроллера. После первого переключения контроллеров и перегрузки процессора мы столкнулись с известной ошибкой программного обеспечения Cisco. Эта ошибка происходит на больших узлах и приводит к переключению контроллеров, которое происходит каждые 30 секунд. Обычно это переключение стабилизируется. Эта ошибка будет полностью исправлена ​​выпуском 10.8, который будет доступен 31 ноября.

3. Потеря базы данных
В 8 часов утра, после события переключения каскада, мы столкнулись с другой ошибкой программного обеспечения, которая де-синхронизирует синхронизацию между двумя картами контроллера основного кадра. Эта ошибка вызвала команду, отправленную на карту заказа контроллера, чтобы установить базу данных на 0. Контроллеры главных кадров отправили эту новую информацию в рамы Slaves и потеряли все ссылки 100G из Roubaix. Эта ошибка исправлена ​​в версии 10.7 и теперь доступна.

План Действий:
Вот план действий, который будет реализован с рекомендацией производителя:
  • Две недели назад мы запустили замену контроллеров Roubaix и Gravelines с помощью TNCS (вместо TNCE), в результате чего вдвое увеличилась мощность процессора и удвоила оперативную память. Мы получили первые 2 вчера для Roubaix, и мы сделаем своп как можно скорее после проверки процесса с производителем. Мы собираемся подтолкнуть замену контроллеров на узлах Страсбурга и Франкфурта.
  • Мы сейчас нажимаем обновление программного обеспечения на всех узлах, чтобы перейти на 10.8
  • Теперь мы используем версию 10.5.2.6, мы должны пройти промежуточную версию 10.5.2.7, чтобы иметь возможность перейти в 10.7 или 10.8 после этого.
  • Мы разделим большие узлы (POP / DC) на наличие как минимум 2 контроллеров узлов на POP / DC

Резюме:
  • Шаг 1: Замена TNCE на RBX / GRA (ETA: понедельник, 13 ноября, вечер для RBX, вторник, 14 ноября, вечер для GRA)
  • Шаг 2: Обновление программного обеспечения в 10.8 (возможно ETA: 4 недели)
  • Шаг 3: Разделение больших узлов (ETA: TBA. Необходимо определить правильную стратегию и установить точный протокол, а затем работать над дорожной картой)


Стратегия потенциального разделения:
Можно полностью разделить сеть на 2 полностью независимых сети на уровне управления (всегда с возможностью повторного разбиения узлов внутри каждой сети). Благодаря «умному» красно-синему распределению оптических линий между двумя сетями каждый постоянный ток может достигать каждого POP в двух различных сетях.

Admin-Linux.net - удалённое администрирование серверов

Уважаемые клиенты, рады представить вашему вниманию наш новый сервис Admin-Linux.net, который специализируется на администрировании Linux серверов и сопутствующих услугах.
admin-linux.net

Почему мы создали данный сервис? Ответ достаточно прост. Многие клиенты имели возможность оценить высокий уровень нашей технической поддержки и привыкли к нему. По тем или иным причинам даже наши клиенты не всегда пользуются исключительно услугами Friendhosting и достаточно часто обращаются с просьбами выполнить те или иные работы на серверах других компаний, ведь далеко не все хостинг-провайдеры поставляют услуги с грамотной и оперативной технической поддержкой. Поэтому мы решили предоставить возможность всем желающим получить профессиональную, а, главное, своевременную техническую поддержку от нашей компании, даже если они используют услуги другого хостинг-провайдера.

На данный момент мы предоставляем такие услуги в рамках проекта Admin-Linux.net:
  1. 1. Разовые работы. В рамках разовых работ мы готовы выполнить широкий перечень услуг:
    • Установка ОС
    • Установка и настройка LAMP / LEMP
    • Обновление серверного ПО
    • Установка панелей управления
    • Настройка VPN / Proxy
    • Перенос сайтов
    • Другие работы по установке и настройке ПО
    • Очистка сайтов от вирусов
  2. Абонентское обслуживание серверов
  3. Продажа лицензий продуктов ISPsystems
  4. Продажа SSL сертификатов
  5. Регистрация доменных имён

Теперь, с сервисом Admin-Linux, всем желающим круглосуточно доступна техническая поддержка уровня Friendhosting.
С уважением, Friendhosting.net

Сервер от 2 490 рублей



Выбирайте сервер, а всем остальным займемся мы: произведем монтаж сервера в стойку, установим ОС, подключим Интернет, выделим IP. Количество серверов, участвующих в акции, ограничено.

Просмотреть лучшие предложения
Уже включено в услугу:
  • Интернет 100 Мбит/с. с безлимитным трафиком и ip-адресом
  • Установка ОС по Вашему выбору
  • Удаленное управление сервером IPMI в течении 5 дней
  • Бесперебойное питание

rackstore.ru/server-sale.html

восстановление 4 нод

Рассылка пострадавшим такого содержания была
Все VPS-ки восстановлены
Компенсация будет позже, все обязательно ее получат.
ОВХ пока что еще не сообщила что она компенсирует. Но я точно 1 месяц бесплатно сделаю в любом случае кто пострадал на моих VPS нодах. Позже.

Хронология аварии
hostsuki.pro/news/sbg-ovh-ves-prileg.html — первый топик
hosting.kitchen/ovh/avariya-s-elektrichestvom-v-sbg.html — потом я писал сюда
hosting.kitchen/ovh/dve-pervye-informacii.html — третий топик
hosting.kitchen/ovh/incident-roubaix.html — четвертый
hosting.kitchen/ovh/teper-vot-dlinnyy-otvet.html — на следующий день уже их ответ
Короче будет активация нового ДЦ SBG3 и закрытие SBG1 и SBG4 которые контейнерный эксперимент был
hostsuki.pro/news/sbg1-sbg4---budut-migrirovany-v-sbg3.html
Так что у кого серверы в SBG1 SBG4 — вероятно в будущем будет еще простой и перенос.

А теперь топик как мы с vova1234 восстанавливали наши 4 ноды что пострадали
vm.center/2017/11/public-nodes-vm-center/otchet-o-4-nodah-centos-7-vmmanager-ovh-sbg2-09-11-2017.html
Кто хочет сказать ему спасибо сюда