Сервер под выкуп - что это?



Что такое сервер под выкуп?
Аренда сервера с правом выкупа — это молодая и достаточно редкая услуга, которая решает сложный для многих компаний вопрос: покупать или арендовать сервер? Этот вопрос становится особенно актуальным при запуске новых проектов, расширении серверного парка или модернизации ИТ-инфраструктуры организации.
Как это работает?
Выкуп сервера происходит через 12 месяцев аренды оборудования. Все это время сервер размещается в дата-центре RackStore. Стоимость выкупа составит 1 российский рубль. После чего, Вы на юридическом уровне становитесь полноправным собственником сервера. Вы можете продолжить размещать его в дата-центре или забрать его и распоряжаться оборудованием по своему желанию.
Аренда сервера с выкупом соединяет в себе преимущества двух классических решений: покупки и аренды сервера.


rackstore.ru/arenda-servera.html

В чем преимущества?
  1. Экономия. Нет необходимости в срочных затратах на покупку сервера. Вы оплачиваете ежемесячную аренду на протяжении 1 года, затем выкупаете сервер за 1 рубль. Сервер становится Вашим.
  2. Возможность отказаться. При отсутствии потребности в сервере до его передачи в собственность, Вы всегда можете отказаться от услуги без каких-либо обязательств. Это снимает целый ряд вопросов, чем в ситуации с собственным сервером, который был куплен, но больше не нужен.
  3. Размещение в дата-центре. Услуга colocation уже входит в стоимость аренды сервера. Вы получаете бесперебойную работу оборудования, размещенного в надежном дата-центре.
  4. Транспортировка. Решение идеально подходит для компаний из других городов и стран. Вы не тратите средства на покупку, доставку и установку сервера в ЦОД.
  5. Гарантии. В течение периода аренды сервера, на все комплектующие распространяется гарантия. При возникновении каких-либо форс-мажорных ситуаций с техническим состоянием сервера, все работы по ремонту и замене деталей будут осуществляться силами технической поддержки в самые минимальные сроки.
Будем рады помочь определиться с конфигурацией сервера. Вы можете прислать свои технические требования, а мы подберем подходящие варианты, которые будут отвечать задачам и потребностям бизнеса.

New: Leaseweb Service Status


www.leaseweb.com/dedicated-servers



www.leasewebstatus.com


www.saastock.com/blog/the-5-questions-to-ask-about-infrastructure-before-scaling-up/


В этом месяце мы вернулись на Международную конференцию по радиовещанию: самое влиятельное в мире медиа, шоу развлечений и технологий. Наши коллеги из Leaseweb CDN объяснили, как вещатели могут получать свой контент повсюду, быстрее, с помощью нашего мульти-CDN.

Мы были в восторге от проведения пятой серии переговоров FinTech о будущем работы TWINO в Риге, Эстония. Во время переговоров FinTech Ивана Грбавац, менеджер по маркетингу в Google, рассказала о культуре и рабочей среде в технологическом гиганте и поделилась некоторыми сведениями о процессе рекрутинга. Позже члены дискуссионной панели занимались такими темами, как удаленная работа, важность степени и что могут сделать компании, чтобы привлечь молодое поколение. Если вы не смогли принять участие, у нас есть живой поток.
www.facebook.com/TWINOeu/videos/2061052400876300/

27 сентября в Hesselberghalle



unternehmernetzwerk-hesselberg.de/regionale-ausbildungsplaetze/

Свяжитесь с учебным курсом 27 сентября в Hesselberghalle в Wassertrüdinge: Около 50 экспонентов представят студентов из региона в Hesselberghalle. Этот обмен ученичествами и стажировками очень важен, поскольку многие студенты не знают региональных компаний и их учебные предложения. Компании в регионе предлагают разнообразный выбор ученичества, в основном также с возможностью проведения дополнительного профессионального обучения.

Замена выпавшего диска в Ceph:Jewel

Для начала надо удалить диск с кластера.

На ноде управления исполняем:

ceph osd out ID

Где ID это номер osd мертвого диска.

На самой ноде с osd исполняем:

systemctl stop ceph-osd@ID

И на головной ноде полностью выводим osd из кластера:

ceph osd crush remove osd.ID
ceph auth del osd.ID
ceph osd rm ID


Теперь выключаем сервер, изымаем диск и вводим новый.

Смотрим привязки дисков и определяем где лежат журналы. На ноде с osd исполняем:

ceph-disk list | grep journal

Так мы увидим какой журнал подключен к какому диску.

Удаляем партицию с журналом с диска с журналами.

parted /dev/диск_с_журналом rm номер_партиции

Заводим диск в кластер.

Замечание: после создания новой ceph-osd номер партиции журнала будет не прежним а больше на 1 самого большого номера на диске с журналом. То есть, если на диске с журналами было 10 партиций, мы удаляем например 1-ю, то новая партиция будет на месте 1-й партиции но с номером 11 (появится дырка в нумерации разделов).

Замечание: также обнаружится, что вывод команд ceph osd tree и ceph osd df tree теряет сортировку. На самом деле там сортировка происходит по порядку создания osd-шек и вывод группируется по серверам.

Чтобы номер osd совпадал с тем, который у него был, нумерация должна быть сквозной и непрерывной, если у нас есть дырки в нумерации, то на момент ввода диска в кластер надо их закрыть. То есть сделать липовые osd:

ceph osd create $ID

Потом надо будет их удалить!

ceph osd rm $ID

Далее, на новом диске должна быть partition table типа gpt.

parted /dev/диск_с_данными mklabel gpt

Теперь можно создавать новый ceph-osd и заводить его в кластер.

Замечание: после создания osd-шка сразу начнёт заходить в кластер и начнётся синк. Поэтому желательно после ввода osd поставить ей reweight 0 и постепенно повышать. Так нагрузка на кластер будет минимальной:

ceph osd reweight $ID 0

С головной ноды запускаем (он сам создаст партицию на диске с журналом):

ceph-deploy osd prepare нода:/dev/диск_с_данными:/dev/диск_с_журналом

Все! Мы молодцы, мертвый диск заменен!

Connectivity issues in part of our network in SIN

We experienced connectivity issues in part of our network in our SIN-10 and SIN-11 data centers between 09:25 and 11:35 CEST due to another provider connected to Equinix SG1 that started announcing all the routes on the Internet. Part of the traffic to our network in SIN was passing through their network and you might have experienced increased latency and packet loss during that time. We stopped advertising our prefixes to that IX and traffic resumed as normal.

Читать дальше →