Тест-драйв мощных VIP-тарифов от хостинг-провайдера №1



Тарифы «+Мощность» для крупных проектов
Мощные тарифы виртуального хостинга от компании REG.RU — производительные решения, сочетающие в себе удобство shared и высокую скорость VPS. Интернет-магазины, СМИ, сайты компаний — им под силу даже самые тяжёлые проекты!

Попробуйте бесплатный тест-драйв на 14 дней!
Любой розничный клиент REG.RU может протестировать один из мощных VIP-тарифов хостинга в течение 14 дней совершенно бесплатно. За это время вы сможете в полной мере оценить все возможности услуги и сделать правильный выбор.
При использовании хостинга в тестовом режиме вам будут доступны те же функции и мощности, что и при платном заказе.

Подарки при каждом заказе
В подарок к мощным VIP-тарифам вы получаете полезные бонусы:
  • до 4 новых доменов в зонах .RU и.РФ;
  • бесплатное подключение SSL-сертификата на 1 год.
Закажите один из них и убедитесь лично во всех преимуществах хостинга от REG.RU!
www.reg.ru/hosting/

Возобновление аренды серверов в Чехии!


Уважаемые клиенты мы снова рады предложить вам аренду серверов в Чехии! Стабильность дата-центра, оптимальные пинги и быстрота реакции поддержки на любые инциденты всегда была визитной карточкой, а цены которые мы предложим вам, порадуют вас ещё больше.

Стандартные конфигурации:
1xE5-2620v2 / 16Gb / 1x500Gb SSD / IPMI / 100Mbps — 81 евро в месяц
1xE3-1230v3 / 16Gb / 1x500Gb SSD / IPMI / 100Mbps — 86 евро в месяц
1xE3-1230v5 / 16Gb / 1x500Gb SSD / IPMI / 100Mbps — 91 евро в месяц
+100Mbit/s +59 евро в месяц.
Возможна замена дисков, добавление памяти.
Индивидуальные конфигурации доступны по предварительному заказу и по очень хорошим ценам.

С наилучшими пожеланиями Park-Web.ru!
park-web.ru

Free Backup for every new Dedicated Server order



Все знают, насколько важно Резервное копирование.

Итак, теперь мы комбинируя резервное копирование с каждым новым Dedicated заказа сервера в течение следующих нескольких дней!

Поместите заказ сервера между 3 — й и 7 декабря 2018 года и получить совершенно бесплатно резервного копирования пакета 10GB Acronis.

Перейти на сайт LEASEWEB, заказать выделенный сервер и выбрать агент Acronis Backup 10 ГБ свободного варианта. Ваш бесплатный архив будет добавлен в ваш счет, и он будет доступен до тех пор, пока вы по контракту. Например, если вы заказываете выделенный сервер в течение года, вы будете иметь Acronis Backup на весь срок действия контракта. Довольно милое дело, если вы спросите нас!

Заказ до 7 декабря 2018 года, и вы получите хранилище резервных копий Acronis в течение 5 рабочих дней.
www.leaseweb.com/acronis-promotion

Три истории модернизации в дата-центре

В этом году – 10 лет, как запущен наш первый ЦОД OST-1. За это время мы с коллегами из службы эксплуатации и капитального строительства успели провести не одну модернизацию инженерной инфраструктуры дата-центра. Сегодня расскажу про самые интересные случаи.



200-тонный кран устанавливает новый чиллер Stulz на раму. Модернизация системы холодоснабжения системы дата-центра OST-1 в 2015 году.

Дата-центр – живой организм, он растет, меняется, ломается:) Все, что можно отнести к модернизации, я условно делю на:
  • плановые замены и ремонты. Оборудование морально устаревает, истекает его срок эксплуатации. Такие работы мы бюджетируем, планируем и делаем без спешки, когда нам удобно (например, полный апргейд «внутренностей» ИБП или замену выработавших свой срок аккумуляторных батарей).
  • ошибки проектирования. По заветам Uptime, все должно расходоваться и заканчиваться одновременно. Из-за неправильного проектирования баланс «холод – электричество – место» может нарушиться, например: есть куда ставить стойки, но зал уже не тянет по электричеству или кондиционированию. Самое неприятное с этими ошибками то, что всплывают они не сразу, а когда ЦОД приближается к проектной мощности.
  • аварии. Бывает, что оборудование повреждается окончательно, бесповоротно и неожиданно, и его нужно менять.

На плановых заменах/ремонтах останавливаться не буду. Там практически все в нашей власти. Расскажу три истории об ошибках проектирования и послеаварийной модернизации.

История 1. Машинному залу не хватало холода
Это история про один из наших первых залов на Боровой. Он до сих пор работает. Зал с проектной мощностью 80 стоек по 5 кВт.

По мере заполнения зала перестало хватать холода: температура в холодных коридорах была выше, чем надо, постоянно возникали локальные перегревы. Это уже потом, с высоты своего опыта, мы поняли, что наделали ошибок в проектировании, и из-за этого страдало кондиционирование.




Какой-то «волшебной таблетки» от этих проблем мы тогда не видели, поэтому решили действовать поэтапно и по всем фронтам.

Сначала мы проверили, все ли оборудование установлено правильно и стоят ли заглушки в свободных юнитах. Мы также перепроверили раскладку перфорированных плиток и убрали лишние, установили дополнительные направляющие воздуха под фальшполом. Постарались найти и заделать все дырки, куда мог убежать холодный воздух. Советую вам тоже проверить, что у вас между кондиционером и стеной. Зазор в 5-7 см – это уже много.

Вот такой результат нам дало простое размещение заглушек в свободных юнитах.

Стало лучше, но недостаточно хорошо. Тогда мы решили изолировать холодные коридоры. Построили крышу, двери из поликарбоната. Получилось дешево и сердито. В результате мы избавились от паразитного смешения горячего и холодного воздуха и повысили КПД системы холодоснабжения.


Изолированный холодный коридор того же зала.

Мы понимали, что этого хватит ненадолго. С ростом ИТ-нагрузки нехватка мощности снова даст о себе знать.

Эту проблему попытались решить добавлением фреонового кондиционера, хотя зал работал на гликолевом охлаждении. Нас очень заботили габариты кондиционера (пройдет ли он в дверь, хватит ли угла поворота), поэтому подбирали модель с возможностью частичной разборки. Кондиционер установили не со стороны горячего коридора, как обычно это делают, а куда смогли втиснуть. Это добавило нам 80 киловатт по охлаждению.

Вот тот самый «гуттаперчевый» кондиционер Emerson.

Вся эта история оказалось непростой: нужно было придумать, как подвести фреоновые трассы до внешних блоков, как подвести к этим кондиционерам электричество, куда поставить внешние блоки кондиционера. Все это в работающем зале.

Просто для понимания, насколько там мало места.

После всех этих манипуляций мы избавились от локальных перегревов, температура распределялась равномерно в холодных и горячих коридорах. Получилось увеличить мощность зала и размещать в нем заявленные пятикиловаттные стойки.

Мораль этой истории в том, что не стоит бояться решать проблему мелкими шажками. Само по себе каждое из действий может показаться (и нам тогда казалось) неэффективным, но суммарно это дает результат.

История 2. В машинном зале закончились кондиционирование и энергоснабжение
Под клиента был спроектирован машинный зал на 100 стоек по 5 кВт. Проектная ширина стойки 800 мм, в каждом ряду 10 стоек. Потом клиент передумал заезжать, и зал сдавали на общих основаниях. В жизни стойки шириной 800 мм нужны в основном под сетевое оборудование, для всего остального нужны шестисотые. В итоге вместо 10 стоек в ряду у нас получилось 13, и еще оставалось место. А вот электричества и холода уже не хватало.

В ходе модернизации выделили новое помещение под два дополнительных ИБП по 300 кВт.

В зале появились дополнительные распределительные щиты.


Новую мощность нужно было распределить равномерно. Чтобы разделить новые и старые лучи, под фальшполом проложили отдельные кабельные лотки. Часть работающего ИТ-оборудования переключили на новые распределительные щиты поочередным переключением каждого луча питания.

Чтобы решить вопрос с нехваткой холода, поставили 1 дополнительный кондиционер на 100 кВт холода.


Во время такелажа, установки и пусконаладки всего оборудования зал продолжал работать в штатном режиме. Это было самым сложным моментом в проекте.

В результате модернизации мы добавили залу электричества и холода на еще 30 стоек по 5 кВт.

Проектная мощность и емкость зала увеличена на 30%.

История 3. Про замену чиллеров

Немного предыстории. Началось все в 2010 году, когда 3 чиллера дата-центра OST сильно пострадали во время урагана. Тогда, чтобы выжить, пришлось гонять чиллеры без защиты несколько суток, и компрессоры быстро загнулись. Сначала меняли их.

ИТ-нагрузка росла по мере заполнения ЦОД, а чиллеры Emicon так и не вышли на заявленную холодильную мощность. В 2012-м поставили дополнительный чиллер Hiref в ту же гидравлическую схему. Так мы прожили еще три года.

Со временем у чиллеров Emicon обострились эксплуатационные проблемы. Их мощности не хватало, поэтому в жару приходилось поливать водой из керхеров. С годами теплообменники обросли известковыми отложениями. В зазор между теплообменником фрикулинга и фреоновым конденсатором набивался тополиный пух и прочий мусор, который не удалишь из-за специфики строения теплообменников. Там образовался настоящий валенок, который не пропускал нормально воздух.

В 2015 году мы как раз закупали партию чиллеров Stulz для NORD-4. Решили под это дело заменить два из трех чиллеров Emicon. Теперь подробности.

Установка дополнительного чиллера Hiref без доустановки насосов. ИТ-нагрузка росла, а КПД чиллеров, пострадавших в урагане, падал. Летом резерва едва хватало. Мы решили добавить еще один чиллер, чтобы увеличить их суммарную мощность. На время работ система холодоснабжения должна была продолжать функционировать. Самое сложное в этой операции – организация гликолевого контура. Мы сделали гликолевую обвязку: от каждого чиллера было отведено гликолевое кольцо к новому чиллеру. Чиллеры поочередно выводили из эксплуатации, и подводили к новому чиллеру гликолевую трубу.


Фрагмент принципиальной схемы гидравлики. На ней видно, что от каждого из трех чиллеров были сделаны ответвления к новому чиллеру.

Основная задача этого чиллера – поддержка системы холодоснабжения летом. Благодаря Hiref у нас появился гарантированный резерв N+1 в жаркие месяцы. Но поврежденные в урагане чиллеры потихоньку начали издыхать, и нам пришлось задуматься об их замене.

Тот самый «летний» чиллер Hiref.

Замена Emicon на Stulz. Такие замены лучше делать осенью или весной: летом без резерва совсем страшно, а зимой просто неприятно проводить работы. Операцию запланировали на февраль/март, но готовиться начали еще в октябре.

За эти подготовительные месяцы мы проложили новые кабели, варили участки трубопровода, разработали план подъезда машины с оборудованием (на заднем дворе у нас тесно), очистили территорию для подъезда крана. Чиллеры предстояло менять в работающем дата-центре, и примерно на 1,5 суток он оставался без резервного чиллера. На этапе подготовки мы провели тесты, чтобы понимать, как дата-центр будет чувствовать себя без резерва, напридумывали различные ситуации, когда что-то могло пойти не так во время работ (например, длительный блэкаут во время замены чиллеров), и разработали план действий. Вот краткая хроника тех работ.
В ночь приехал чиллер. После успешного заезда крана на территорию дата-центра можно было начинать отключать старый чиллер.


Старый чиллер еще на месте, пока ведутся подготовительные работы. Варим раму для нового чиллера.

Потом к непосредственному месту работ должна была подъехать машина с чиллером. У нас там, мягко говоря, тесновато. Пришлось попотеть, чтобы вписаться во все эти сложные повороты в ограниченном пространстве.



Разобранный и распиленный пополам чиллер демонтировали.


Старый и новый чиллер отличаются размерами. Ушло еще какое-то время на подготовку металлической рамы. Дело осталось за подъемом и установкой чиллера.


На заднем плане фото видно, что параллельно довариваются участки гликолевого контура для нового чиллера.



После установки на раму монтируется вся гидравлика, чиллер подключают к электропитанию. В ночь делается опрессовка. На следующий день проходит пусконаладка и подключение к системе мониторинга.

На всю операцию ушло меньше двух суток: утром старый чиллер выключили, в конце следующего дня включили уже новый чиллер.

Через две недели меняли второй чиллер. Казалось бы, нужно было просто все сделать по отработанной схеме, но что-то пошло не так. Всю ночь шел снег. Сначала пришлось потратить время на расчистку территории, чтобы кран смог заехать. Начали демонтировать старый чиллер, как в двухстах метрах от нас ломается машина с новым чиллером. Точка невозврата уже пройдена, а у фуры сломался поворотный механизм колес прицепа (пульт управления от него).

Отремонтировать на месте не получилось, ездили за дополнительным пультом, который в субботу чудом оказался в офисе этой компании. С пультом удалось докрутить машину. В итоге на прохождение одного поворота у нас ушло больше 3 часов. Со всеми логистическими накладками работы растянулись до ночи. Хорошо, что мы продумали освещение для работ в темное время суток. Оставшиеся работы прошли в штатном режиме, и с понедельника в дата-центре заработал еще один новый чиллер.

В марте этого года мои коллеги провели замену уже третьего чиллера, последнего из переживших ураган. Теперь на Боровой работают три чиллера Stulz и один Hiref. Благодаря такой поэтапной модернизации у нас теперь есть большой запас по холоду, и мы не боимся самой жаркой погоды и тополиного пуха. Новые чиллеры поддерживают режим фрикулинга на большем температурном диапазоне, потребляют меньше энергии и работают очень тихо. Еще их очень удобно обслуживать из-за отдельных компрессорных отсеков: ремонтные работы можно проводить без полной остановки чиллера.

Online.casino стал самым дорогим доменом в новых зонах

Недавно была побита рекордная цена доменного имени в новых gTLD. Домен Online.casino был продан за 510 тысяч долларов.

Таким образом домен опередил предыдущих рекордсменов — home.loans ($500 000) и vacation.rentals ($500 300).

Имя покупателя пока не разглашается.

Интересно также отметить, что еще в марте 2017 года был продан аналогичный домен, в котором имена первого и второго уровня занимают противоположные места — casino.online. Он был продан намного дешевле — за $201 250. Но в то время он тоже считался одним из самых дорогих доменов в новых gTLD.

www.webnames.ru

Максимализм в цифрах, или VDS для игрового сервера



Дорогие друзья, в последнее время к нам стали обращаться клиенты, которым недостаточно тех ресурсов VDS, которые мы предоставляем. Речь идет о так называемых максималистах, или клиентах, которым нужны самые мощные CPU для своих задач. Хостингом мы занимаемся уже почти 10 лет, изначально мы специализировались на high load проектах, но те задачи, которые мы решали и решаем, построены на базе многоядерных и многопроцессорных систем Xeon, процессоров промышленного типа, которые полностью удовлетворяют подавляющее число наших клиентов. Однако Xeon в своих тактовых частотах, обычно отстают от линейки десктопных аналогичных процессоров на 1-2 поколения (людям нужен сервер промышленного качества, но на десктопной архитектуре!!!) Наш парк серверов был построен исходя из массовых задач и спроса: максимальная долговечность, стабильность и низкое энергопотребление и тепловыделение. И уж точно, с линейкой HARD+, в которых мы установили процессоры Xeon X5690, мы были уверены что удовлетворим даже этот спрос, но на деле, оказалось, что около 1% клиентов нужно больше. Но за индивидуальные дорогостоящие решения, всегда нужно платить больше, это не коммерческая хитрость, это факт. И когда людям начинаешь объяснять, что подобные решения не пользуются спросом из-за высокой цены, в ответ мы натыкаемся на негатив.

Нашей задачей всегда было удовлетворение спроса, как на массовые, так и на индивидуальные решения. Поэтому решено было написать подробную статью, все посчитать вместе, сделать определенные выводы и решить совместно, нужно это, или нет.

Итак приступим. Мы рассматривали 2 десктопных процессора с наиболее высокими частотами: это i7 4790K и i7 7700K, 4-е и 7-е поколение процессоров Intel I7 соответственно. Стоимость у них примерно одинаковая, производительность тоже, но 7700K чуть по-новее, и может поддерживать 64 гб оперативной памяти против 32 гб 4790K, поэтому решено остановится и рассматривать сервер на базе 7700K. Данный процессор построен на базе 4 физических ядер или 8 потоках в режиме hyperthreading (логическое деление 1 ядра на 2 потока).

CPU — самый дорогой ресурс VDS, и подобные решения на VDS, с такими CPU, хотя и предоставляют, их можно найти, но Вы обязательно упретесь в сильный оверселлинг, в лучшем случае, VDS с такими CPU продают на потоках, а не ядрах. И если вы купили VDS на 1-м из 8 потоков (напоминаю, что в i7 7700K 4 ядра или 8 потоков), значит, вы должны осознавать, что то же физическое ядро может быть занято другим клиентом. И это логично. А значит, вы получите не 100% 1-го физического ядра, а всего 50% (если вы и ваш сосед по ядру будете занимать вдвоем одно ядро на 100%).

Физический сервер, построенный на таких CPU будет стоить минимум 120 тысяч рублей (ниже посчитаем все вместе), а держать сможет максимум 4 клиента, если каждому клиенту выдавать 1 физическое ядро (а не поток), или 8 клиентов, если выдавать 1 поток.

Допустим мы решили выдавать физическое ядро, индивидуально, без хитростей, выключим hyperthreading и честно поделим такой сервер на 4-х клиентов, во сколько это обойдется, давайте посчитаем.

Сначала стоимость этого сервера, например, мы покупаем его за собственные деньги, не в лизинг или кредит, и рассчитываем окупить его за 2 года.

Существует всего 1 платформа Supermicro, которая поддерживает архитектуру десктопного CPU Intel i7 7700K: Supermicro SYS-1019S-M2

через яндекс.маркет я нашел ее за 57907 руб. Что туда входит? Корпус 1U для стойки, материнская плата, блок питания на 400 ватт и прочая мелкая перефирия.

Далее смотрим комплектующее на немецком сайте computeruniverse.net, цены на котором значительно ниже, чем в российских магазинах:

Итого сервер нам обойдется: платформа + процессор + память + ssd + переходник + доставка
57907 + 25270 + 16154 + 11324 + 1396 + 2272 = 114323 руб.

Напоминаю, что эта цена без % лизинга или кредита, и мы собираемся ее вернуть в течение 2-х лет

Полученный сервер сможет держать 4 VDS следующих конфигурации — 1 x CPU, 8 gb RAM, 128 gb SSD

А значит, делим сумму 114323 руб на 24 месяца и получаем 1/24 его стоимости:
114323 / 24 = 4763.45 руб минимально должен приносить этот сервер в течение 24 месяцев, чтобы просто окупиться «в ноль».

Например мы нашли 4-х клиентов под этот сервер, но у нас же еще есть размещение (охлаждение, электричество), трафик, защита, обслуживание, давайте посчитаем эти расходы:

Размещение в дата-центре многобайт, без трафика и защиты, обойдется нам в 2700 руб:
mnogobyte.ru/colocation.html

Допустим трафик и защиту мы будем предоставлять сами за 1000 руб в месяц + 1000 руб в месяц. облуживание, получаем расходов: размещение + трафик + обслуживание
2700 + 1000 + 1000 = 4700 руб.

Значит наш сервер, чтобы окупить себя «в ноль» за 24 месяца, должен приносить минимум: 1/24 стоимости + расходы за 1 месяц:
4764.45 + 4700 = 9463.45 руб в месяц

делим эту сумму на наших 4-х клиентов, и получаем среднюю стоимость 1 такой VDS:
9463.45 / 4 = 2365.86 руб.

Инфляцию, амортизацию и прочие расходы мы сюда не заносим. Это фактически себестоимость такого решения при условии, что 4 клиента всегда есть на этом сервере, и исправно оплачивают свои VDS. Но по факту, такого может и не быть. Сегодня людям нужен такой сервер, а завтра они решат, что лучше урезать расходы и взять что-то более бюджетное, и на выходе мы уже получаем, что окупаемость такого сервера растягивается уже на 3 года вместо двух. Поэтому разумно будет добавить 30% к итоговой стоимости, и это будет минимальной ценой, которую мы сможем дать: 2365.86 + 30% = 3075 руб.

Мы готовы выслушать ваши мысли и предложения, и вместе решить, нужен ли нам такой тариф, или нет. Будем рады любой конструктивной критике и предложениям!

https://memvds.com

Хостинг Кухня впервые поменяла сервер

С момента создания в конце 2014 года не менялось.

hosting.kitchen/page/sitemap/

Было

Стало


Да, верно, давно уже делаю отдельные серверы под каждый блог ;)
Как обычно просто для истории.

Все серверы у меня еще и по локациям разбиты, чтобы если авария будет в ДЦ где, то какой-ниб из блогов да работал. И чисто как-то случайно так судьбой вышло, что этот блог в канадской локации тусуется.

Кстати больше чем у Хостобзора :) (старое)

CA/B Forum запретил использовать символы подчеркивания в записях dNSName



CA/B Forum, орган регулирования SSL-индустрии, запретил использовать символы подчеркивания («_») в любых записях dNSName. Соответствующее предложение (Ballot SC12) было принято и поддержано большинством голосов.

Похожее заявление уже рассматривалось в 2017 году, однако тогда было отклонено, невзирая на то, что практика использования символа подчеркивания в SAN-полях типа dNSName противоречит требованиям RFC 5280.

Текущее предложение включает в себя формирование короткого переходного периода, в течение которого можно будет либо сменить доменное имя (FQDN), либо развернуть wildcard-сертификат.

Сроки внедрения предложения
Согласно новым правилам, до 1 апреля 2019 выпуск сертификатов, содержащих символы подчеркивания («_») в метках доменов в записях dNSName, разрешен лишь при выполнении следующих требований:
  • Символы подчеркивания не должны находиться на первой позиции слева в доменной метке;
  • Сертификат выпускается только на срок, не превышающий 30 дней;
  • Символы подчеркивания могут использоваться, но их лучше сменить на дефисы, чтобы получить доверенную доменную метку.
  • Все сертификаты, содержащие символ подчеркивания в любой dNSName-записи и имеющие срок действия, превышающий 30 дней, должны быть аннулированы до 15 января 2019 года.

Начиная с 30 апреля 2019 года, символы подчеркивания («_») не должны присутствовать в записях dNSName.

Подпишитесь на наши обновления, чтобы всегда быть в курсе последних событий в области SSL и онлайн-безопасности.

www.leaderssl.ru

Компания Comodo CA провела ребрендинг: теперь она называется Sectigo



Comodo CA, популярный удостоверяющий центр, а также крупный поставщик решений в области онлайн-безопасности, анонсировал свой ребрендинг – компания решила сменить свое название в пользу Sectigo. Примерно год назад компания была выкуплена Francisco Partners.

Главная цель ребрендинга, по словам генерального директора Sectigo Билла Хольца (Bill Holtz), заключалась в том, чтобы ликвидировать существующую рыночную путаницу и выйти на более широкий рынок решений для онлайн-безопасности. Путаница образовалась в связи с отделением Comodo CA от Comodo Group — обе компании работают на тех же самых рынках, но при этом в юридическом плане являются разными организациями.

Что изменилось в связи с ребрендингом?
Новые логотипы и новая цветовая гамма – то, что изменилось в связи с ребрендингом Comodo CA. Печать доверия сайта теперь носит название Sectigo. Также поменялись и наименования некоторых продуктов. Устоявшиеся названия, такие как PositiveSSL и InstantSSL, теперь подписываются как «powered by Sectigo».

Конечным пользователям не придется ни о чем волноваться. Все корни Comodo CA останутся прежними. Если до этого вы использовали печать доверия Comodo, то теперь ее можно будет сменить на печать доверия Sectigo.

Вы всегда можете приобрести SSL/TLS-сертификаты Sectigo (бывшие Comodo) в магазине LeaderSSL по самым выгодным ценам.

hostsuki.pm чистка Ноябрь 2018

Давно чисток не наводил.
Только распродавал остатки. Так как в 2018 как вы знаете, запала делать услуги которые только увеличивают убыток — не было. За 2016-2017 опыт уже был получен, все что нужно знать о панели, услуге и аудитории до 1000р.

Но тут в черную пятницу, решил спасти сетки IP
И сделал новые ноды.

VDS свободные доли
Чтобы заказать долю писать тикет тут => panel.skladchik.ovh/billmgr
RSS/email свободных долей в блоге и так же доступно всегда по ссылке list.skladchik.ovh (google docs)


Свободно.
OVH RBX3 Франция (rbx3.1245.ovh)
1 доля = Xeon E3-1245v2 (3.4GHz) 2 vCore / 4 ГБ ddr4 / 200 ГБ SATA — 350р
  • 14 доля свободно по 275р новая новая
  • 1 доля — 1 IP; доли можно соединять в одну; доп-IP купить нельзя
*собраны серверы по 8 долей вместо привычных 16, сразу минимум 4 озу, по 350р

OVH RBX3 Франция (rbx3.1245.ovh)
1 доля = Xeon E3-1245v2 (3.4GHz) 1 vCore / 2 ГБ ddr3 / 25 ГБ SSD — 200р
  • 50 долей свободно по 275р новая новая
  • 1 доля — 1 IP; доли можно соединять в одну; доп-IP купить нельзя
*цена получается за счет черной пятницы не 300р доля, а 200р доля
**а так же, теперь 480 SSD дается, а значит 6 SSD(120диск) и 13 SSD(240диск) 25 SSD(480диск) дается на 1 долю. 2 доли уже 50 ssd, 4 доли за 800р 100 SSD — идеально ;) В наличии много. Если DigitalOcean стал дорогой из-за VAT, и вы нубас не умеете делать так чтобы не платить, то честные доли — как раз заменят дешевые впс-ки. Работать будут до 2023 года пока не сгорят. Ну и в 2023 VMmanager просрочится. И уже в том году потом «с нуля что-ниб новое замутим».

OVH GRA1 Франция (gra1.i7-6700k.ovh)
1 доля = i7-6700K (4.2GHz) 1 vCore / 4 ddr4 / 28 SSD — 425р/мес
  • 11 доли свободно
  • 1 доля — 1 IP; доли можно соединять в одну; доп-IP купить нельзя
*GRA1-GRA2 — можно собирать новые узлы, до 2025 года пока не сгорят. По 400р доля на 4 озу новые серверы получаются, если оптом кто-то хочет забрать — могу сделать новые. Или при оплате за пол года. (так же могу делать 1 нода с 16 IP в 1 руки, ниже ссылка на 50% скидку для хостеров на VMmanager)

OVH SBG2 Франция (sbg2.i7-6700k.ovh)
1 доля = i7-6700K (4.2GHz) 1 vCore / 4 ddr4 / 26 SSD — 425р/мес
  • 8 доли свободно
  • 1 доля — 1 IP; доли можно соединять в одну; доп-IP купить нельзя
*SBG после аварии ноября 2017 — больше не купить

Hetzner Cloud без VAT можно заказать тут, просто купить тариф равный балансу и на почту придет облачная панель.

ps

Историю можно увидеть по метке

Честность долей