Linode Торонто доступны для развертываний



Мы рады поделиться об открытии нашего последнего центра обработки данных в Торонто, Канада. Linode Торонто наш десятый глобальный центр обработки данных и позволит нашим канадским клиентам развертывать рабочие нагрузки облака на канадской земле.

Linode Торонто был построен с использованием нашего последний сервера сборки и связанно с нашей глобальной цепью. Он также отвечает требованиям соответствия данных в стране канадской защите личной информации и Закон («PIPEDA») и Анти-Спам Законодательство («CASL») электронных документов.

Если вы хотите, чтобы переместить Linodes в Торонто, вы можете просто клонировать их на новый объект. Метод клонирования рекомендуется, так как вы будете в состоянии поставить свои услуги на новый IP-адрес перед изменением DNS записи. Для того, чтобы развернуть новый Linode в Торонто просто выберите Торонто в качестве центра обработки данных в процессе развертывания.

В случае, если вы пропустили это мы недавно объявили о планах Dedicated процессора для процессора рабочих нагрузок. Следите за более объявлений продукции на наших центрах обработки данных Индии и Сидней, объект хранения, Linode Kubernetes, One-Click Программы и многое другое.



Клиенты с Linodes в других дата-центрах, желающие переехать в Торонто, могут клонировать их на новом объекте. Рекомендуется использовать метод клонирования, поскольку вы сможете настроить свои службы на новом IP-адресе до изменения записей DNS. Кроме того, вы можете открыть заявку в службу поддержки, и мы можем настроить миграцию для вас. Для новых Линодов просто выберите «Торонто» в качестве местоположения при создании вашего облачного экземпляра.

А в случае, если вы пропустили это, мы недавно объявили о планах по выделенным ЦП для таких нагрузок с интенсивным использованием ЦП, как CI / CD, кодирование видео, машинное обучение, игровые серверы и занятые серверы приложений. Следите за новыми объявлениями о наших новых дата-центрах в Индии и Сиднее, хранилищах объектов, Linode Kubernetes, приложениях One-Click и многом другом.

https://www.linode.com

Изменения в регламентирующих документах


В связи с уточнением формулировок, касающихся программного обеспечения, используемого на серверах RU‑CENTER, а также изменением условий продления ряда архивных тарифов хостинга с 1 июня 2019 года вступают в действие обновленные редакции документов. Документы опубликованы на сайте.
www.nic.ru/news/2019/0514-izmeneniya-v-reglamentiruyushchikh-dokumentakh/

VPS со скидкой 40% и другие важные новости!



Главные новости хостинга в мае 2019 г.
Привет, на связи ProfitServer – сервис аренды надежных виртуальных и выделенных серверов. У нас много хороших новостей: новые локации, дешевые доменные зоны, скидка 30% на заказ новых серверов (кстати акция действует до конца мая). Если вам это не интересно, то отпишитесь от рассылки нажав здесь. Ну, а теперь обо всем подробнее.
VPS в Москве дешевле на 40% — мощный сервер в дата центре TIER3
Предложение действует на все серверы в московском дата центре DataPro. А еще есть скидка 30% на серверы в нашем собственном дата центре ProfitServer по промокоду MAYVPS. Вот почему наши VPS такие крутые:
  • Безлимитный трафик
  • Техподдержка 24/7
  • Выделенные, белые IP на каждый сервер
  • Гарантированный канал
Ваша скидка уже ждет вас в личном кабинете — переходите в биллинг и заказывайте сервер в DataPro. А чтобы получить скидку на серверы в ProfitServer, при заказе необходимо ввести промокод MAYVPS. Количество серверов ограничено. Акция – 40% действует до конца мая 2019 года.
ПОЛУЧИТЬ СКИДКУ 40%
profitserver.ru/vds/
Новые доменные зоны – теперь вы можете зарегистрировать домен в зоне .XYZ всего за 165 руб.
Кроме того, еще есть шанс прикупить что-то в популярных: info, kim, red, pink, blue, club, icu, pro, world, website, space, site, press, online, live, host, fun – все эти зоны не дороже 300 руб.
profitserver.ru/domain/

Нет границ – мы открыли несколько новых локаций по всему миру.
Теперь серверы можно заказать в дата центрах Франции, Голландии, США, Болгарии, Латвии и в Сингапуре. Переносите ваши проекты в европейские дата центры и не беспокойтесь про «суверенный рунет».
profitserver.ru/vds/

Friendhosting LTD: Реселлинг VDS



Уважаемые коллеги, рады сообщить, что с сегодняшнего дня у нас действует программа реселлинга vds.

Реселлинг vds — это перепродажа наших виртуальных серверов под собственной торговой маркой (white label). Другими словами, Вы можете легко стать хостинг-провайдером, без капитальных вложений средств в инфраструктуру, сосредоточив свои усилия на маркетинге и продвижении услуг под своим брендом.

Реселлинг vds будет интересен следующим категориям клиентов:
  • веб-студиям;
  • хостинг-провайдерам;
  • любым частным лицам и предпринимателям, у которых есть желание и возможность предоставлять своим клиентам услуги vds.

Своим реселлерам мы готовы предложить щедрые скидки на vds, которые зависят от количества активных услуг:
  • 10+ активных серверов — 20%
  • 25+ активных серверов — 30%
  • 50+ активных серверов — 40%

Такая же система скидок действует на две дополнительные услуги — дополнительный выделенный ipv4 и дополнительное дисковое пространство.

Подробнее о программе реселлинга вы можете узнать по ссылке ниже, создав тикет в финансовый отдел или написав на email на support@friendhosting.net

friendhosting.net/rules/reselling-vds.php
friendhosting.net/api-friendhosting.php

Домен — имя для Вашего сайта



К выбору имени стоит подходить со всей серьезностью.
При выборе доменного имени можно руководствоваться названием Вашего бренда или организации или же словами, которые будут подходить под Вашу сферу деятельности.

Принципы хорошего доменного имени:

Краткость — сестра таланта
Краткий формат более удобен в использовании.

Красота в простоте
Чтобы пользователям было удобно в поиске прописывать Ваше имя, не допуская ошибок, стоит выбрать более простой вариант.

“Здесь что-то на эльфийском? Не могу разобрать”
Имя должно легко читаться, быть понятным и, желательно, быть легким в произношении.

Forget me not
Название должно быть уникальным и запоминающимся.

Остались вопросы? Наша служба поддержки всегда окажет всю необходимую помощь и поможет выбрать имя, предложив лучшие варианты для Вас: zomro.com

Миграция 23 ТБ из Amazon S3 в Backblaze B2 всего за семь часов



Как и многие клиенты Backblaze, Nodecraft поняла, что может сэкономить целое состояние, переместив свое облачное хранилище на Backblaze и инвестировав его в другое место для развития своего бизнеса. В этом посте, который первоначально появился в блоге Nodecraft, Грегори Р. Суддерт, старший инженер по разработке приложений для Nodecraft, рассказывает о шагах, которые они предприняли, чтобы сначала проанализировать, протестировать, а затем переместить это хранилище.
Левенс

Nodecraft.com — это многопользовательская облачная платформа, где геймеры могут арендовать и использовать наши серверы для создания и обмена уникальными многопользовательскими онлайн-серверами со своими друзьями и / или публикой. Владельцы серверов, использующие свои игровые серверы, создают резервные копии, включая файлы серверов, игровые резервные копии и другие файлы. Само собой разумеется, что надежность резервного копирования важна для владельцев серверов.

В ноябре 2018 года нам в Nodecraft стало ясно, что мы можем улучшить наши расходы, если пересмотрим нашу стратегию облачного резервного копирования. Изучив текущие предложения, мы решили перенести наши резервные копии с Amazon S3 на сервис Backblaze B2. В этой статье описывается, как наша команда подошла к этому, почему и что произошло, в частности, чтобы мы могли поделиться своим опытом.

Выгоды
Из-за того, что S3 и B2, по крайней мере, в равной степени * доступны, надежны, доступны, а также многих других провайдеров, нашей основной причиной для переноса наших резервных копий стала цена. Когда мы начали работу, начали появляться другие факторы, такие как разнообразие API, качество API, реальная работоспособность и обслуживание клиентов.

Изучив самые разные соображения, мы остановились на услуге Backblaze B2. Большую часть затрат на эту операцию составляет их пропускная способность, которая удивительно доступна.

Ценовой разрыв между двумя системами хранения объектов обусловлен альянсом Bandwidth между Backblaze и Cloudflare, группой провайдеров, которые согласились не взимать (или сильно снижать) плату за данные, оставленные в альянсе сетей («выходные» сборы). Мы в Nodecraft интенсивно используем Cloudflare, и поэтому оставалось беспокоиться только об исходящих затратах от Amazon до Cloudflare.

В обычных условиях наши клиенты постоянно создают резервные копии, а также получают к ним доступ для различных целей, и их возможности по выполнению этих операций не изменились по сравнению с предыдущим поставщиком.

Соображения
Как и в случае любых изменений в поставщиках, переход должен быть продуман с большим вниманием к деталям. Когда ранее не было проблем с качеством, и обстоятельства таковы, что можно рассмотреть широкое поле новых поставщиков, окончательный выбор должен быть тщательно оценен. Наш список проблем включал эти:
  • Безопасность: нам нужно было переместить наши файлы и обеспечить их сохранность, избыточным способом
  • Доступность: служба должна быть надежной, но и широко доступной ** (что означает, что нам нужно было «указать» на нужный файл после его перемещения в течение всего процесса перемещения всех файлов: у разных компаний разные стратегии, одна корзина, много ведер, областей, зон и т. д.)
  • API: у нас есть опыт, поэтому мы не помешаны на проприетарных инструментах передачи файлов
  • Скорость: нам нужно было перемещать файлы навалом, а не тормозить ограничения скорости, и
  • Неправильная настройка может превратить операцию в нашу собственную DDoS.

Все эти факторы в отдельности хороши и важны, но при их совместном создании может произойти значительный сбой в обслуживании. Если все может двигаться легко, быстро и, ненадежно, неправильная настройка может превратить эту операцию в нашу собственную DDoS. Мы предприняли тщательные шаги, чтобы этого не произошло, поэтому было добавлено дополнительное требование:

Настройка: не отказывайтесь от собственных услуг и не вредите соседям
Что это означает для непрофессионала:
У нас много устройств в нашей сети, мы можем сделать это параллельно. Если мы сделаем это на полной скорости, мы сможем сделать так, чтобы наши поставщики услуг не очень-то нравились нам… может быть, мы должны сделать это не на полной скорости

Важные части
Чтобы использовать наши собственные возможности облачной обработки, мы знали, что нам придется использовать двухуровневый подход как на уровне Tactical (переместить файл), так и на уровне Strategic (указать многим узлам, чтобы переместить все файлы).

Cстратегическое
Наши цели здесь просты: мы хотим переместить все файлы, переместить их правильно и только один раз, но также убедиться, что операции могут продолжаться, пока происходит это перемещение. Это важно, потому что если бы мы использовали один компьютер для перемещения файлов, это заняло бы месяцы.

Первым шагом к выполнению этой работы параллельно было создание небольшого веб-сервиса, который позволил бы нам ставить в очередь один целевой файл, который будет одновременно перемещаться на каждый рабочий узел. Эта служба обеспечивала механизм блокировки, чтобы один и тот же файл не мог перемещаться дважды, одновременно или одновременно. Таймер истечения блокировки (с сообщением об ошибке) был установлен на пару часов. Этот сервис был предназначен для доступа с помощью простых инструментов, таких как curl.

Мы развернули каждый рабочий узел в виде контейнера Docker, распределенного по всему нашему Docker Swarm. Используя параметры в файле стека докеров, мы смогли определить, сколько рабочих на узел присоединилось к задаче. Это также гарантировало, что более дорогие регионы пропускной способности, такие как Азиатско-Тихоокеанский регион, не присоединились к рабочему пулу.

Тактический
У Nodecraft есть несколько парков серверов, охватывающих несколько центров обработки данных, и мы планировали использовать запасные ресурсы на большинстве из них для перемещения файлов резервных копий. Мы испытывали постоянный порядок доступа к нашим серверам со стороны наших пользователей в различных дата-центрах по всему миру, и мы знали, что будет доступность для наших целей перемещения файлов.

Наши цели в этой части операции также просты, но имеют больше шагов:
  • Получить имя / идентификатор / URL-адрес файла для перемещения, который блокирует файл и запускает таймер сбоя
  • Получить информацию о файле, включая размер
  • СКАЧАТЬ: Скопировать файл на локальный узел (без ограничения доступности узла сети)
  • Проверьте файл (размер, целостность ZIP, хэш)
  • ЗАГРУЗИТЬ: скопировать файл в новый сервис (опять же, не влияя на узел)
  • Сообщите «готово» с новой информацией о местоположении ID / URL на стратегическом уровне, который
  • Снимает блокировку в веб-сервисе, отменяет таймер и помечает файл как DONE



Переключатель убийства
В случае потенциального побега, когда даже внутриполосный Docker Swarm командует сами, мы решили убедиться, что у нас есть удобный переключатель. В нашем случае это был наш маленький бесстрашный веб-сервис — мы позаботились о том, чтобы приостановить его. Оглядываясь назад, было бы лучше, если бы он использовал расходуемый ресурс, такой как счетчик, или значение в ячейке базы данных. Если бы мы не обновили счетчик, он остановился бы сам по себе. Подробнее о «побегах» позже.

Тюнинг Реальной Жизни
Наш бизнес имеет ежедневные, еженедельные и другие циклы деятельности, которые предсказуемы. Наиболее важным является наш ежедневный цикл, который тянется после Солнца. Мы решили использовать наши узлы, которые находились в областях с низкой активностью, для выполнения работы, и после тестирования мы обнаружили, что, если мы настроимся правильно, это не повлияет на относительно небольшие нагрузки на серверы в этой области с низкой активностью. Это было подтверждено проверкой отсутствия изменений в нагрузке обслуживания клиентов с использованием наших показателей и инструментов CRM. Вернуться к настройке.

Первоначально мы настроили скорость передачи файла DOWN, эквивалентную 3/4 от того, что мог сделать wget (1). Мы подумали: «Ох, сетевой трафик к узлу будет соответствовать этому, так что все в порядке». Это в основном верно, но только в основном. Это проблема в двух отношениях. Причиной проблем является то, что тесты изолированного узла являются просто изолированными. Когда большое количество узлов в центре обработки данных выполняет фактическую передачу рабочих файлов, возникает пропорциональное воздействие, поскольку трафик концентрируется в направлении выходных точек.

Проблема 1: вы плохой сосед на пути к выходным пунктам. Хорошо, вы говорите «хорошо, мы платим за доступ к сети, давайте использовать его», но, конечно, есть только так много всего, но также очевидно, что «все порты коммутатора имеют большую пропускную способность, чем порты восходящей линии связи», поэтому, конечно, будет быть ограниченным, чтобы быть пораженным.

Проблема 2: ты сам себе плохой сосед. Опять же, если в конечном итоге ваши машины будут находиться рядом друг с другом в сети с помощью сетевых координат, ваши попытки «использовать всю пропускную способность, за которую мы заплатили», будут подавлены ближайшей точкой подавления, воздействуя только на почти только ты. Если вы собираетесь использовать большую часть полосы пропускания, которую МОЖЕТЕ использовать, вы должны также помнить об этом и выбирать, куда вы поместите точку засорения, которую создаст вся операция. Если кто-то не знает об этой проблеме, он может снять целые стойки вашего собственного оборудования, подавив коммутатор в верхней части стойки, или другие сетевые устройства.

Уменьшая нашу настройку 3 / 4ths-wget (1) до 50% от того, что wget могла сделать для передачи одного файла, мы увидели, что наши узлы по-прежнему функционируют должным образом. Ваш пробег будет совершенно разным, и есть скрытые проблемы в деталях того, как ваши узлы могут или не могут быть рядом друг с другом, и их влияние на оборудование между ними и Интернетом.

Старые привычки
Возможно, это досадная деталь: основываясь на предыдущем жизненном опыте, я привел некоторые задержки. Мы написали эти инструменты на Python, с помощью оболочки оболочки Bourne для обнаружения сбоев (были), а также потому, что на нашем этапе загрузки мы пошли вразрез с нашей ДНК и использовали утилиту загрузки Backblaze. Кстати, он многопоточный и действительно быстрый. Но в сценарии оболочки оболочки, как само собой разумеющемся, в главном цикле, который впервые говорил с нашим API, я поместил оператор sleep 2. Это создает небольшую паузу «вверху» между файлами.

Это оказалось ключевым, как мы увидим через мгновение.
Как это (служба, почти) все пошли вниз
То, что в прошлом, иногда не является прологом. Независимое тестирование в одном узле или даже в нескольких узлах не было полностью поучительным для того, что действительно должно было произойти, когда мы удушили тест. Теперь, когда я говорю «тест», я действительно имею в виду «операция».

Наше первоначальное тестирование было завершено «Тактически», как и выше, для которого мы использовали тестовые файлы, и были очень осторожны при их проверке. В общем, мы были уверены, что сможем справиться с копированием файла (цикл Python) и проверкой (unzip -T) и работать с утилитой Backblaze b2 без особых проблем… но это стратегический уровень, который научил нас нескольким вещам.

Вспоминая туманное прошлое, когда «6% коллизий в сети 10-BASE-T и ее игра окончена»… да, 6%. Мы сократили количество реплик в Docker Swarm, и у нас не было никаких проблем. Хорошо. “Хорошо.” Тогда мы переместили дроссель, так сказать, к последней задержке.

Мы почти достигли самообороны DDoS.
Это было не так уж и плохо, но мы внезапно были очень, очень довольны нашей настройкой 50% -го-wget (1) и нашими 2-секундными задержками между передачами, и, самое главное, нашим переключателем уничтожения.

Анализ
TL; DR — Все прошло отлично.

Было несколько файлов, которые просто не хотелось передавать (их не было на S3, хм). Были некоторые DDoS-тревоги, которые на мгновение сработали. Было много трафика… и, затем, счет за пропускную способность.

Ваш пробег может отличаться, но есть некоторые вещи, которые нужно учитывать в отношении вашего счета за пропускную способность. Когда я говорю «счет», на самом деле это несколько счетов.


Как показано на диаграмме выше, перемещение файла может привести к многократной загрузке полосы пропускания, особенно когда наши клиенты начали загружать файлы из B2 для развертывания экземпляров и т. Д. В нашем случае у нас теперь был только счет за выход S3. Вот почему это работает:

У нас есть групповые (узловые) дисконтные соглашения о пропускной способности с нашими провайдерами.
B2 является членом Bandwidth Alliance и Cloudflare тоже
Мы обращались к нашему контенту S3 через наши (не бесплатные!) Публичные URL-адреса учетной записи Cloudflare, а не через (частные) S3 URL.
Не говоря уже о наших конфиденциальных договоренностях с нашими партнерами по обслуживанию, в целом верно и следующее: вы можете поговорить с поставщиками, а иногда и договориться о сокращениях. Кроме того, им особенно нравится, когда вы звоните им (заранее) и обсуждаете свои планы по усиленному управлению своей экипировкой. Например, при другом перемещении данных один из провайдеров дал нам способ «пометить» наш трафик определенным образом, и он будет проходить через тихую, но не часто посещаемую часть своей сети; победа победа!

Хочу больше?
Прочитайте пример использования Nodecraft в блоге Cloudflare.
Мы также выпустили наш собственный модуль JavaScript NPM B2-Cloud-Storage, который мы сейчас используем в производстве, чтобы упростить процесс загрузки.
Спасибо за ваше внимание, и удачи с вашим собственным байтовым стропом.

Грегори Р. Sudderth
Nodecraft Старший инженер DevOps
Наука сложна, синие клавиши на калькуляторах хитры, и у нас нет лет, чтобы изучать вещи, прежде чем делать их

Резервное копирование для VPS

Рады представить долгожданное нововведение для пользователей услуги VPS — теперь им доступна бесплатная система автоматического резервного копирования файлов виртуального сервера!


Система резервного копирования для VPS очень похожа на аналогичную систему для хостинга — мы приложили все усилия для того, чтобы ей можно было легко и привычно пользоваться. Кроме того, возможно восстановление не только всего сервера целиком, но и отдельных файлов. А еще резервную копию одного сервера можно развернуть на другом!

Резервные копии делаются автоматически для каждого виртуального сервера и хранятся в отдельном дата-центре: даже если аппаратная платформа, на которой запущены пользовательские VPS, выйдет из строя, копии не пострадают. Как и для хостинга, они предоставляются бесплатно.

В Панели управления VPS уже доступен раздел Backup, а в разделе «Руководство по ПУ» на нашем сайте уже опубликовано руководство по его использованию.
cp.beget.com/vps/backup
beget.com/ru/manual/vps-backup

Новости FirstByte.RU - Акция на выделенные сервера Xeon E3!



Рады сообщить, что сегодня мы открыли АКЦИЮ: купи сервер E3-1230 со скидкой 20%!

Сервера Supermicro Intel Xeon E3 — от 3992 рублей в месяц, список тарифов firstbyte.ru/dedicated/e3/ Торопись, количество сервер по акции ограничено!

Например:
  • SuperMicro Xeon E3-1230/16GB RAM/1Tb HDD/LAN 1GB — 4392 руб.
  • SuperMicro Xeon E3-1230/16GB RAM/4Tb HDD/LAN 1GB — 4632 руб.
  • SuperMicro Xeon E3-1230/32GB RAM/1Tb HDD/LAN 1GB — 5352 руб.
  • SuperMicro Xeon E3-1230/32GB RAM/4Tb HDD/LAN 1GB — 5432 руб.

У выделенных серверов есть масса плюсов, таких как полная независимость по вычислительным ресурсам, большой запас мощности, стабильность и надежность.
На все сервера мы устанавливаем любые операционные системы из возможных.

Ко многим серверам предоставляется IPMI доступ для управлением. Мы комплектуем сервера как SATA так и SSD дисками большой емкости.

С 1 сервером вы можете дополнительно арендовать большое количество IP адресов IPv4, вплоть до целой /24 и более.

Сервера выдаются после оплаты в течении 1-2 часов при наличии конфигурации либо в течение нескольких рабочих дней.

Если вы не нашли нужной вам конфигурации мы с радостью поможем и даже выдадим Вам конфигурацию превосходящую по параметрам, а также ответим на ваши вопросы и предложения. У нас есть разные вариации памяти, дисков и процессоров.
firstbyte.ru/dedicated/e3/

Спасибо, что Вы с нами!

С уважением,
Команда FIRSTBYTE
support@firstbyte.ru

Cтарейшая в мире фармацевтическая фирма выиграла аукцион за домен верхнего уровня



Недавно ICANN сообщила об окончании аукциона за право обладания доменом верхнего уровня .MERCK. На новую зону претендовали две компании с идентичным товарным знаком Merck. Это был первый случай проведения аукциона за право обладания брендовым доменом.

Победителем стала немецкая фирма Merck Group — старейшая в мире химическая и фармацевтическая компания, которая ведёт свою историю с 1668 года. Именно тогда Фридрих Якоб Мерк положил началу крупнейшему семейному бизнесу. Его потомки до сих пор руководят компанией, и, согласно принятому договору, они не имеют право передавать управление кому-либо вне семьи.

Её конкурентом была американская фармацевтическая компания Merck & Co, история которой также связана с семейным бизнесом Мерков. Merck & Co изначально была американским филиалом немецкой фирмы Merck, но в 1917 году, в связи с участием Германии в Первой мировой войне, отделилась от неё и стала независимой фирмой.

Домен merck.com принадлежит американской компании, тогда как немецкая держит официальный сайт по адресу merckgroup.com.

www.webnames.ru