Треть Android-устройств не сможет распознавать сертификаты Let's Encrypt

Удостоверяющий центр Let's Encrypt анонсировал переход на использование собственных корневых сертификатов. Ранее компания предоставляла перекрёстно подписанные сертификаты по соглашению с IdenTrust, которое истекает 1 сентября 2021 года.

Корневые сертификаты Let's Encrypt будут распознаваться во всех браузерах, кроме устаревших версий Android.

Версии до 7.1.1, используемые на 33,8% Android-устройств, при входе на сайт, защищённый Let's Encrypt, будут получать сообщение об ошибке. Чтобы решить проблему, пользователям устаревших Android-устройств предлагают использовать браузер Mozilla Firefox, однако он доступен только с версии Android 5.0. Решения для более старых версий нет.

С 11 января 2021 года сертификаты по умолчанию будут заверяться корневым сертификатом Let's Encrypt. По запросу можно будет получить альтернативный сертификат с перекрёстной подписью, но с 1 сентября 2021 от него откажутся совсем.

Запускаем роутер Mikrotik CHR в облаке под управлением VMware vCloud Director 10



Нередко к нам обращаются с вопросом: «Можно ли установить в вашем облаке Router OS (MikroTik)» — первое, что возникает у нас в голове при виде этого вопроса: «Зачем?» — однако существует ряд логичных и весомых причин для использования программно-определяемых маршрутизаторов, отличных от предоставляемых облачным провайдером (VMware NSX Edge). Давайте подумаем, какие же это могут быть причины.
  • Однотипный знакомый интерфейс на всех сетевых устройствах – довольно удобно иметь одинаковый интерфейс на всех маршрутизаторах, используемых в работе, особенно когда компания использует гибридное облако, разделяя ресурсы между разными облачными провайдерами. Не придется тратить время на изучение и понимание принципов и тонкостей работы с разномастными программно-определяемыми роутерами – можно быстро и четко выполнить необходимую задачу, сводя влияние человеческого фактора к минимуму.
  • Исключение проблем кроссплатформенности – ни для кого не секрет, что такие проблемы есть и могут быть в будущем. Легче привести сетевую инфраструктуру к унифицированному виду, чем тратить время на поиск багов во взаимодействии маршрутизаторов разных производителей, что может быть нигде не задокументировано.
  • Ограничение доступа провайдера публичного облака до настроек маршрутизатора – нечасто мы задумываемся, что провайдер публичного облака – это буквально большой брат, который имеет доступ ко всем настройкам внутри своей инфраструктуры, включая возможность увидеть pre shared key(PSK) IPsec VPN туннеля, который, казалось бы, должен быть виден только для пользователя. Это порождает новые безопасностные риски, которых можно избежать, скрыв от провайдера сетевые настройки.
  • Быстрый перенос инфраструктуры от одного провайдера публичного облака к другому – к сожалению, стабильность в наше время — понятие абстрактное, поэтому легче всего иметь полностью готовую к работе виртуальную инфраструктуру. Это позволит свести к минимуму возможность возникновения проблем функционирования рабочих виртуальных машин в новой среде.
  • Исключение дополнительных затрат на активацию сетевых функций провайдера – зачем платить больше, если можно использовать собственные программные решения? Зачастую стоимость ресурсов, используемых для функционирования Router OS намного меньше, чем приобретение различных сетевых опций (VPN, проброс портов) у некоторых провайдеров публичных облаков, например Облакотека.

Итак, как лучше всего приступить к работе по развертыванию Router OS в инфраструктуре VMware, используя vCloud Director 10? Легче всего это сделать, обратившись в службу поддержки облачного провайдера – это избавит пользователя от возможности возникновения проблем на стадии развертывания решения.

Установка Mikrotik Cloud Hosted Router (Mikrotik CHR)
Первое, с чего стоит начать, скачав образ Cloud Hosted Router с официального сайта (образ в .ova формате), так это с проверки хэш-суммы файла. Проверить хэш-сумму можно стандартными средствами ОС Windows: консольная команда:

certutil -hashfile«путь к файлу» MD5

Убедившись, что хэш-суммы совпадают, можно продолжать работу по развертыванию программного решения.

Для загрузки собственного образа в облако необходимо создать личный каталог: в верхней панели выбрать

Libraries -> Content Libraries -> Catalogs -> New



Вводим имя нового каталога, можно, при необходимости, указать необходимую политику хранения для данного каталога.



После создания нового каталога пользователя мы уже можем загрузить наш .ova образ в шаблоны виртуальных машин:

Libraries -> Content Libraries -> vApp Templates -> New


Нажимаем кнопку Browse и выбираем нашу виртуальную машину в формате .ova


Проверяем верность информации об образе и импортируем образ в созданный нами ранее каталог.



После нажатия на кнопку Finish, мы увидим, что началась загрузка образа. Как только статус шаблона перейдет в Normal,
мы сможем разворачивать этот шаблон в новый vApp.


В панели Libraries -> Content Libraries -> vApp Templates выбираем загруженный нами шаблон и нажимаем на Create vApp


Выбираем соответствующее нашим запросам имя нового vApp


Выбираем политику хранения для развертывания шаблона и в разделе Configure Networking необходимо проверить,
что сетевой адаптер выбран типа VMXNET3 (для этого необходимо выбрать галочку Switch to the advanced networking workflow)

После этого осталось только выбрать выделяемые виртуальной машине ресурсы и нажать на Finish

В результате успешного развертывания шаблона у нас появится новый vApp с новой виртуальной машиной с Router OS в статусе Powered Off

Для подключение виртуальной машины к сети организации необходимо добавить эту сеть в vApp:

Compute -> vApps -> Details -> Networks -> New
и выбираем нашу сеть в поле OrgVDC Network


В настройках виртуальной машины изменяем сеть, подключенную к сетевому адаптеру:
Compute -> Virtual Machines -> Details -> Hardware -> NICs -> Network

Для подключения к консоли виртуальной машины в среде управления vCloud Director нажмите на изображение монитора во вкладке
Compute -> Virtual Machines


Не забудьте сменить пароль администратора виртуальной машины перед подключением машины в сеть
(данные для входа по умолчанию: admin без пароля), для этого в консоли наберите следующую команду для
отображения всех пользователей.
/user print
После этого можно изменить пароль соответствующего пользователя
/user set 0 password=«пароль»


Далее нам необходимо настроить внешний интерфейс маршрутизатора и дефолтный маршрут, для возможности использования решения.
Чтобы отобразить все сетевые интерфейсы, доступные ОС, введите команду:

/interface ethernet print
После этого добавьте на данный интерфейс сетевой адрес и максу подсети командой:

/ip address add interface=”имя интерфейса” address=”ip адрес в свойствах виртуальной машины на этом интерфейсе”
netmask=”маска подсети организации”
Проверьте правильность ввода данных выводом команды:

/ip address print
Для корректной работы маршрутизатора необходимо добавить маршрут по умолчанию:

/ip route add gateway=”ip адрес шлюза подсети” dst-address=0.0.0.0/0 distance=1
/ip route print
После смены пароля администратора ОС и настройки маршрута по умолчанию, мы можем включать правила Firewall и NAT
для беспрепятственного проброса портов до MikroTik:

Networking -> Edges -> Services -> Firewall и NAT


После выполнения всех действий по внешнему Ip адресу должен быть доступен интерфейс настройки MikroTik для дальнейшего
администрирования.


Не забудьте, что без должного лицензирования скорость передачи данных через Cloud Hosted Router будет ограничена.
Можно рассуждать сколько угодно о плюсах и минусах того или иного программного решения для маршрутизации траффика,
однако все зависит от поставленных задач и сроков реализации. Никогда не стоит пренебрегать знаниями,
которые могут пригодиться в самой неожиданной ситуации.

Представляем капли, оптимизированные для хранения, с твердотельными накопителями NVMe и новую более низкую цену на капли, оптимизированные для памяти



Вы можете делать все, что захотите, с нашими виртуальными машинами Droplet.
Но мы слышали некоторые отзывы: некоторые из вас хотели бы использовать виртуальные машины с более быстрыми дисками большего размера, и эта цена всегда учитывается. Вот почему мы представляем капли, оптимизированные для хранения, с твердотельным накопителем NVMe и снижаем цены на капли, оптимизированные для памяти.

Оптимизированные для хранилища капли для сверхбольших баз данных, кешей и рабочих нагрузок аналитики
В наши дни мы все проводим так много времени в Интернете, постоянно генерируя данные. Для сбора этих данных некоторым из вас потребуется запускать большие высокопроизводительные базы данных NoSQL (например, MongoDB, Elasticsearch и TimeScaleDB), программное обеспечение для мониторинга и аналитики (например, Prometheus и Grafana) и другие типы хранилищ данных.

Капли, оптимизированные для хранения, — это виртуальные машины, которые отлично подходят для этих сценариев.

NVMe, что означает энергонезависимую память, представляет собой протокол интерфейса, специально созданный для современных твердотельных накопителей. Он использует преимущества параллелизма для обеспечения производительности диска, которая может быть на порядок выше, чем у наших обычных твердотельных накопителей. Поскольку хранилище напрямую подключено к гипервизору (а не через сеть), эти капли идеально подходят для рабочих нагрузок, требующих большого количества транзакций с низкой задержкой.

Конфигурация 1X SSD для оптимизированных для хранения капель включает хранилище объемом 150 ГБ для каждого выделенного виртуального ЦП. Вариант 1.5X SSD дает вам 225 ГБ на виртуальный ЦП.

Наша самая большая капля, оптимизированная для хранения, может похвастаться емкостью хранения 7 терабайт, а также 32 виртуальными ЦП, 256 ГБ ОЗУ и 10 ТБ передачи.

Это оптимизированные для хранения капли, из которых вы можете выбрать:


Оптимизированные для памяти капли: те же характеристики, более низкая цена
Чуть более года назад мы представили капли, оптимизированные для памяти. Мы рекомендуем эти виртуальные машины для таких случаев использования, как кэширование в памяти и обработка больших данных в реальном времени. Благодаря 8 ГБ ОЗУ для каждого выделенного виртуального ЦП (наряду с обычным SSD) оптимизированные для памяти капли дают вам много оперативной памяти для запуска таких приложений, интенсивно использующих память.

Сегодня мы снижаем цены на капли, оптимизированные для памяти, примерно на 11%.

Вы увидите новые цены в нашей панели управления.


Начни сегодня
Вы можете развернуть капли, оптимизированные для хранения и памяти, как и любую другую виртуальную машину DigitalOcean: через нашу удобную для разработчиков панель управления, интерфейс командной строки, API и расширения платформы, такие как наш поставщик Terraform. Мы приглашаем компании, заинтересованные в использовании наших капель, связаться с нами для разговора.
www.digitalocean.com/docs/apis-clis/doctl/
developers.digitalocean.com/documentation/v2/

Реестр контейнеров DigitalOcean теперь общедоступен



То, как мы создаем и используем программное обеспечение, продолжает развиваться. Последняя тенденция — часто называемая нативными облачными вычислениями — включает в себя набор технологий и подходов, которые облегчают разработку и работу приложений, предназначенных для работы в облаке. В этот сдвиг особенно популярны контейнеры и Kubernetes.

Лучшая практика для облачного DevOps — настроить конвейер CI/CD с системой сборки, отправляющей образы в реестр контейнеров. Среды выполнения, такие как наш собственный DigitalOcean Kubernetes, могут затем извлекать образы из реестра. Вы можете использовать любой реестр контейнеров вместе с DigitalOcean Kubernetes, но есть специальный, который мы рекомендуем для простоты использования и низкой стоимости.

Сегодня мы рады сообщить, что реестр контейнеров DigitalOcean теперь общедоступен.

Просто, конфиденциально и безопасно
Реестр контейнеров DigitalOcean упрощает безопасное хранение частных образов контейнеров и управление ими, особенно для использования с DigitalOcean Kubernetes.

Чтобы начать, перейдите на вкладку «Реестр контейнеров» на панели управления.



После создания реестра вы можете отправить в него образы контейнеров Docker. Изображения в вашем реестре зашифрованы в состоянии покоя и при передаче и доступны только другим членам вашей команды DigitalOcean.


Чтобы упростить развертывание ваших образов в DigitalOcean Kubernetes, мы предоставляем рабочий процесс для подключения вашего реестра к кластерам в вашей учетной записи. Просто перейдите на вкладку «Настройки» своего реестра на панели управления и выберите кластеры, которые вы хотите использовать с реестром. Затем DigitalOcean сохранит токен аутентификации как imagePullSecret во всех пространствах имен для выбранных кластеров Kubernetes.


Вы можете бесплатно переносить образы контейнеров в свои кластеры DigitalOcean Kubernetes. Чтобы повысить производительность, DigitalOcean Container Registry кэширует метаданные изображений по всему миру.

Совместимость с артефактами Open Container Initiative (OCI)
Реестр контейнеров предназначен не только для контейнеров. Вы можете использовать Реестр контейнеров для хранения любого артефакта, совместимого со спецификацией OCI. Например, вы можете хранить свои диаграммы Helm в реестре контейнеров (обратите внимание, что поддержка Helm OCI все еще экспериментальная).


Низкая предсказуемая цена
Отчасти потому, что реестр контейнеров DigitalOcean построен на основе нашей службы хранения объектов Spaces, мы можем предложить ее по низким и предсказуемым ценам. Вы вполне можете обнаружить, что нашего бесплатного плана с одним репозиторием и 500 МБ хранилища достаточно для личных проектов. Если вам нужно больше репозиториев и хранилища, наши планы Basic и Professional предоставляют варианты, подходящие для более крупных проектов. В отличие от других реестров контейнеров, вы можете использовать DigitalOcean Container Registry с любым желаемым количеством участников без дополнительных затрат.


Urlbox запускает наш API снимков экрана в DigitalOcean Kubernetes, и мы используем реестр контейнеров DigitalOcean для хранения изображений для различных сервисов, составляющих наше приложение. Хранение изображений в реестре контейнеров DigitalOcean дает огромную экономию средств по сравнению с хранением и передачей изображений из Google Cloud
Крис Робак, основатель и генеральный директор

Запустите свои облачные приложения в DigitalOcean сегодня
В DigitalOcean мы стремимся помочь вам и вашему малому бизнесу освоить новейшие технологии, связанные с облачными вычислениями. Сегодня DigitalOcean проводит виртуальную конференцию разработчиков Deploy, и я призываю вас присоединиться к моему сеансу о том, как запускать облачные приложения в DigitalOcean.

А пока мы будем рады, если вы попробуете наш Реестр контейнеров. Вот документация, которая поможет вам начать работу.

Если вы представляете малый бизнес или стартап и хотите поговорить с нами о том, как запустить облачные приложения в DigitalOcean, свяжитесь с нами здесь.
www.digitalocean.com/docs/container-registry/
cloud.digitalocean.com/registry
www.digitalocean.com/deploy

Удачного кодирования,
Адам Вулф Гордон, старший инженер-программист

REG.ru Cloud changelog



https://www.reg.ru

27.10.2020 Вебинары
Подготовили для вас два вебинара: 03.11.2020 в 15:00 msk расскажем подробнее о возможностях Облачных серверов, 05.11.2020 в 15:00 msk — проведём воркшоп по настройке приватных сетей. Зарегистрироваться на вебинар.

20.10.2020 Дешёвые VPS
Добавили линейку тарифов «Старт» с VPS начального уровня для изучения Linux, тестирования и веб-разработки.

19.10.2020 Давайте поговорим
Нам было бы полезно узнать как вы работаете с облачными серверами и с REG.RU в целом. Приглашаем на онлайн-созвон — забронируйте удобное время и оставьте ваш email. В ответ мы пришлем ссылку в Zoom, можно подключиться с компьютера или телефона. Разговор займёт не больше 20-30 минут, в качестве благодарности — бонус на баланс облачных серверов.

24.09.2020 Лендинг высокочастотных серверов
Добавили лендинг для высокочастотных серверов — используйте его для привлечения клиентов в рамках реферальной программы. Платим 500 ₽ за нового пользователя Облачных серверов, который потратил 500 ₽ на услугу.

15.09.2020 ISPmanager
ISPmanager теперь доступен для CentOS 8 и Ubuntu 20.04 LTS. Также обновили на рекомендуемые настройки PHP, Sendmail, Apache и Nginx для всех версий операционных систем. К настройкам относятся: время исполнения скриптов, доступная для PHP память, максимальный размер загружаемых файлов и другие.

31.08.2020 Снэпшоты стали дешевле
Обновили оборудование и снизили стоимость хранения снэпшотов до 3 ₽ за ГБ в месяц.

27.08.2020 Высокочастотные серверы
Добавили линейку тарифов с частотой процессора 3,7 ГГц и технологией Turbo Boost до 5 ГГц. Рекомендуем для проектов на 1С-Битрикс и WordPress — тест Geekbench показывает прирост производительности на 69% для конфигурации с 2 ГБ памяти и 1 vCPU. Сделать апгрейд можно на тариф, где диск совпадает по размеру или больше.

06.08.2020 Восстановление удалённых серверов
Как и прежде, в течение трёх дней можно восстановить удалённый сервер в разделе «История». Но теперь по запросу в поддержку мы восстановим сервер, который был удалён месяц назад и даже более — при наличии такой возможности.

05.08.2020 Новый тариф с 2 ГБ памяти
Добавили тариф с 2 ГБ памяти и 1 vCPU — Cloud-2b за 660 ₽. Возможен апгрейд и даунгрейд к тарифу Cloud-2a c 1 ГБ памяти, поскольку тарифы имеют одинаковый размер диска.

29.07.2020 Реферальная программа
Облачные серверы включены в реферальную программу. Платим 500 рублей за нового пользователя Облачных серверов, который потратил 500 рублей на услугу. Начисление единоразовое и происходит не ранее, чем через 30 дней после первого платежа пользователя.

29.07.2020 Миграции между линейками тарифов
Теперь можно менять тариф с линейки «Стандарт» на «Выделенное облако» и обратно.

27.07.2020 Быстрые оффлайн-снэпшоты
Ускорили создание снэпшотов c остановкой сервера — теперь сервер недоступен только на время перезагрузки.

13.07.2020 Приватные сети
Реализовали приватные сети для защищённого взаимодействия серверов. Подключение в разделе «Сеть» у каждого сервера. На каждом сервере нужно сделать настройку по инструкции.

18.05.2020 Новые тарифы
13 мая мы повысили цены в связи ростом курса доллара и, как следствие, повышением цен на импортируемое оборудование. Чтобы смягчить повышение ввели новые тарифы:
  • добавили дисковое пространство;
  • возвратили тариф с 512 МБ памяти;
  • новый тариф с 1 ГБ памяти и одним процессором;
  • новые тарифы Cloud-3a/3b/3c с одним размером диска, но разной памятью и процессором — можно переходить между ними;
  • новый старший тариф Cloud-9 с 320 ГБ диска;
  • новая линейка тарифов «Выделенное облако». В дальнейшем сделаем возможность апгрейда на неё с линейки Стандарт.
Перейти на новые тарифы можно, сделав апгрейд тарифа. Благодаря тому, что диск на новых тарифах больше, в большинстве случаев можно сделать и даунгрейд на тариф ниже.

12.05.2020 Как сэкономить на снэпшотах
Если ваш Облачный сервер создан до 25 апреля 2020 года, то при создании снэпшота вы можете столкнуться с ситуацией, что снэпшот занимает больше места, чем занято на диске в текущий момент. Это связано с тем, что файловая система виртуального диска хранит данные об удалённых файлах.
Мы реализовали оптимизацию дисков виртуальных серверов — она производится дважды в день в 9:00 и 21:00. Подключите гостевого агента по инструкции, чтобы сэкономить на вновь создаваемых снэпшотах.

07.05.2020 Клонирование серверов
Делать снэпшот перед критичными изменениями — хорошая практика. Но тестировать обновление сразу на продакшн-сервере — не лучшая идея. Лучше клонируйте сервер и протестируйте изменения на копии. Теперь для этого есть отдельная кнопка в блоке управления сервером.

29.04.2020 Пополнение баланса без авторизации
Получив письмо о низком балансе, можно перейти по ссылке и оплатить, не проходя авторизацию.

29.04.2020 Новая форма заказа
Обновили форму заказа нового сервера — как она вам? Напишите продакт-менеджеру через форму справа.

24.04.2020 Ubuntu 20.04 LTS
Новая стабильная версия Ubuntu доступна для заказа.

23.03.2020 ISO-образы
Используйте их для переноса сервера от другого провайдера, восстановления сервера или для установки ОС, недоступных у нас. Пока эта функция экспериментальная и собственные образы подключаются через клиентскую службу: укажите URL с ISO-образом, и мы подключим его к виртуальному серверу. Из-за лицензионных ограничений нельзя подключить образ с Windows.

19.03.2020 Обновление шаблонов приложений
Перевели шаблоны на Ubuntu 18.04 и исправили ошибки — ISPmanager 5 и Vesta, LAMP и LEMP, Django, Node.js.

26.12.2019 Перенос VPS от других провайдеров с помощью образа диска
Переходите на облачные серверы REG.RU от других провайдеров без перенастройки системы с нуля — предоставьте нам образ диска VPS, и мы перенесём ваш контейнер на нашу инфраструктуру.
Требования к образу диска VPS:
  • формат qcow2, raw или ova;
  • одна из поддерживаемых нами операционных систем — Ubuntu 16.04 / 18.04 / 19.04, Debian 9 / 10 или CentOS 7 / 8.
Для переноса обратитесь в поддержку и предоставьте ссылку на образ диска и root-пароль.

23.12.2019 ISPmanager для CentOS 7 и Debian 9
Добавили панель управления ISPmanager для операционных систем CentOS 7 и Debian 9. Ранее она была доступна только для Ubuntu. Лицензия ISPmanager стоит 37 копеек в час.

15.11.2019 Улучшения снэпшотов
Во-первых, начали рассчитывать и показывать сколько будет стоить хранение снэпшота сразу при его создании. Во-вторых, сохраняем снэпшоты сразу на отдельный бэкап-сервер и производительность дисковой системы сервера не снижается в процессе создания снэпшота.

18.10.2019 Обновление операционных систем
Добавили Ubuntu 19.10, CentOS 8 и Debian 10.
Ещё одно нововведение — ежедневные сборки. Они доступны только через API, обновляются каждую ночь, тестируются автоматически и содержат самое свежее ПО. В формате ежедневных сборок мы будем поставлять экспериментальные шаблоны, которых не будет в панели управления.

10.10.2019 Автоперевод
В разделе «Финансы» теперь можно настроить автоперевод средств с баланса аккаунта. А чтобы деньги не заканчивались на балансе, подключите автопополнение с банковской карты. Ссылка будет в форме подключения автоперевода.

23.08.2019 Новый тариф с выделенным процессором
Добавили новую линейку тарифов — в отличии от тарифов линейки «Стандарт» вычислительная мощность ядра процессора гарантированно доступна виртуальному серверу.
«Выделенное облако» — для проектов со стабильно высокой нагрузкой на процессор. Например, для continuous integration/delivery, кодирования видео, машинного обучения и пакетной обработки.

Аукцион выделенных серверов от FirstDEDIC



Если вы откладывали приобретение выделенного сервера в долгий ящик и ждали подходящего момента, то он настал.

На нашем проекте FirstDEDIC стартовал аукцион с понижением цен — это отличная возможность сэкономить на аренде выделенного сервера.

На аукционе представлены решения как из числа готовых конфигураций, так и серверы, собранные по запросам наших клиентов. Все они полностью исправны и готовы к работе, а их установка и активация займёт не больше часа.

Снижение цен происходит каждые 24 часа. Всё, что вам необходимо сделать — это выбрать подходящий сервер и следить за снижением его стоимости, чтобы не пропустить подходящий момент для покупки. Тем более, что цена, по которой вы сделаете заказ, не изменится на протяжении всего срока аренды.

1dedic.ru/auction-2020

Ежегодное увеличение платы за наши услуги



В Leaseweb мы всегда ищем новые способы расширить возможности вас и вашего бизнеса. Прошлый год не стал исключением. Мы добавили процессоры AMD, панели управления, API-интерфейсы и поддержку загрузки UEFI, чтобы улучшить автоматизацию серверов. Мы реструктурировали и переработали клиентский портал Leaseweb, чтобы обеспечить удобство работы с клиентами, а также добавили возможности для обновления вашего жесткого диска и оперативной памяти или заказа SSL-сертификатов непосредственно с клиентского портала. Мы добавили дополнительные меры безопасности с помощью DDoS IP Protection Advanced и DNSSEC одним щелчком мыши. Выпуск Leaseweb Monitoring позволяет вам активно отслеживать состояние вашего сервера. Мы запустили Cloud Connect, ваше новое безопасное и частное соединение с общедоступным облаком, а также Elastic Compute, ваше частное облачное решение с расширением облака для максимальной масштабируемости. В наше портфолио были добавлены плавающие IP-адреса Metro, которые позволяют легко маршрутизировать трафик между двумя центрами обработки данных в городской зоне. Наши специалисты доступны круглосуточно и без выходных, чтобы вы всегда получали постоянную поддержку.

Чтобы продолжать предоставлять вам услуги того же качества, раз в год мы корректируем наши сборы за услуги, чтобы отразить изменения рынка. Мы удерживаем это повышение до 3% в соответствии с нашими Условиями продаж. Вы можете найти ихздесь.

Пересмотренные сборы применяются только с 1 января 2021 г. к контрактам на продажу, начавшимся 1 января 2020 г. или ранее. Пересмотренные сборы будут включены в ваш первый счет за 2021 г., и их можно предварительно просмотреть на портале клиентов Leaseweb.

Мы ценим, что вы выбрали нас в качестве поставщика облачного хостинга, и с нетерпением ждем продолжения поиска новых способов помочь вам в достижении бизнес-целей в ближайшие годы. Если у вас есть какие-либо вопросы, вы можете в любое время связаться с нашим отделом обслуживания клиентов.

С уважением,
Бенджамин Шёнфельд
Управляющий директор
Leaseweb Asia Pacific Pte. ООО

Linxdatacenter вошел в топ-30 поставщиков ИТ для операторов связи по версии CNews



Компания Linxdatacenter, международный эксперт в сфере высокотехнологичных решений по хранению данных, облачных сервисов и телекоммуникаций, вошла в рейтинг CNews Analytics «Крупнейшие поставщики ИТ для операторов связи 2019», подготовленного в рамках обзора «Телеком 2020» издания CNews.

Общая динамика роста российского телеком-рынка в 2019 году составила 4%, что позволило достичь объема примерно в 1,8 трлн рублей. 36,8% этой суммы приходится на документальную электросвязь, под которой понимается, в том числе, доступ в Интернет, 22% — на мобильную связь, 14,7% — на услуги присоединения и пропуска трафика и 9,7% — на почтовую связь.

Совокупная выручка участников рейтинга крупнейших поставщиков ИТ для операторов связи по итогам 2019 года составила 166 млрд рублей. По сравнению с 2018 годом показатель вырос на 59,5%. При этом порог входа в рейтинг вырос до 272 млн рублей.

Linxdatacenter вошел в топ-30 ведущих поставщиков ИТ для телеком-операторов с общим объемом выручки от работы с операторами связи в 350 млн рублей, что составляет 26,8% от ее общего размера. По сравнению с 2018 годом рост составил 2,4%.

«Связность ИТ-систем и ресурсов провайдеров различных решений и сервисов, объединенных в экосистемы и маркетплейсы, становится сегодня важнейшим фактором развития бизнеса.

Для дата-центра взаимодействие с операторами связи в этом свете обретает особую важность. ЦОД становится не только площадкой для обеспечения связности и обмена трафиком, но также составным элементом в цепочке создания дополнительной бизнес-ценности для своих партнеров и, в итоге, улучшения качества сервисов для конечных потребителей.

Мы постоянно расширяем свои компетенции в этом направлении как через развитие внутренних сетевых ресурсов, так и за счет обеспечения связности с передовыми глобальными ИТ-провайдерами. Дата-центр выполняет для клиентов роль единого хаба, покрывающего любые актуальные на текущий момент потребности в доступе к облакам, каналам связи и инструментам маршрутизации трафика», — комментирует генеральный директор Linxdatacenter в России Ольга Соколова.

Отметим, что ранее в 2020 году компания также вошла в рейтинг CNews Analytics, «Крупнейшие поставщики услуг ЦОД 2020» в рамках обзора «Центры обработки данных 2020», впервые стала участником рейтинга «Крупнейшие поставщики ИТ для промышленных предприятий 2019» в рамках обзора «ИТ в промышленности 2020», а также была включена в первый в России рейтинг SLA облачных провайдеров, составленный ИТ-маркетплейсом Market.CNews.

ru.linxdatacenter.com

Институт Гладстона создает огненный шар Backblaze, издание XXXL

Здесь, в Backblaze, мы, как известно, поступаем немного иначе. Мы часто выбираем другой путь — от модулей хранения и хранилищ Backblaze до данных о сельском хозяйстве и жестких дисках. Поэтому неудивительно, что мы любим рассказы о людях, которые нестандартно мыслят, когда сталкиваются с проблемой. Это особенно верно, когда эта история связана с созданием сервера хранения mongo, почтенной Toyota 4Runner и парой ИТ-инженеров, одержимых целью получить 1,2 петабайта данных своей организации за пределами офиса. Давайте познакомимся с Алексом Акостой и Эндрю Дэвисом из Gladstone Institutes.

Данные в бегах
Охранник на стойке регистрации понимающе кивнул, когда Алекс и Эндрю катили три больших чемодана «Черепахи» через вестибюль и выходили из парадной двери Гладстонского института. Хорошо известные и широко уважаемые, два ИТ-инженера составляли в то время две трети персонала ИТ-операций, и у них был 25-летний опыт работы в Гладстоне. Как ни странно, что ИТ-персонал покидает безопасный объект в нерабочее время с тремя крупными делами, все было на подъеме.

В середине февраля были сумерки. Алекс и Эндрю приготовились к холоду, когда они вышли на почти пустую автостоянку, неся драгоценный груз в этих трех ящиках. 4Runner Эндрю был близок к этому, он прибыл рано в тот день — важный день, день переезда. Они осторожно затащили тяжелые чемоданы в 4Runner. Большую часть веса составляли сами корпуса, остальной частью был сервер хранения 4U, а в двух других — 36 жестких дисков. Незначительная часть веса, если вообще была, была причиной того, что они делали все это — 200 терабайт данных исследований Института Гладстона.

Они закрепили чемоданы, захлопнули дверь багажника, сели в 4Runner и привели колеса в движение для следующей части своего плана. Они свернули на шоссе 101 и направились на юг. Движение было ужасным, даже автострада; ужин будет поздно, как и многие предыдущие ужины.


Назад к началу
Было много других поздних ночей с тех пор, как они начали этот проект шесть месяцев назад. Проект Fireball XXXL, как в итоге назвали его Алекс и Эндрю, был продиктован их миссией по защите данных биомедицинских исследований Гладстона от неминуемой катастрофы. В неизвестный день середины лета Алекс и Эндрю находились в серверной в Гладстоне в окружении более 900 лент, которые выдавали себя за систему резервного копирования.

Эндрю размышлял: «Это могла быть программа-вымогатель, здание загорелось, кто-то случайно удалил наборы данных из-за записи в командной строке, может произойти любое количество вещей, которые все это уничтожат». Алекс, махнув рукой по постоянно расширяющейся ленточной библиотеке, добавил: «Мы больше не можем полагаться на это. Ленты громоздкие, грязные и портятся, даже если вы все делаете правильно. Мы тратим так много времени на устранение неполадок, и в 2020 году нам больше не придется заниматься устранением неполадок». Они решили найти лучший способ получить свои данные за пределами офиса.

Проверка в реальных условиях
Алекс и Эндрю перечислили цели своего проекта: получить 1,2 петабайта данных, которые в настоящее время хранятся на месте и в их ленточной библиотеке, безопасно за пределами площадки, иметь возможность добавлять 10–20 терабайт новых данных каждый день и иметь возможность удалять файлы по мере необходимости. Тот факт, что практически каждый байт рассматриваемых данных представляет собой исследование биомедицинских заболеваний, включая данные, непосредственно применимые к борьбе с глобальной пандемией, означал, что они должны были выполнить все вышеперечисленное с минимальным временем простоя и максимальной надежностью. Да, и все это им пришлось делать, не увеличивая свой бюджет. Оптимисты.

Поскольку облачное хранилище является наиболее многообещающим вариантом, они сначала подумали о создании собственного частного облака в удаленном центре обработки данных в пустыне. Они быстро отказались от этой идеи, поскольку первоначальные затраты были ошеломляющими, не говоря уже о текущих затратах на персонал и техническое обслуживание для управления удаленными системами.

Они решили, что лучший вариант — использовать облачное хранилище, и сравнили ведущих поставщиков. Алекс был знаком с Backblaze, много лет следил за блогом, особенно с сообщениями о статистике дисков и модулях хранения. Более того, облачное хранилище Backblaze B2 было простым и доступным. Кое-что он не мог сказать о других ведущих поставщиках облачных хранилищ.

Следующей проблемой была пропускная способность. Вы могли подумать, что соединения со скоростью 5 Гбит / с будет достаточно, но у них была организация, которая требовала много исследований и данных, и использовала это соединение. Они затачивали свои карандаши для пропускной способности и, с учетом институционального использования, подсчитали, что могут легко поддерживать загрузку 10–20 терабайт в день. Проблема была в том, что загрузить существующие 1,2 петабайта данных было бы совсем другим делом. Они связались со своим поставщиком пропускной способности и им сказали, что они могут удвоить свою текущую пропускную способность до 10 Гбит / с по многолетнему соглашению почти в два раза дороже, и, кстати, пройдет от нескольких месяцев до года, прежде чем они смогут начать работу. Ой.

Они обратились к Backblaze, который предложил свой сервис передачи данных Backblaze Fireball, который мог загружать около 70 терабайт за поездку. «Даже с Fireball нам потребуется 15, может быть, 20 поездок туда и обратно», — сетовал Эндрю во время очередного ночного сеанса просмотра резервных копий. «Я бы хотел, чтобы у них была коробка побольше», — сказал Алекс, на что Эндрю ответил: «Может, мы сможем построить такую».

Родился план: построить сервер хранения mongo, загрузить на него данные и отнести в Backblaze.


Спросите
Прежде чем они появились в центре обработки данных Backblaze со своим творением, они решили, что сначала должны спросить Backblaze. Алекс отметил: «В большинстве компаний, если вы скажете:« Эй, я хочу построить массивный файловый сервер, доставить его в ваш центр обработки данных и подключить. Разве вы мне не доверяете? »Они ответят:« Нет, 'и повесили трубку, но Backblaze этого не сделал, они прислушались».

После долгих размышлений Backblaze согласился разрешить персоналу Gladstone войти в ближайший центр обработки данных, который был точкой пиринга для сети Backblaze. В восторге от того, что они нашли родственных душ, у Алекса и Эндрю появился партнер в проекте Fireball XXXL. Хотя это сотрудничество было уникальной возможностью для обеих сторон, для Эндрю и Алекса это также означало бы больше поздних ночей и буррито в микроволновке. Теперь это не имело значения, они чувствовали, что у них есть отличный шанс реализовать свой проект.

Сборка
Алекс и Эндрю выделили некоторый бюджет на, казалось бы, несвязанный проект: построить собственный сервер хранения, который будет служить системой горячего резервирования для текущих активных лабораторных проектов. Таким образом, если в лаборатории что-то пойдет не так, они смогут при необходимости получить последнюю сохраненную версию данных. Используя эти средства, они поняли, что могут построить что-то, что будет использоваться в качестве их огромного Fireball XXXL, а затем, когда циклы передачи данных будут завершены, они могут перепрофилировать систему в качестве резервного сервера, на который они заложили бюджет.

Вдохновленные Backblaze Storage Pod с открытым исходным кодом, они работали с Backblaze над спецификациями для своего Fireball XXXL. Они пошли по пути нестандартной сборки, начав с шасси 4U и больших дисков, а затем добавили несколько мощных компонентов.

Огненный шар XXXL
  • Шасси: 4U Supermicro с 36 отсеками, 3,5-дюймовое дисковое шасси, построенное iXsystems.
  • Процессор: Двухъядерный Intel Xeon Gold 5217.
  • Оперативная память: 4 x 32 ГБ (128 ГБ).
  • Диски данных: 36 14 ТБ HE14 от Western Digital.
  • ЗИЛ: 120 ГБ NVMe SSD.
  • L2ARC: 512 ГБ SSD.
По сути, они построили систему RAID 1 + 0 на 200 терабайт с 36 отсеками для репликации данных с помощью rclone. Эндрю отметил: «Rclone требует больших ресурсов как в отношении ОЗУ, так и циклов ЦП. Когда мы определяли систему, нам нужно было убедиться, что у нас достаточно мощностей, чтобы rclone мог передавать данные со скоростью 10 Гбит / с. Это не просто чтение с дисководов; для этого нужна обработка".

Загрузка
Gladstone запускает TrueNAS в своих локальных производственных системах, поэтому имело смысл использовать его на недавно построенном сервере передачи данных. «Мы смогли отправить ZFS с наших внутренних серверов на то, что выглядело как гигантский внешний жесткий диск из-за отсутствия лучшего описания», — сказал Эндрю. «Это позволило нам выполнять репликацию на уровне блоков в сжатом виде, поэтому было намного выше производительность при копировании данных в эту систему».

Эндрю и Алекс ранее решили, что они начнут с четырех наборов данных размером более 40 терабайт каждый. Каждый набор данных представляет собой годы исследований в соответствующих лабораториях, помещая их в верхнюю часть очереди резервного копирования за пределами предприятия. В течение 10 дней они загрузили данные в Fireball XXXL. По завершении они выключили систему и удалили диски. Открыв чехлы Turtle с пенопластом, которые они приобрели ранее, они осторожно поместили шасси в один корпус, а 36 дисков — в два других. Они закрыли одеяла и направились в вестибюль Гладстона.

В дата-центре
В конце концов Алекс и Эндрю прибыли в центр обработки данных, где они нашли необходимую точку пиринга сети Backblaze. При входе последовали проверки, и хотя Backblaze поручился за ребят из Гладстона, процесс входа был трудным. Как и должно быть. Оказавшись в назначенной комнате, они подключили несколько кабелей, ввели несколько команд терминала, и данные начали загружаться в их учетную запись Backblaze B2. Fireball XXXL работал, как и ожидалось, с устойчивой скоростью передачи от 8 до 10 Гбит / с. На загрузку всех данных ушло чуть больше трех дней.

Через несколько недель они совершат еще одну поездку и запланировали еще два. С каждой поездкой все больше данных Gladstone надежно хранится за пределами площадки.

Институты Гладстона с более чем 40-летней историей и более 450 сотрудников являются мировым лидером в области биомедицинских исследований сердечно-сосудистых и неврологических заболеваний, геномной иммунологии и вирусологии, причем некоторые лаборатории недавно переключили свое внимание на SARS-CoV- 2, вирус, вызывающий COVID-19. Исследователи из Gladstone полагаются на свою ИТ-команду, чтобы защитить и защитить свои жизненно важные исследования.


Эпилог
Прежде чем вы загрузите свой 200-терабайтный медиа-сервер в заднюю часть внедорожника или пикапа и направитесь в центр обработки данных Backblaze — остановитесь. Хотя мы восхищаемся находчивостью Эндрю и Алекса, с нашей стороны процесс был трудным. Процедуры безопасности, связанные с ними документы и время, необходимое для того, чтобы наши герои Гладстона получили доступ к центру обработки данных и нашей сети с их Fireball XXXL, были «существенными». Тем не менее, мы рады, что сделали это. В ходе этого процесса мы многому научились, и, возможно, когда-нибудь мы предложим наш собственный Fireball XXXL. Если да, то мы знаем, где найти пару парней, которые умеют спроектировать одну систему ударов. Спасибо за поездку, господа.