Получайте 100% кэшбэк в течение 3 месяцев



Начните использовать Managed Kubernetes или облачные базы данных до конца 2023 года и получайте кэшбэк 100% за их использование. Кэшбэком можно полностью или частично оплатить любой продукт Selectel. Акция действует 3 месяца.

Как получить кэшбэк
  • 1. Зарегистрируйтесь или войдите в свой аккаунт в панели управления .
  • 2. Подключите Managed Kubernetes или облачные базы данных.
  • 3. Создайте тикет с уведомлением об участии в акции и дождитесь подтверждения.
  • 4. Пользуйтесь сервисами в течение месяца.
  • 5. В начале следующего месяца вы получите 100% кэшбэк на сумму, потраченную на Kubernetes и базы данных.
promo.selectel.ru/cashback

Как мы подключили более 250 000 IoT-устройств к облаку

Inheaden недавно помогла одному из своих клиентов подключить IoT-устройства к облаку с помощью Kubernetes Kosmos. Кристиан Хайн, директор по информационным технологиям в Inheaden, расскажет нам, как им это удалось, какие проблемы им пришлось преодолеть и какие обходные пути им пришлось предпринять, чтобы добраться туда, где они должны были быть. Но мы позволим Крису рассказать вам о деталях.

Наш клиент в сфере Интернета вещей (IoT) производит устройства IoT, которые отправляют данные, такие как положение GPS, состояние батареи, данные датчиков и т. д. Связь с устройствами IoT осуществляется через UDP, а проприетарный микросервис затем собирает эти UDP. пакеты и декодирует их.

Требование было довольно простым: серверная часть должна иметь возможность отправлять пакет на одно устройство IoT, которое включает или выключает функцию. Хотя это звучит довольно просто, это не сразу стало возможным из-за специфического способа настройки инфраструктуры. Нам нужен был реальный IP-адрес IoT-устройства для управления функцией при прямом соединении, но по разным причинам, о которых мы поговорим ниже, IP-адрес не сохранился при передаче.

В конце концов мы нашли решение, используя Kubernetes Kosmos и Envoy от Scaleway. Но давайте немного вернемся назад, чтобы увидеть, с чего мы начали и как мы туда попали.

Подключение устройств IoT с мобильным соединением и ограниченной пропускной способностью
Мобильное соединение устройств IoT устанавливается с помощью радиотехнологии LPWAN. Этот стандарт радиосвязи, разработанный для межмашинной связи (M2M), является энергоэффективным, может проникать в здания и надежно передавать данные. Недостатком этой технологии является то, что у нас ограниченная пропускная способность.

Из-за этого перегруженные протоколы, такие как TCP, — не лучший способ отправки данных с устройства на серверную часть. Поскольку HTTP/1 и HTTP/2 основаны на TCP, использование HTTPS для соединения также нежелательно.

Так как же эти устройства безопасно передают данные?
В области стандарта радиосвязи LPWAN имя частной точки доступа (частное APN) от оператора мобильной сети (MNO) используется для передачи данных с устройств IoT в сеть компании с использованием устаревшего VPN-подключения. Это устаревшее VPN-подключение заканчивается на виртуальной машине (ВМ). Каждое устройство получает частный IP-адрес из CIDR сети частного класса, например, 10.200.0.0/16.

Смена облачного провайдера
У предыдущего провайдера нашего клиента инфраструктура была настроена таким образом, что устаревший туннель VPN был напрямую подключен к соответствующим серверам для рабочей среды и среды предварительного просмотра.

После перехода на Scaleway несколько лет назад мы настроили его таким образом, чтобы пакеты UDP от устройств IoT поступали на рабочий сервер через туннель Wireguard VPN. На рабочей и промежуточной ВМ у нас был статический внутренний IP-адрес, на который устройства IoT отправляли свои данные.

Затем входящие данные на производственном и промежуточном серверах передавались в кластер Kubernetes.

Наша задача: сохранить IP-адрес IoT-устройства
Проблема, связанная со старой инфраструктурой, заключалась в том, что клиентский IP-адрес IoT-устройства (например, 10.200.21.22) не сохранялся — мы не могли видеть реальный IP-адрес устройства, потому что у нас было несколько уровней NAT между ними.

Даже когда мы пытались полностью маршрутизировать пакеты, у нас все еще был уровень NAT на последнем этапе, где UDP-пакеты поступали в кластер Kubernetes через nodePort. Здесь IP-адрес источника был изменен на внутренний IP-адрес узла Kubernetes (подробнее о работе сети Kubernetes).

Почти два года не было необходимости видеть IP-адрес IoT-устройства, так как UDP-пакеты приходили на коннектор декодирования и передавали информацию об IMEI и IMSI устройства, которые затем можно было присвоить в бэкенде.

Так было до тех пор, пока наш клиент не захотел, чтобы серверная часть могла отправлять пакет на устройство IoT для включения или выключения функции. Для этого нам нужен был реальный IP-адрес IoT-устройства. И это не сработает с промежуточными слоями NAT. Мы смогли ответить на пакеты с UDP-устройства, но не более того.

Как бы мы решили эту проблему?
Прокси-протокол в помощь?

После некоторых исследований мы обнаружили, что протокол прокси ( HA Proxy — Proxy Protocol ) может помочь нам сохранить IP-адрес клиента. Многие реализации прокси-протокола имеют дело с обычными HTTP-соединениями. Но, как было сказано выше, HTTP у нас не работает. Нам нужна была реализация, которая работает с UDP.
И там возможные решения снова начали таять — мы смогли найти только несколько возможных подходов, которые могли бы соответствовать нашим потребностям.

Подход udppp/mmproxy
mmproxy — это инструмент, разработанный Cloudflare для сохранения IP-адресов клиентов в среде UDP. В дополнение к mmproxy мы также используем небольшой инструмент под названием udppp. udppp работает на локальном порту, на который отправляются исходные пакеты UDP.

udppp добавляет к пакету заголовок Proxy Protocol и отправляет его на IP-адрес, указанный вами в командной строке. Затем mmproxy берет этот пакет, удаляет заголовок Proxy Protocol и создает новый пакет с IP_TRANSPARENTопцией волшебного сокета. Подробнее о режиме IP Transparent читайте в этом блоге от Cloudflare.

С помощью записи в блоге Энди Смита о сохранении клиентских IP-адресов в Kubernetes мы реализовали sidecar-контейнер на микросервисе декодирования. После некоторых тестов мы увидели, что этот подход работает — IP-адрес клиента сохраняется.

Хотя подход был успешным, на некоторые вопросы все еще не были даны ответы:
  • Как пакеты возвращаются на устройство IoT без прохождения уровня NAT?
  • Насколько масштабируемо это решение?
Чтобы решить первую проблему, мы попробовали несколько хаков iptables для отправки пакетов обратно, но в конечном итоге этот подход не удался — обратный маршрут был невозможен.

Подход Wireguard Pod
Как упоминалось ранее, мы использовали Wireguard для подключения старых серверов к серверу шлюза. Поэтому мы подумали: «Почему бы нам не попробовать разместить соединение в кластере?»

С этой идеей мы создали Wireguard Pod, который установил безопасное VPN-соединение с нашим сервером-шлюзом. После некоторых взломов iptables и нескольких ошибок мы обнаружили, что этот подход также не работает, потому что сеть Wireguard не известна узлу Kubernetes напрямую. В этом случае внутренняя маршрутизация кластера невозможна. Маршрутизация на основе политик тоже не работала. Обратного пути тоже не было.

Нам было трудно понять, что эти два подхода вообще не работают. Поэтому я решил сделать шаг назад и покопаться в голове, чтобы найти подход. Затем я понял, что читал кое-что о пирах в документации для Kubernetes CNI Kilo, которая лежит в основе настоящего многооблачного предложения Scaleway, Kubernetes Kosmos.

Kubernetes Kosmos и Envoy спешат на помощь!
Прочитав некоторую документацию о пирах Kilo, я опробовал подход с ресурсом пиров Kilo:
apiVersion: kilo.squat.ai/v1alpha1
kind: Peer
metadata:
  name: gw-peer
spec:
  allowedIPs:
    - 10.4.0.99/32 # Single IP for the peer
    - 192.168.0.0/24 # Device testing subnet
  publicKey: <PublicKey of the Peer>
  persistentKeepalive: 10

С помощью инструмента командной строки kgctl мы получили конфигурацию Wireguard для шлюза. После добавления этой конфигурации настал волнующий момент, и мы протестировали наш подход на поде. Мы задавались вопросом, сохранились ли у нас как клиентские IP-адреса, так и двунаправленное соединение с тестовой установкой. К счастью, ответ на оба вопроса был «да» — это сработало! Мы приступили к подключению тестовой установки к нашему кластеру Kosmos.

Маленький шаг назад
Для распределения трафика IoT-устройств нам нужна была возможность балансировки нагрузки входящих UDP-пакетов. Самым простым решением было использование IP сервиса Kubernetes.

Мы попробовали этот подход, но потом увидели внутренний Kilo IP узла. Мы обнаружили, что входящие пакеты на исходный IP-адрес Kubernetes получают исходный NAT (SNAT). Мы создали issue в репозитории kilo на Github, и сопровождающий проекта подтвердил, что Kubernetes будет SNAT-пакеты в текущей реализации.

К сожалению, эта проблема нарушает реализацию, чтобы сохранить исходный IP-адрес устройства IoT. А без исходного IP-адреса мы все равно не сможем обратиться к IoT-устройству.

Последняя часть головоломки: Посланник
Для решения задач, с которыми мы столкнулись, необходимо было сработать следующие моменты:
  • Нам нужна балансировка нагрузки UDP-пакетов на наши модули Kubernetes.
  • Поскольку IP-адрес модуля меняется каждый раз, системе необходимо обновлять существующие новые IP-адреса модуля.
  • Исходный IP-адрес IoT-устройства должен быть сохранен.
После некоторого исследования подходящих прокси, которые могли бы решить нашу проблему, мы наткнулись на Envoy. После некоторых попыток мы разработали конфиг, который поддерживал все указанные пункты:
  • Envoy поддерживает балансировку нагрузки с пакетами UDP.
  • Envoy может разрешать измененные IP-адреса подов с помощью dns_resolversопции — понадобилось только создание безголового сервиса в Kubernetes.
  • С помощью опции use_original_src_ip: trueмы смогли сохранить исходный IP-адрес устройства IoT.
  • После того, как все критерии были выполнены, мы настроили производственную среду, в которой сервер с VPN-туннелем был подключен к кластеру в качестве узла Kilo. После тщательного тестирования все заработало, как и ожидалось.


Как только мы узнали, как заставить его работать с одним устройством, мы подключили к облаку более 250 000 устройств IoT с помощью решения Scaleways Kubernetes Kosmos.

6 причин перейти на управляемый Kubernetes


Kubernetes можно установить на своем оборудовании, либо использовать managed-решение от облачного провайдера. При самостоятельной установке on-premise вы можете более гибко контролировать процесс настройки, но есть риск столкнуться с определенными сложностями.

Если вы уже пробовали разворачивать и поддерживать кластер на своем оборудовании, то, возможно, знакомы с ними. Если только планируете это сделать — прочитайте статью, чтобы разобраться в преимуществах управляемого Kubernetes.

В статье мы расскажем про шесть причин перейти на Yandex Managed Service for Kubernetes®, чтобы избежать сложностей развертывания и администрирования кластера Kubernetes on-premise. Заметим, что это не все преимущества, которые дает управляемый Kubernetes, а только самые значимые, на наш взгляд.

Легко установить и настроить кластер
Kubernetes — сложная система, для установки и настройки которой нужны определенные знания и навыки. Чтобы получить стабильную и безопасную систему, важно правильно установить и настроить кластер: права доступа, сетевые настройки, мониторинг, резервное копирование, файловое хранилище и многое другое.

Чтобы это сделать, необходим специалист с определенными навыками. А лучше два, чтобы они подменяли друг друга на время отпусков и болезней. Хорошо, если у вас в компании уже есть такие люди. Если нет, потребуется время, чтобы их найти или обучить. При этом нужно постоянно поддерживать их квалификацию, потому что Kubernetes развивается и в нем появляются новые возможности и особенности.


Чтобы избавиться от сложностей установки и настройки кластера, можно воспользоваться управляемым Kubernetes. Создать готовый кластер в облаке сможет любой технический специалист, знакомый с Kubernetes на базовом уровне. Для этого не нужны глубокие знания администрирования, достаточно понимать основные концепции, чтобы выбрать параметры сети, группы безопасности, количество подов на узле.

Кластер создается в веб-интерфейсе несколькими кликами. Облачный провайдер выполнит за вас все основные настройки и интеграции, настроит резервное копирование, подключит мониторинг и настроит сеть.


Кроме UI-интерфейса Yandex.Cloud также предлагает возможность создания и управления кластером через API, CLI, SDK и Terraform. Главное преимущество такого способа — автоматизация рутинных задач по созданию и управлению ресурсами кластера. Облачный провайдер берет на себя большую часть задач по установке и настройке кластера, что ускоряет процесс развертывания и исключает необходимость иметь профильных специалистов в штате компании.

Кластер обновляет облачный провайдер
Как и любую систему, кластер нужно обновлять. В решении on-premise обновлять и тестировать кластер вам придется самостоятельно. А так как Kubernetes довольно сложен в освоении, не исключена вероятность ошибок, исправлять которые придется самостоятельно, что потребует много времени. А обновить кластер без простоя — еще более сложная задача.

В Managed Service for Kubernetes облачный провайдер сам обновит ваш кластер. Мы предварительно тестируем новые версии Kubernetes и только после этого устанавливаем их на кластеры клиентов. Вам остается лишь проверить корректность работы сервисов и приложений в новой версии Kubernetes. Как клиент может контролировать процесс обновления:
  • Вы выбираете расписание установки обновления. Можно указать конкретные дни недели и время. Например, в ночь с пятницы на субботу, чтобы в случае непредвиденных ситуаций еще оставалось время до понедельника. При этом перед установкой обновления мы вас обязательно оповестим.
  • Вы можете отключить автообновление и устанавливать каждое обновление отдельно, по мере необходимости. Это полезно, когда нет возможности заранее выделить единое время для установки всех обновлений.

У Kubernetes есть три релизных канала для обновления:
  • Rapid. Содержит самые свежие версии Kubernetes. На канале часто появляются минорные обновления с новой функциональностью и улучшениями. Рекомендуем для непродуктивных сред — разработки и тестирования — потому что тут раньше всего появляется функционал, который скоро появится в продуктивном канале regular.
  • Regular. Хорошо протестированные версии. Сюда они попадают из канала rapid. Мы рекомендуем использовать канал для большинства продуктовых сред.
  • Stable. Самые стабильные версии, которые включают в основном исправления ошибок и проблем безопасности. Сюда они попадают из канала regular. Этот канал мы рекомендуем, если вы хотите как можно реже обновлять кластер. Например, в Kubernetes работают второстепенные приложения, которые не нужно постоянно дорабатывать и тестировать. Также этот канал подойдет, если у вас долгий цикл разработки приложений.


Поддерживается автомасштабирование узлов
Kubernetes умеет горизонтально автомасштабироваться, то есть добавлять и освобождать узлы по мере нагрузки. Когда нагрузка на кластер растет — автоматически подключаются новые узлы, чтобы ваши приложения не тормозили. А когда нагрузка падает, ненужные узлы освобождаются.

Такая возможность есть в любой установке Kubernetes, даже on-premise. Но если настраивать автомасштабирование на своем оборудовании, необходим постоянный резерв свободных машин. При этом большую часть времени резервные машины скорее всего будут простаивать. К тому же не исключена вероятность, что в момент особо высокой непредвиденной нагрузки может не хватить даже этих резервов.

Облачный Kubernetes лишен этих недостатков:
  • Вам не нужно думать о простое оборудования. При создании кластера вы выбираете минимальное и максимальное количество рабочих узлов. Когда нагрузка небольшая, в вашем кластере будет минимум узлов. Когда нагрузка возрастает — кластер сам подключит дополнительные узлы из ресурсов облака.
  • Облачный провайдер обладает огромными вычислительными ресурсами и может масштабировать ваш кластер вплоть до любого необходимого числа узлов. Ваша система сможет выдержать даже очень высокие нагрузки.

Можно создать региональный отказоустойчивый кластер
При создании продуктового кластера важно позаботиться об отказоустойчивости. Как правило, для этого создаются несколько реплик мастер-узлов.

Если разворачивать кластер на своем оборудовании, как правило, все узлы будут находиться в одном дата-центре или географической зоне (городе или районе). Дата-центры обеспечивают надежность инфраструктуры резервированием, дублированием критических узлов и гарантируют SLA. Но в случае аварии природного или техногенного характера, а также человеческого фактора, ЦОД перестанет функционировать и вы полностью потеряете доступ к кластеру.

Managed-решение Yandex.Cloud позволяет создать региональный отказоустойчивый кластер. У нас есть три собственных дата-центра, расположенных во Владимирской, Рязанской и Московской областях. Если в одном из дата-центров произойдет авария, мастер-узлы в остальных дата-центрах продолжат работать и ваши приложения будут доступны.


А тестовые среды не предъявляют таких требований к отказоустойчивости, для них вы можете создать зональный кластер с одним мастер-узлом. Это будет намного дешевле, чем региональный отказоустойчивый кластер.

Работает с RBAC и IAM
Большие компании используют системы учетных записей, такие как Active Directory или G Suite. И для того чтобы интегрировать их с кластером Kubernetes, необходимо устанавливать и настраивать дополнительные инструменты.

В Managed Service for Kubernetes вы можете подключить систему и использовать свои учетные записи без дополнительных настроек. Для этого на уровне IAM настраивается федерация через протокол SAML. И тогда учетные записи ваших пользователей интегрируются с платформой Yandex.Cloud и им можно назначать роли.

Наш IAM является дополнением к стандартному Kubernetes RBAC. Используя обе системы, можно решать более сложные задачи по разграничению доступа. Например,

разработчику из всех ресурсов платформы необходим доступ только к кластеру Kubernetes. Для этого внутри облака ему выдаются минимальные права, достаточные лишь для подключения к кластеру. А внутри Kubernetes при помощи RBAC ему добавляются необходимые полномочия на объекты кластера.

Удобный UI «из коробки»
У Kubernetes нет стандартного графического интерфейса управления. Существуют сторонние разработки от сообщества, которые нужно устанавливать, настраивать и предоставлять к ним доступ.

Мы разработали собственный интерфейс управления, доступный всем пользователям Managed Service for Kubernetes. Он уже интегрирован с Yandex IAM, что позволяет легко раздавать полномочия. Вы можете использовать наш дашборд вместо одного из сторонних или вместе с ним. Вот несколько его ключевых возможностей:
  • Детализация узлов, деплойментов, подов и сети. По каждому из этих объектов можно увидеть текущее состояние, посмотреть перечень событий и логов. Это позволяет отлаживать приложения без необходимости устанавливать дополнительные инструменты в кластер. Из детализации деплоймента можно увидеть, какие поды создались на его основе, и сразу перейти к ним.
  • Детализация потребления ресурсов. По каждому узлу или поду можно увидеть, сколько тратится CPU, памяти и сетевых ресурсов.
  • Настройка детализации. В каждой детализации можно добавлять или убирать поля для отображения.
  • Гибкий фильтр событий. В кластере генерируется довольно много событий, поэтому мы создали гибкий фильтр. Можно фильтровать по пространству имен, уровню или сущности.
Мы постоянно дорабатываем дашборд, поэтому в будущем у него появятся новые возможности. Нашим клиентам ничего не нужно устанавливать или обновлять, они сразу будут получать новые возможности.


Краткие итоги
Мы рассмотрели шесть главных преимуществ Managed Service for Kubernetes® перед классическими on‑premise‑кластерами Kubernetes.

Но это не все, что может предложить Yandex.Cloud для решения задач Kubernetes. С помощью платформы вы можете решать и другие задачи, например находить уязвимости в образах контейнеров, шифровать секреты в etcd‑хранилище или интегрироваться с инструментами CI/CD. Более подробно об этих и других возможностях вы можете узнать из нашего вебинара «Kubernetes. Managed на все 100%».

Научим работать с Managed Kubernetes за 7 шагов



Мы запустили бесплатный курс по Managed Kubernetes на платформе «Слёрм». Курс можно пройти за 1 день, все занятия — в открытом доступе. Есть теория, разбор кейсов и практические задачи. Все участники смогут протестировать работу Managed Kubernetes в «Облачной платформе Selectel».




slurm.io/managed-kubernetes-selectel/

Представляем Vultr Kubernetes Engine!



В течение года команда Vultr расширила поддержку драйверов и добавила новые инструменты для Kubernetes. Если вы хотите развернуть Kubernetes на нашей всемирной платформе, теперь вы можете интегрировать любой из доступных плагинов Vultr и собственные инструменты и подключить свой кластер к сети за считанные минуты.

Мы также рады объявить о новой опции — Vultr Kubernetes Engine (VKE). VKE — это управляемое предложение Kubernetes от Vultr, которое будет доступно в виде закрытой бета-версии в начале 2021 года. Мы призываем всех, кто заинтересован в использовании Kubernetes, присоединиться к бета-версии и попробовать ее!

Что такое Kubernetes?
Kubernetes, также известный как K8s, представляет собой самовосстанавливающуюся, сбалансированную по нагрузке, автоматизированную платформу оркестровки, которая управляет контейнерами, хранилищем, DNS и масштабирует вашу инфраструктуру в соответствии с меняющимися нагрузками. Подобно тому, как стандартный 40-футовый транспортный контейнер и грузовой корабль произвели революцию в межконтинентальной торговле и сделали торговый клиппер пережитком, стандартизированные программные контейнеры и платформы оркестровки, такие как Kubernetes, заменяют ручные методы настройки. Если вы вручную настроите свои серверы, вы увидите, как Kubernetes может упростить вашу работу.

В экосистеме Vultr доступен широкий спектр решений K8s. Вы можете просмотреть все сторонние интеграции и управляемые сервисы, посетив страницу решений Kubernetes.
www.vultr.com/kubernetes/

Зачем использовать Vultr Kubernetes Engine?
Наш Vultr Kubernetes Engine запускает ваши контейнерные рабочие нагрузки в кластере, интегрированном с Vultr DNS, блочным хранилищем и балансировщиками нагрузки. Мы управляем плоскостью управления и рабочими узлами для вас, чтобы вы могли сосредоточиться на плавном масштабировании своих приложений в зависимости от требуемого хранилища или общедоступного трафика. Не беспокойтесь о сложности управления Kubernetes — мы поддержим ваш кластер и предоставим Control Plane.

Цены на Vultr Kubernetes Engine
Цены на Vultr Kubernetes Engine просты — вы платите только за ресурсы, которые развертываете. Счета за ваши экземпляры, блочное хранилище и балансировщики нагрузки выставляются по обычной почасовой ставке. Кроме того, Vultr предоставляет и управляет плоскостью управления без дополнительной оплаты!

Присоединяйтесь к бета-тестированию
Если вы поместили свои приложения в контейнеры или хотите это сделать, Vultr Kubernetes Engine подойдет вам. Сосредоточьтесь полностью на развертывании и управлении вашим приложением. Избавьтесь от сложной задачи обслуживания кластеров Kubernetes и позвольте VKE управлять этой инфраструктурой.
my.vultr.com/kubernetes/

Присоединяйтесь к списку ожидания, и команда Kubernetes пришлет вам приветственный набор, как только начнется бета-тестирование. Или узнайте больше, посетив страницу решений Kubernetes.

Vultr Native Kubernetes Поддержка



Vultr позволяет разработчикам внедрять инновации и создавать передовые технологии, предоставляя масштабируемую и надежную глобальную облачную платформу. Вот почему мы очень рады поделиться нашими планами предложить несколько дополнительных обновлений с открытым исходным кодом, включая Kubernetes!

Kubernetes Cloud Control Manager
Kubernetes — это ведущее решение с открытым исходным кодом для оркестровки контейнеров, которое предлагает такие функции, как автоматическое развертывание, откат, самовосстановление, горизонтальное масштабирование, обнаружение служб, балансировка нагрузки и многое другое. Kubernetes также является частью очень большой и богатой экосистемы, поддерживаемой Cloud Native Computing Foundation (CNCF). Эта экосистема предлагает широкий выбор современных инструментов, которые могут помочь вам быстро построить контейнерные кластеры промышленного уровня с минимальными усилиями.

Наш новый Cloud Controller Manager позволяет развертываниям Kubernetes управлять ресурсами Vultr. Мы выпускаем ранний доступ к этому часто запрашиваемому плагину на нашей странице Github. Вы можете загрузить этот проект, сотрудничать с нами или сообщить о проблемах непосредственно на нашем портале Vultr CCM Github.
kubernetes.io/docs/concepts/architecture/cloud-controller/
github.com/vultr/vultr-cloud-controller-manager

Дополнительные обновления портала Github
Мы также представляем несколько новых способов взаимодействия и работы с нашим облаком:
  • Наш официальный водитель Docker.
  • Поддержка ACME + Terraform — Vultr DNS Challenge Provider.
  • Скоро: CSI Vultr Kuberenetes! Плагин Cloud Storage Interface позволит вам динамически выделять тома для вашего кластера Kubernetes.
www.github.com/vultr

http://www.vultr.com

Упрощенная поддержка Kubernetes



Недавно мы объявили о нашем первоначальном предложении поддержки нативных Kubernetes. Сегодня мы рады представить вам два новых дополнения, которые расширяют нашу платформу и упрощают развертывание Kubernetes на Vultr.

Vultr Контейнер для хранения контейнеров
Контейнерный интерфейс хранилища (CSI) позволяет платформам управления контейнерами, таким как Kubernetes, предоставлять и обрабатывать тома в вашем кластере. Чтобы динамически предоставлять тома для ваших модулей Kubernetes, определите утверждение постоянного тома. Vultr CSI создаст тома и автоматически присоединит или отсоединит их от назначенных модулей. Найдите больше информации о Vultr CSI на нашей странице GitHub или CSI для Kubernetes.

Подготовка кластера Kubernetes для Vultr требует установки и настройки специфичных для Vultr плагинов. Мы создали Condor, чтобы упростить этот процесс. Condor — это модуль terraform, который предоставляет кластеру Kubernetes Vultr CCM и CSI, а также частную сеть и несколько других ключевых компонентов. Как минимум, вам нужно определить имя кластера, чтобы начать. Однако вы можете развернуть и определить версии Kubernetes, версии Docker, количество рабочих и многие другие параметры, чтобы создать специализированный кластер, соответствующий вашим потребностям. Condor — это самый быстрый способ автоматического развертывания кластера Kubernetes на Vultr. Чтобы узнать больше о Condor, пожалуйста, посетите страницу GitHub.

http://www.vultr.com

Работа кипит: майский дайджест Selectel



Ежемесячный дайджест Selectel вновь на связи. Незаметно наступило лето, которое мы встречаем с большими надеждами и планами. Эпидемия идет на спад, жизнь возвращается в прежнее русло, а мы продолжаем двигаться вперед, развивая наши сервисы и услуги.

В этом письме расскажем о выходе из беты в релиз «Облачных баз данных» и Managed Kubernetes, бесплатном доступе в Selectel Chat и Selectel Meet, а также новой услуге «1С в облаке». В конце письма — публикации в СМИ, анонсы и записи вебинаров, статьи в блоге и актуальные вакансии.



Коммерческий релиз Managed Kubernetes
Managed Kubernetes

28 мая из беты вышел сервис Managed Kubernetes. За полгода с момента начала тестирования мы пофиксили баги и добавили недостающие фичи. Теперь вы можете создать отказоустойчивый кластер и сконцентрироваться на продукте — управление вашим Kubernetes мы возьмем на себя!

Вместе с релизом вышли и новые обновления: автоматическое восстановление работы нод, автоматическое обновление патч-версий и поддержка провайдера для Terraform. Создать кластер Kubernetes в несколько кликов можно в нашей панели управления. А если где-то не разобрались, читайте подробную инструкцию в базе знаний.
kb.selectel.ru/docs/selectel-cloud-platform/kubernetes/
selectel.ru/services/cloud/kubernetes/

Коммерческий релиз «Облачных баз данных»
1 июня «Облачные базы данных» вышли из бета-тестирования в коммерческую эксплуатацию. Теперь вам доступно вертикальное и горизонтальное масштабирование, аварийное переключение в случае сбоя и резервное копирование баз данных. Обновления предотвратят потерю данных — вы сможете восстановить кластер до любого состояния, в пределах прошедших 7 дней, вплоть до конкретной секунды. А для быстрого масштабирования инфраструктуры увеличивайте конфигурацию виртуальной машины и добавляйте к ней дополнительные реплики.
Пришло время создать свой первый кластер баз данных в my.selectel.ru. Подробнее об услуге читайте в базе знаний.
selectel.ru/services/cloud/managed-databases
kb.selectel.ru/docs/selectel-cloud-platform/managed-databases/

Обновления в «Выделенных серверах»
Новые процессоры AMD EPYC Rome

Мощное усиление новыми процессорами AMD EPYC Rome в серверах произвольных конфигураций. Для вас доступны 3 новых CPU: AMD EPYC 7282 (16 ядер, 2.8 ГГц), AMD EPYC 7452 (32 ядра, 2.35 ГГц) и AMD EPYC 7742 (64 ядра, 2.25 ГГц). Они позволяют собрать сервер как с одним, так и с двумя процессорами.

А значит, 128 ядер в одном физическом сервере — теперь реальность! Вы сможете создать высокопроизводительные системы для развертывания виртуализированных сред, работы с аналитикой и базами данных. Соберите серверы с новыми процессорами в конфигураторе!
selectel.ru/services/dedicated/configurator/

Тегирование серверов
У вас есть выделенные серверы, заказанные после 30 ноября 2019 года, или серверы линейки Chipcore Line? Если да, то новость для вас — в панели управления доступна возможность назначать теги и фильтровать по ним оборудование. Теперь вы легко отличите продакшн-сервер от сервера для тестовой среды, отфильтруете серверы из определенной группы или кластера, а также сможете добавить полезную служебную информацию для коллег! На каждый сервер можно назначить максимум 10 тегов до 64 символов каждый.

Также каждому серверу по умолчанию назначен 1 системный тег, характеризующий, к какому типу он относится. Серверы, размещенные на Colocation, — тег «Colo», произвольной конфигурации — тег «Custom», готовые — тег «Prebuilt», линейки Chipcore Line — тег «Chipcore».

История расхода трафика и CSV-выгрузка
Прогнозируйте потребление трафика — в my.selectel.ru теперь можно самостоятельно получить выгрузку или посмотреть статистику за последние 5 месяцев. Найти информацию можно в контекстном меню на странице сервера.


Обновления услуг администрирования
Managed Backup

Хотите хранить свои данные надежно и защитить их от потери? Команда администраторов Selectel поможет в организации полного цикла резервного копирования и восстановления ваших проектов на базе сервиса «Резервное копирование как услуга». Сфокусируйтесь на бизнес-задачах и предоставьте заботу о сохранности данных нам! А еще мы можем взять вашу IT‑инфраструктуру на полную поддержку, вплоть до разработки процессов CI/CD. Оставляйте заявку на sales@selectel.ru, расскажем об этом подробнее.
selectel.ru/services/additional/backup-as-a-service

Другие важные новости
Запуск «1C в облаке»

С сегодняшнего дня вам стала доступна услуга «1С в облаке» для построения ваших систем 1C. Используйте все преимущества облачных технологий для доступа к сервисам: отказоустойчивость, гибкое управление ресурсами, полный контроль над инфраструктурой.
Пишите на sales@selectel.ru — расскажем подробнее об условиях и вариантах подключения!

Бесплатный доступ к Selectel Chat и Selectel Meet
Selectel Chat

Мы решили поддержать всех, кто ежедневно созванивается с командой и общается в бесконечном количестве чатов. Даем бесплатный доступ к корпоративному мессенджеру Selectel Chat и сервису для проведения видеоконференций Selectel Meet до 30 июня включительно!
Предложение распространяется для всех новых клиентов «Облачной платформы». Единственное ограничение — подключим максимум 30 рабочих мест. Оставляйте заявку на sales@selectel.ru, если предложение вам интересно.
promo.selectel.ru/chat/
demo.meet.selectel.ru/

Управление Akamai в панели Selectel
Новость для пользователей сервиса CDN Akamai — в последнем релизе мы добавили возможность создания и управления ресурсами через нашу панель управления. Теперь не нужно писать тикет и ждать подключения — вы сами можете создать CDN-ресурс, выбрать провайдера и настроить необходимые параметры в my.selectel.ru.
selectel.ru/services/additional/cdn/


Запуск Data Science Virtual Machine (DSVM)
В июне планируем запустить виртуальные серверы для машинного обучения (ML). Если вы пользователь «Облачной платформы», вам будет доступен образ Ubuntu с предустановленными драйверами GPU, фреймворками и библиотеками для ML. Вы сможете быстро развернуть из образа виртуальный сервер в облаке — на нем сразу будут установлены популярные сервисы для ML.

Мы еще только в начале пути, и нам как никогда важна обратная связь, чтобы сделать крутой продукт. Если вы AI-разработчик, примите участие в опросе. Это не займет больше 5 минут, зато сколько полезного мы сможем узнать.
selectel.ru/services/cloud

Дополнительные настройки безопасности в CDN
Совсем скоро в CDN вы сможете регулировать политики доступа по IP‑адресам, доменам и клиентским приложениям, чтобы данные были под большей защитой. Также появится возможность блокировать ваш контент от копирования на других сайтах и в приложениях (технология Cross-origin resource sharing). И, наконец, то, о чем вы давно спрашивали — автоматический редирект с http на https.
selectel.ru/services/additional/cdn/


Selectel — первый российский IT‑провайдер в Узбекистане
Selectel x IT Park

В мае мы запустили услугу Selectel Office в Узбекистане. У нас большие планы на эту страну — в июле мы запланировали запуск облачных сервисов, а в дальнейшем планируем поэтапный ввод других услуг. Также мы получили статус резидента в Ташкентском IT Park — это аналог российского «Сколково».
До конца 2020 года мы планируем выход на рынок Беларуси и размещение инфраструктуры в 2 российских городах — Екатеринбурге и Владивостоке. Следите за нашими новостями, будет точно интересно!
www.spot.uz/ru/2020/02/24/selectel/
www.kommersant.ru/doc/4349971



selectel.ru/careers/all/

Коммерческий релиз Managed Kubernetes



Здравствуйте!
У нас отличные новости — сегодня наш Managed Kubernetes вышел из беты в коммерческую версию. Теперь мы гарантируем доступность сервиса 24 часа в сутки, 7 дней в неделю, 365 дней в году при SLA 99,50%. Разверните отказоустойчивый кластер и сконцентрируйтесь на продукте — управление вашим Kubernetes мы возьмем на себя!

Создать кластер
Тестирование Managed Kubernetes началось в декабре 2019 года. За полгода функциональность услуги сильно расширилась — мы пофиксили баги, добавили недостающие фичи, провели технические испытания. Хотим сказать вам спасибо — мы получили много обратной связи и во многом благодаря ей существенно доработали сервис.

Что нового появилось в Managed Kubernetes
  • Автоматическое восстановление работы нод. Шаг в сторону отказоустойчивости — если одна нода выйдет из строя, в большинстве случаев кластер автоматически запустит поды на новых.
  • Автоматическое обновление патч-версий и обновление минорных версий по запросу. Изменения пройдут с вашим минимальным участием или вообще без него — мы добавим новые улучшения и пофиксим баги.
  • Terraform-провайдер для Kubernetes. С его помощью вы сможете реализовать управление ресурсами через методологию Infrastructure-as-code (инфраструктура как код).

Стоимость работы одного кластера Kubernetes — 5 997 рублей в месяц. Используя Managed Kubernetes, вы автоматически получаете отказоустойчивый кластер. Серверы нод-групп, входящих в состав кластера, тарифицируются по обычной стоимости ресурсов «Облачной платформы Selectel». В наших ближайших планах — опубликовать API и добавить в продукт поддержку lables/taints.
my.selectel.ru/vpc/home