Детально о расширенной защите от DDoS



Прошло больше двух лет с момента запуска услуги Защита от DDoS в Selectel. За прошедшее время ею воспользовались более 100 клиентов компании, на защиту поставлено более 200 единичных IP-адресов, а некоторые клиенты защищают сразу подсети /24.

За это время система отразила более 200 крупных атак объемом более 10 Гбит/сек каждая, а объем трафика через систему очистки вырос в 5 раз. Наблюдались и атаки типа TCP SYN известного бота Mirai, которые пересекали отметку мощности в 70 Гбит/с при 17 миллионах пакетов в секунду.

Учитывая полученный опыт защиты от DDoS-атак, были введены дополнительные меры защиты. Например, были разработаны уникальные алгоритмы очистки, работающие вплоть до уровня L7 модели OSI, которые базируются на поведенческом анализе трафика, создавая алгоритм работы настоящего пользователя.

Для требовательных ресурсов, где доступность превыше всего, мы предлагаем дополнительную степень защиты от DDoS-атак — Расширенную защиту.
blog.selectel.ru/all-details-of-ddos-protection/

Расширенная защита
Все DDoS-атаки, классифицируя их по целям, можно разделить на следующие группы:

Атаки, целью которых является перегрузка полосы пропускания. Примерами атак этого типа могут служить уже упоминавшийся выше UDP-флуд, ICMP-флуд (он же пинг-флуд), и другие практики рассылки пакетов, которые не запрашивались. Сила таких атак измеряется в гигабитах в секунду. Она постоянно увеличивается и сейчас может составлять до 100 и более гигабит в секунду.
Атаки на уровне протоколов. Как и следует из названия, атаки этого типа используют ограничения и уязвимости различных сетевых протоколов. Они «бомбардируют» сервер паразитными пакетами, и он становится неспособным обработать запросы легальных пользователей. В качестве примера можно привести SYN-flood, teardrop и другие атаки, нарушающие нормальное движение пакетов внутри протокола на разных стадиях.
Атаки на уровне приложений, которые нарушают нормальное функционирование системы, используя уязвимости и слабые места приложений и операционных систем. Эти атаки незаметны для стандартных анализаторов, так как составляют порой до 1 Kpps. Стандартные меры защиты не могут выявить столь мелкий всплеск трафика, следовательно для защиты требуется всегда постоянная фильтрация и комплекс очистки всегда должен знать алгоритмы работы самого приложения.
Существующая система защиты хорошо работает с атаками на перегрузку полосы пропускания и приемлемо — на уровне протоколов.

Расширенная защита от DDoS-атак добавляет в комплекс очистки трафика еще одну ступень — специальный прокси-сервер для защиты от атак на уровне протоколов и на уровне приложений.

Маршрут движения очищенного трафика по обычной защите от DDoS-атак показан на схеме:


Для расширенной защиты от DDoS-атак необходимо, чтобы ответы на запросы от сервера шли также через комплекс защиты от DDoS (очистки трафика):


В самом простом случае на стороне комплекса защиты от DDoS индивидуально настраивается программно-аппаратное решение, работающее по принципу прокси-сервера. Это решение пропускает через себя все данные к защищенному ресурсу и обратно.

Если говорить об HTTP, то адрес клиента добавляется прокси-сервером в HTTP-заголовок (например, X-Forwarded-For или X-Real-IP). Но это работает только для HTTP-like протоколов (HTTP, HTTP/2, HTTPS, Speedy). Для других протоколов, как базирующихся на TCP, так и на UDP, добавление заголовков не происходит.

Схема работы
Предположим, IP-адрес клиента 192.0.2.55.
Реальный IP-адрес защищаемого сервера — 198.51.100.15.

Для того чтобы поставить сервер на расширенную защиту от DDoS необходимо заполнить специальный опросник, указав какие приложения на сервере требуется защищать от атак. Сколько приложений — столько подлежащих защите объектов:
  • если таких приложений два — мы говорим о двух защищаемых объектах;
  • если одно — об одном;
  • если приложение работает со множеством TCP/UDP портов и быть зарезервировано или сбалансировано по нагрузке (например, если это SIP-proxy, то приложение работает как с TCP-, так и с UDP-трафиком) — это одно приложение;
  • если добавить веб-сервер, мы получим еще один защищаемый объект. Например, защищаем SIP-proxy, который должен быть доступен из интернета как sip.example.ru.
Тогда Selectel выделяет пару IP-адресов:
  • 203.0.113.34 — для установки на защищаемом сервере;
  • 95.213.255.45 — для прокси-сервиса на стороне комплекса защиты от DDoS.
В DNS-записях значение А-записи для sip.example.ru устанавливается в 95.213.255.45.
Клиент 192.0.2.55 обращается к сервису по DNS-имени, к сервису по IP-адресу 95.213.255.45.

Этот адрес доступен по маршрутизации через сеть партнера и таким образом весь входящий трафик от клиентов к серверу попадает на комплекс очистки:


На прокси-сервисе происходит обработка трафика следующим образом:
  • Был: (src-ip 192.0.2.55, dst-ip 95.213.255.45).
  • Cтал: (src-ip 192.168.0.45, dst-ip 203.0.113.34) — 192.168.0.45 — адрес, который партнер по защите от DDoS использует для NAT-пулов.


Защищенный IP-адрес сервера 203.0.113.34 известен только администратору сервера, Selectel и партнеру по защите от DDoS. Настоящий адрес сервера 198.51.100.15 известен только администратору сервера и Selectel.

Настоящий адрес сервера 95.213.254.15 используется для организации соединений со стороны сервера, например, для apt-get update и для администрирования и мониторинга сервера, допустим, по ssh.

Защищенный (203.0.113.34 в примере) и настоящий (198.51.100.15 в примере) адреса необходимо держать в секрете, а их рассекречивание может привести к DDoS-атаке мимо комплекса очистки.

Адрес 203.0.113.34 используется для связи сервера с комплексом очистки трафика и недоступен из интернета. Для соответствия адресу связи сервера с комплексом очистки трафика настоящего адреса защищаемого адреса Selectel применяет статическую маршрутизацию вида:
route 203.0.113.34/32 via 198.51.100.15/

Обратный трафик от сервера в интернет к клиенту проходит следующим образом:

Сервер посылает IP-пакеты (src-ip 203.0.113.34, dst-ip 192.168.0.45).
Маршрутизатор Selectel вычленяет из входящего от сервера трафик на адреса вида 192.168.0.45 (адреса NAT-пулов комплекса очистки трафика) и отправляет трафик обратно в комплекс очистки трафика:


Пакет проходит через комплекс очистки в обратном направлении, где в IP-пакете заменяется адреса SRC-IP и DST-IP. Клиенту в итоге уходит IP-пакет (src-ip 95.213.255.45, dst-ip 192.0.2.55):

Преобразование адресов происходит прозрачно как для клиента, так и для сервера. Если адреса устройств передаются внутри пакетов (в частности, SIP пакеты содержат внутри адреса сторон), то эти пакеты изменяются внутри за счет ALG-обработки внутри комплекса защиты от DDoS. На сегодняшний день комплекс поддерживает ALG профили для FTP, TFTP, SIP, RTSP, PPTP, IPSec.

Поддерживаемые приложения
Для расширенной защиты от DDoS требуется тонкая настройка комплекса очистки. На сегодняшний день мы можем предложить расширенную защиту для следующих приложений:
  • Веб-сервер (HTTP)
  • Шифрованный веб-сервер (HTTPS).
  • TeamSpeak
  • Counter-Strike
  • Minecraft
  • Microsoft RDP
  • DNS
Если вашего приложения нет в списке, то комплекс все равно может быть настроен под него в индивидуальном порядке. Будет проведен анализ трафика, созданы специальные алгоритмы, которые относятся именно к вашему приложению.

Для приложений, обрабатывающих защищенный трафик (HTTPS, другие протоколы с поддержкой TLS) необходима передача приватного ключа на комплекс защиты от DDoS для организации корректного проксирования. Без передачи ключа защита на уровне приложения становится невозможной, а возможности ограничиваются уровнем протоколов.

Заключение
Расширенная защита от DDoS-атак рассчитана как на HTTP-ресурсы, так и на другие: TeamSpeak, CounterStrike, DNS.

По HTTP-трафику — комплекс ориентирован на полный L7-анализ проходящих пакетов и хорошо справляется с различного рода HTTP-атаками: XSS, SQL-injection и так далее.

Нам и нашему партнеру очень нужна обратная связь комментарии по данной услуге. Мы заинтересованы в том, чтобы сделать нашу услугу максимально эффективной.

Заказ соответствующих услуг возможен в панели управления в разделе Сетевые услуги.
my.selectel.ru/network/services/order

Приглашаем на Nutanix Day: особенности платформы, кейсы и живая демонстрация



Приглашаем на Nutanix Day — единственное мероприятие Nutanix в России!
Компания Nutanix — абсолютный лидер гиперконвергентных решений. В гиперконвергентной инфраструктуре все элементы — серверы, хранилища, сети — объединяются в единое целое, и пользователь управляет ими через общую консоль.

Также выступят:
  • Игорь Сысоев, директор по продажам Selectel. Тема доклада: «Selectel — дата-центр будущего»;
  • Виталий Кузьмичев, директор по развитию EuroUnic. Тема доклада: «Опыт в реализации гиперковергентных сред»;
  • Дмитрий Шевченко, директор по развитию бизнеса «Крикунов и Партнеры Бизнес Системы». Тема доклада: «КПБС — ведущий партнер Nutanix».
Кроме докладов в программе:
  • экскурсия по дата-центру крупнейшего российского IaaS-провайдера;
  • кофе-брейки;
  • фуршет в лаунж-зоне и личное общение.

Для кого
Мероприятие будет интересно CIO, IT-директорам, архитекторам и специалистам по виртуализации и облачным решениям.
Когда и где
Ждем вас на Nutanix Day 31 января (среда) по адресу Санкт-Петербург, ул. Цветочная, 19, конференц-холл Selectel. Начало регистрации в 12:20, первый доклад в 13:00.
Не упустите возможность бесплатно посетить эксклюзивное мероприятие Nutanix в России.

selectel.timepad.ru/event/648222/

24 января в конференц-холле Selectel пройдет пятый OpenStack митап

www.meetup.com/ru-RU/OpenStack-Russia-St-Petersburg/events/246061055/?eventId=246061055

Как написать плагин для Neutron, если реально нужно, Вадим Пономарёв, Селектел
— кратко об архитектуре Neutron
— когда стоит заниматься разработкой своего плагина
— как нужно вести разработку не изменяя код апстрима
— на примере плагина 'foobar' проследим разработку и добавление новых фич, таких как:
— расширение Neutron API собственной функциональностью
— добавление кастомных полей в существующие объекты Neutron
— работа с системными событиями Neutron
— добавление функциональности failover и auto scheduling
— расширение функциональности ML2 плагина Neutron
— подходы к тестированию кода в Neutron

Разработка облачной системы управления географически распределенными ЦОДами, Пётр Федченков, ИТМО
— Цели и задачи проекта Системы Интегрированного Управления (СИУ) множеством географически распределённых ЦОДов с каналами связи между ними
— Инструменты и подходы, применяемые в системе для выполнения задач по предоставлению ВМ, хранилищ, сетевых функций
— Основные технические решения и технологии
— Архитектура платформы, основные компоненты
— Подходы к развертыванию системы
— Текущая стадия разработок
— Планы по развитию проекта и поиск разработчиков

Как это работает: мониторинг энергоснабжения ЦОД Selectel



Как вы думаете, что может быть общего у этих трех событий — пользователь ВКонтакте запостил у себя новую фотку, кто-то другой совершил покупку в сети с оплатой картой через систему Assist, а третий человек пригнал свой автомобиль в CarPrice и его цена появилась в аукционной ленте?

И каждый из этих людей получил тот результат, который ожидал?

Ответ таков: все эти действия стали возможными благодаря тому, — здесь мы пропустим множество промежуточных уровней и взаимосвязей … — что на серверы с этими приложениями в дата-центре Selectel подается надежное и бесперебойное электропитание, и его параметры все время контролируются. Да, как бы примитивно это ни звучало, в основе всей индустрии IT лежит именно инфраструктура электропитания. Мы уже рассказывали о системе электроснабжения ЦОД в деталях в статье Путь электричества, а сейчас время осветить тему мониторинга.


blog.selectel.ru/kak-eto-rabotaet-monitoring-energosnabzheniya-cod-selectel/

Гостевой пост: работа с in-memory database с помощью Intel Optane



Константин использовал сервер с Intel Optane SSD для работы с in-memory database (memcached, Redis в соответствующем режиме, Apache ignite и так далее). Использованное в тестах устройство хранения информации Intel Optane SSD DC P4800X подключалось как IMDT (с использованием Intel Memory Drive Technology), доступная ОС и приложениям как оперативная память.

Другой областью применения может являться использование Memory Drive для содержания большой фермы виртуальных машин. Предполагается, что большое количество оперативной памяти в этом случае существенно упростит и удешевит процедуру тестирования программных продуктов.

NVMe сами по себе не новость. NVMe в режиме Memory Drive — это нечто новое. Для одного из проектов, которыми занимается Константин, важна эффективная обработка большого массива данных. Результаты тестов самые обнадеживающие, DRAM-режим с использованием Intel Memory Drive Technology поможет существенно сократить ресурсы на обработку.

Надеемся, что опыт Константина будет интересен нашим читателям.
blog.selectel.ru/in-memory-database-with-intel-optane/

Altcoin: просто взять и намайнить


Учитывая ажиотаж, поднятый с криптовалютами и майнингом, нам стали поступать запросы по поводу аренды оборудования с видеокартами, и как мы относимся к майнингу на наших мощностях в целом. Зачастую потенциальные клиенты не особо понимали, что и как можно получить на базе наших услуг или хотели получить готовое решение.

В предыдущей статье мы рассматривали вопрос майнинга, так сказать в виде привета из не сильно далекого прошлого. В этой статье проведем живое тестирование типовой платформы готового решения тарифа GL-80, стоимостью 57000 руб, но обо всем по порядку.

С хардфорком, товарищи!
16 октября, в 05.22 UTC на блоке 4,370,000 в сети Ethereum состоялся ранее запланированный хардфорк.

Обновление Byzantium внесло в сеть Ethereum следующие изменения:
  • отсрочена «бомба сложности» еще на 18 месяцев;
  • увеличена скорость подтверждения блоков;
  • снижена награда за блок с 5 до 3 ETH;
  • добавлены криптографические элементы zk-SNARK, которые призваны внести новые функции конфиденциальности, встречаемые в настоящий момент в криптовалютах вроде Zcash;
  • расширены возможности виртуальной машины Ethereum и так далее.
Выше перечислены только основные и, скажем, достаточно критичные для майнеров пункты. Общим итогом, как не странно, стала несколько увеличившаяся добыча в итоге, порядка 5-6%. Да, не много, но все же приятно.

Тестируем, на чем майним (готовое решение)
В руки нам попала платформа тарифа GL-80 и мы решили этим воспользоваться.
Конфигурация следующая:
  • Процессор: 2 × Intel Xeon E5-2630v4 2.2 ГГц
  • Память: 64 ГБ DDR4
  • Диски: 2 × 480 ГБ SSD
  • Видеокарты: 8 × GTX 1080
С одним лишь изменением, вместо двух GTX 1080 были установлены карты Titan X. Это было сделано лишь в качестве эксперимента, дабы провести тестирование и поделиться результатами. В сети опыт использования Nvidia Titan X в добыче криптовалют описан еще не был.

Rig собран на базе решения от компании Asus ESC8000 G3, которое изначально применяется как платформа для сборки графических станций и не предназначено для использования в добыче криптовалюты. Карты со стандартной системой охлаждения, то есть референсной (турбины).

Операционная система использовалась Windows 2016 Standard, с драйверами последней версии, хотя для карт Nvidia это не столь важно. Разгон карт осуществлялся при помощи MSI Afterburner 4.4.0 путем увеличения рабочих частот памяти и графического ядра. Для удобства доступа использовался TeamViewer, но при наличии белого IP у Rig’а вполне достаточно и RDP.

Программы-майнеры:
  • Claymore’s Dual GPU Miner v10.1
  • Zec Miner 0.3.4b
  • ccminer-x64-2.2.2-cuda9
  • nhm_setup_2.0.1.4

Выбираем, чем майнить (программу-майнер)
Забегая вперед, скажем, что результаты тестирования оказались вполне ожидаемыми.

Приступим к тестированию.
Первым проводился тест на алгоритме Dagger-Hashimoto, а именно валюте Ethereum. Использовался Claymore’s Dual GPU Miner v10.1.

Да, для нелюбителей обновляться! Можем заверить, что обновиться все же стоит, так как по сравнению с версией 9.8 можно выиграть 1 Mh/s.

GTX 1080 показали ожидаемые результаты, порядка 25,5 — 26 Mh/s при следующем разгоне: Ядро +200 Mhz, Память +950 Mhz. Titan X просто отказались работать с этим алгоритмом, приводя к сбою майнера и перезагрузке.

Далее тестировали работы с алгоритмом монеты Zcash — Equihash. Разгон осуществлялся только по ядра до +300 Mhz. На этом алгоритме результаты были несколько оптимистичнее, т.к. Titan X проявили себя с положительной стороны и давали порядка 10% большую производительность по сравнению с GTX 1080, но в целом результаты не утешительные. В виду достаточно плотной компоновки карты начинали сильно греться и буквально через несколько минут работы все поочередно выпадали из работы из-за перегрева.


Следующий алгоритм был взят в использование, исходя из рекомендованного по доходности публичных калькуляторов. На момент проведения тестирования — VertCoin на алгоритме Lyra2RE и ccminer-x64-2.2.2-cuda9. Здесь также использовались все 8 карт, в сумме выдавали порядка 250 — 300 Mh/s, что примерно укладывалось в суточную расчетную доходность в 2,3 монеты, при учете производительности.

Напоследок был протестирован NiceHash miner 2.0.1.4. и получили доход в 0.0022 BTC/день, что по текущему курсу составляет 921.26 RUB/день. Достаточно неплохо.

А надо ли оно (выгодно ли 0_о)
Приведем сводную сравнительную таблицу показателей воркеров с пула, где ведется добыча Ethereum. Наша платформа с именем Asus. В подсчетах нам интересен столбец Sent Hashrate, в котором отображаются показатели производительности фермы, в терминологии пула Worker. Вознаграждение получаем по количеству обработанных Share (количеству найденных решений) за отдельно взятый час в соответствии с Calc Hashrate.


Четыре нижние строки — это как раз те самые фермы, которые принимали участие в написании предыдущей статьи.

Наконец удалось получить кошелек нового Bitcoin Gold, как ни странно, не на бирже или официальном холодном кошельке. Рабочее решение было обнаружено в приложении кошелька Coinomi для Android. Майнинг монет нового форка стартовал 1 ноября, но найти рабочее решение кошелька удалось только 6 ноября. На заявленных биржах монета, как таковая, появилась, но создать новый кошелек не удавалось по техническим причинам. В основе монеты используется алгоритм Equihash, что дает возможность добывать BTG при помощи GPU.

Как указывалось ранее, наша конфигурация сервера из-за плотной компоновки карт крайне быстро нагревается до критичных температур при добыче.


Немного математики
На момент проведения тестов суммарный суточный доход со всех 5 ферм на эфире достигал в среднем 0,12 — 0,125 монеты, то есть на добычу монеты уходило порядка 8 дней. Для удобства расчетов примем доходность в 0,125 eth в сутки. На тестируемую ферму приходилось 0,025 монеты в сутки. Повторюсь, в добыче эфира участвовало только 6 карт GTX 1080, то есть при использовании 8 карт добыча должна составить 0,033 eth. В месяц это составляет 1 монету —, не густо, при учете текущего курса, но мы за эмиссию.

Попробуем подытожить результаты. Расчетная доходность по монетам:
  • Ethereum — 16 500-17 500 руб.
  • Sibcoin — 33 670 руб.
  • Vertcoin — 33 594 руб.
  • NiceHash miner 2 — 27 630 руб.
Также отметим, что используя наши услуги, вы получаете именно сервер определенной конфигурации с инфраструктурой, что дает возможность использовать его на все 146%, не опасаясь выхода из строя какого-либо компонента, который будет заменен в установленные SLA сроки. В то время как при использовании собственного оборудования, изначально его необходимо приобрести, собрать и разместить. Оплачивать потребляемое электричество, а это порядка 1,5 кВт/ч, и обеспечивать достаточное охлаждение, что уже включено в нашу услугу. В дополнение на сервере, можно разместить, например, небольшой сайт, чтобы мощности процессора и внушительный объем оперативной памяти не простаивали зря.

selectel.ru/services/dedicated/
blog.selectel.ru/altcoin/

Intel vs AMD: сравнительные тесты



Мы регулярно публикуем статьи о новых процессорах компании Intel, которая в течение многих лет была и остаётся лидером на рынке серверных решений. Однако в последнее время ситуация меняется: другие игроки активно заявляют о себе. В марте этого года компания AMD выпустила процессоры серии EPYC, о которых появляются интересные и в целом положительные отзывы (например, статья на сайте Anandtech). Но лучше один раз увидеть и потрогать руками, чем читать сотни статей в специализированных журналах и в Интернете.

Впрочем, заслуживающих внимания статей было не так уже и много. Более того, компания AMD с самого момента появления процессоров не публиковала почти никаких технических и маркетинговых материалов: на текущий момент они исчерпываются статьей AMD EPYC SoC Sets 4 World Records on SPEC CPU Benchmarks, которая имеет скорее маркетинговый, чем технический характер.

Возможность всё попробовать самим нам представилась: недавно у нас появился сервер на базе процессора AMD EPYC 7351. Мы решили сравнить его с процессорами линейки Intel Skylake SP и провести тесты производительности. Результаты тестирования и их детальный анализ приводятся ниже.

blog.selectel.ru/intel-vs-amd-comparative-tests/

новости ноября и исследование российского облачного рынка

Это рассылка Selectel — здесь мы собираем важные новости, отчеты о мероприятиях и все, что может быть вам полезно и интересно. В сегодняшнем выпуске: исследование российского облачного рынка с практическими рекомендациями и полезной статистикой, две увлекательные статьи в блоге и новые рассказы об интересных проектах на серверах Selectel.

Переезд в облако: практические рекомендации
Selectel и аналитическое агентство iKS-Consulting провели исследование потребности бизнеса в облачных услугах — изучили мнения 180 руководителей IT-подразделений средних и крупных российских компаний.
Скачайте отчет бесплатно, чтобы узнать:
  • ✓ почему российские компании переходят в облако и какие типы решений они предпочитают;
  • ✓ как выбрать облачного провайдера;
  • ✓ все этапы переезда в облако с конкретными рекомендациями;
  • ✓ типичные проблемы компаний при переходе в облако.
Исследование поможет выбрать надежного провайдера и перенести инфраструктуру в облако — мы собрали свежую полезную статистику и практические рекомендации от ведущих экспертов страны.

Новые сервисы Selectel Lab
Проект Selectel Lab дает возможность протестировать наши новые решения и образцы оборудования от лидирующих поставщиков. Свежие новинки проекта:
  • ✓ решение для защиты веб-ресурсов от взлома Wallarm WAF, которое обнаруживает и блокирует атаки на уровне приложений;
  • ✓ SaaS-решение «МойОфис @Selectel Pro» — версия пакета МойОфис Профессиональный, которая работает в нашем облаке (об этой услуге мы подробно рассказывали на сайте);
  • Veeam® Cloud Connect Backup — услуга позволяет перенести резервные копии в облако Selectel, и получить дополнительный уровень надежности. Вы можете настроить облачный репозиторий Selectel прямо в консоли Veeam.

Новый уровень DDoS-защиты
Обновили портфель услуг для защиты от DDoS‑атак: добавили решения от лидера рынка кибербезопасности Qrator Labs.

Дисконт-серверы
Специальное предложение — мощные конфигурации серверов по отличным ценам. Интернет-канал 1 Гб/с, локальная сеть, автоматическая установка ОС, KVM-консоль и Rescue режим.

Фильтры в списке серверов
Мы добавили фильтры на сайте и в панели управления, чтобы было удобнее выбирать конфигурации — сортируйте серверы по цене, количеству ядер, локациям и другим параметрам.

Комплектующие нового поколения в конфигураторе
В нашем конфигураторе появились комплектующие Intel нового поколения для тех, кому нужны выделенные серверы особой конфигурации: процессоры Xeon® Gold 6140 и Xeon Silver 4114, а также твердотельные накопители DC S4500, DC P4600 и Optane™ SSD DC P4800X. Выбирайте комплектующие самостоятельно — мы подготовим сервер к работе в течение двух суток. Вы можете узнать о предложении подробнее или сразу перейти в конфигуратор.

Мероприятия
Highload++ 2017
7 и 8 ноября на кампусе бизнес-школы «Сколково» прошла одиннадцатая ежегодная конференция Highload++, которая ориентирована на разработчиков высоконагруженных систем. Команда Selectel побывала на мероприятии и подготовила подробный отчет.

Вебинар
Вместе с представителями компании МойОфис провели вебинар «Знакомство с облачным офисом МойОфиc @Selectel Pro для государственных организаций». Запись трансляции есть на YouTube — посмотрите, чтобы узнать о назначении, функционале и применении этого пакета приложений в государственных структурах. Информация будет интересна руководителям IT-подразделений госструктур, начальникам отделов, системным администраторам структурных подразделений госструктур и представителям системных интеграторов, которые выполняют проекты SaaS и PaaS для госструктур.