Рейтинг
0.00

RUvds Хостинг

2 читателя, 87 топиков

Готовьтесь к росту цен



Это был тяжёлый год, был он тяжелей, чем тот.

В этом году Центробанк выставил высокие ставки и фактически перекрыл возможность строить ЦОДы за кредитные деньги. А если что, то дата-центры строятся за колоссальные деньги. То есть исключительно на кредиты — с тем, чтобы потом продавать их мощности и постепенно отбивать кредитные деньги. То же самое происходит в других областях бизнеса, и почти везде практическая невозможность взять кредит означает стагнацию многих направлений бизнеса. За ипотеку же вообще можно слетать в космос!

Почему нельзя взять кредит? Потому что почти нет такого бизнеса, который даст денег больше, чем если просто положить их на счёт в банк. Правда, банкам я бы тоже не стал доверять на 100 % даже в случае депозитов, но это уже другая история.

А дефицит стойко-мест растёт. Уже в прошлые годы всё, что строилось, на 80 % раскупалось ещё на стадии строительства. То есть речь идёт даже не про текущие свободные стойки, а про предзаказы на то, что будет готово только в следующем году.

Цена размещения стойки уже выросла на 9–21 % в зависимости от колокации в России.

Кстати, познакомьтесь со звездой рынка — киргизскими серверами:


Это экспорт из Германии в Кыргызстан. Примерно такие же графики — по Польше, Австрии, Италии и т. п.

Дорожают сами серверы
Особенно если они покупаются новыми. А мы их покупаем новыми, и я знаю, что есть ещё ряд участников рынка, которые тоже покупают их новыми. Конечно, они часто покупались за кредитные деньги, то есть на заёмный капитал, но сейчас при таких ставках это тоже становится абсурдным.

Раньше мы покупали для Казахстана в Казахстане, и нам продавали. А сейчас нам не продают в Казахстане. В смысле даже для внутренних казахстанских ЦОДов не продают.

То есть да, там вроде можно получить все эти разрешения, написать в Минпромторг, но в итоге всё это очень дорого. Конечно, мы покупаем в России и других странах, несмотря на такие проблемы, однако это сильно увеличивает конечную стоимость железа.

ВНЕЗАПНО акционерный капитал стал выгоднее, чем заёмный
Именно поэтому куча всяких провайдеров объявляет о своих планах на IPO. Потому что дешевле продать долю в компании через акции, чем привлечь кредит под развитие. Звучит как бы логично, но именно с точки зрения IPO момент на рынке сейчас неоднозначный. Можно разместиться, привлечь капитал, но сама компания будет оценена не очень высоко. Те, кто всего боится, говорят: «Неблагоприятная обстановка на рынке». Те, кто посмелее, говорят, что это неопределённость, связанная с СВО. Высоких оценок тоже не будет, потому что наш рынок сейчас лишён зарубежных инвестиций.

То есть можно выйти на IPO, но за мелкий прайс. Хотя есть отдельные стратеги, которые смотрят и на 10 лет вперёд, но таких внутри рынка мало. Казалось бы, тут должны появляться наши азиатские друзья и братские народы, но их тоже пока что-то нет.

Вот, например, смешная новость про то, как Селектел хотел-хотел на IPO, но пока бежал, концепция поменялась. Там это назвали «не видит подходящего окна для IPO на фоне рыночной ситуации». Вообще, когда вы проводите IPO, гораздо сложнее манипулировать отчётами и говорить, что у вас первое место на рынке, второе, третье и так далее. Отчётность аудируется очень внимательными и занудными людьми, потом они дадут предварительные оценки, которые могут не сойтись с фантазиями. Возможно, параллельно они ведут торг с каким-то крупным игроком рынка, не знаю, хотят так продать целиком компанию, но это всё мои домыслы. В целом IPO или слияние-поглощение провести сейчас дешевле, чем привлечь кредитные деньги.

Налоговая реформа
Впервые чуть ли не за 20 лет — системно: новые правила, новые налоговые режимы.

Раньше все упрощенцы работали на одной налоговой ставке без НДС. Теперь порог для нулевого НДС снижен до 60 миллионов рублей. Компании с оборотом от 60 до 300 миллионов будут платить НДС по ставке 5 %, а от 300 до 480 миллионов рублей — по ставке 7 %.

Это значит, что многие компании, ранее не платившие НДС, теперь включат его в свои цены. То есть наши поставщики увеличат цены на размер этого НДС. А зачесть его нельзя: если в случае основного (не УСН) налогообложения НДС можно «передавать по цепочке» и каждый раз списывать в вычет, то вот этот НДС УСН-компаний так не умеет. Всем придётся либо повышать цены на свои услуги и товары, либо сокращать маржу, чтобы сохранить прибыльность. Вторых случаев на российском рынке я почти не помню, если что.

Особенно сильно это влияет на отрасли, где много компаний на УСН, например, IT-сектор. Многие IT-компании не зарегистрированы в реестре программного обеспечения и не имеют льгот по НДС. Они выбирали УСН, чтобы не вести отчётность и платить меньший налог. Теперь им придётся адаптироваться к новым условиям и либо оставаться на этой схеме и вести учёт (плюс затраты на софт, кстати), либо переходить на ОСН и тоже менять кучу процессов и строить отдел бухгалтерии. ОСН-компании этого почти не заметят, если их поставщики — тоже ОСН. Но таких на рынке хостинга можно пересчитать по пальцам.

Админы
А админов нет!

Мы недавно искали, прособеседовали где-то порядка 200 человек и взяли двоих. Это не считая тех, кто отсеялся до собеседования. Все эйчары, конечно, сильно недовольны работой с нами. Но мы тоже недовольны работой с ними.

Казалось бы, толпы бездомных голодных девопсов ходят по Долине и ищут, где бы поработать, но при этом в России админы всё ещё дико востребованы. И будут востребованы ещё долго. Ситуация на рынке остаётся напряжённой, и хороших спецов пылесосят, как обычно.

По крайней мере, в ближайшие годы админов будет всасывать Сбер: сейчас они начинают создание крупнейшего хостинг-провайдера. Там куча железа, которое надо обслуживать.
В целом, глядя на рынок, можно сказать, что сейчас создать новую хостинговую компанию, если, конечно, вы не Сбер и не Яндекс, просто невозможно. Потому что раньше команда искалась два-три месяца, а сейчас — год. Плюс смотрите выше про кредиты.

То есть в следующем году новые бизнесы запускаться не будут. По крайней мере, в нашей сфере. Ну только если слабоумие, отвага, Сбер и Яндекс.

Передел рынка
В одном из прошлых постов я ванговал, что сейчас сильные замочат или купят слабых и будет невиданный передел рынка. Так вот, он прошёл тише, чем ожидалось. Мы все были неправы, и из-за влияния регуляторки ничего крупного не случилось: требуемые меры оказались не так страшны, не стоит переживать. Все боялись, а это были просто расходы. Но по сравнению с инфляцией они оказались не очень значимыми. Сейчас надо либо каждый месяц поднимать цены, либо из-за падающей рентабельности экономить на качестве.

Экономить на качестве проще всего, закупая б/у железо, к примеру. Мы не можем так делать, мы ни разу не покупали ненадёжное и некорпоративное. И мы не собираемся отходить от парадигмы, потому что очень большая часть модели — гомогенное железо по всему миру, которое в разы проще админить, чем зоопарки. Значит, будем повышать цены, что делать… Два года мы их не повышали, уже пора.

Что стало с мелкими игроками за год? Мы думали, что они не смогут выполнить требований государства и потому будут вынуждены продаться. Но мелкие разделились на две части: первые не стали входить в реестр, стараясь изо всех сил делать вид, что эта ситуация происходит не с ними. Вторые понесли соответствующие расходы, повысив цены или на какое-то время став неприбыльными. Но при этом никто их не купил.

Почему не купил? Потому что — та-дам! — сделки требуют большого кредитного финансирования. Сейчас именно сделки слияния-поглощения, которых мы все ожидали из-за того, что ставки начали расти, не случились. Типа крупный провайдер должен взять у банка ВТБ кредит, чтобы купить кого-нибудь поменьше. Но крупный провайдер — не идиот и понимает, что с такими ставками эта покупка может быть, мягко говоря, невыгодна. Кроме того, банк понимает, что, может быть, это не лучшая идея — дать денег. И никто никого не покупает по всему рынку. Единственное, что мы наблюдали, — самой громкой сделкой была не прямая покупка, а обмен долями, когда ГК «Астра» купили Rusonyx. Это скорее симбиотическое слияние. Возможно, в экстазе. Там не было потрачено никаких денег. Так что будут вот такие синергии и коллаборации.

Доля винды, конечно, продолжает падать
У нас некогда был чуть ли не стопроцентно виндовый хостинг. По России у нас под ней только 25 % виртуалок. Например, с 1 августа у нас было создано только 4 % виртуальных машин на Windows. Это очень мало.

Кто сидел на окнах — перешёл на Linux. Те, кто мог перейти, уже перешли. А есть те, кто не мог, например, работающие под специальным бухгалтерским софтом, проектировочным софтом для винды или ещё чём-то специальным. Я считаю, что окошки пока рано хоронить: есть большой сегмент около 1С, околобухгалтерского ПО, тонкие клиенты, удалённые рабочие столы, там, где всякие специализированные CRM, торговля, ресторанный бизнес.

Плюс Linux тоже оказался способен на сюрпризы, как мы видели.

Что делают клиенты? Если не могут добраться до лицензии, то берут виртуалку и катят туда десктопную винду, происхождения которой я не могу комментировать: это уже ответственность клиента.

У нас, кстати, винда лицензионная до сих пор. Обсмеётесь! Схема лицензирования сложная и через одно место, но она полностью чистая и белая. Дело в том, что у нас есть некоторые клиенты, которые требуют раскрытия цепочки лицензирования. Это нужно по политикам безопасности или другим аудитам. Конечно, мы подтверждаем аутентичность.

Но и поднимать паруса опять перестали бояться. Даже те, кто раньше был на лицензиях.

Кризис происходит и в Европе
И это вызывает несколько очень смешных следствий. Вот, например, есть такая компания Cogent. Они долго нас атаковали предложениями о сотрудничестве и в начале 2022 года мы хотели входить с ними в партнёрство, а потом в районе марта они взяли и без предупреждения вырубили все российские серверы: просто выключили — и всё! Там были высказывания вроде «Мы не работаем с русскими» и так далее.

Этим летом от них приходит спам типа давайте к нам. Мы посмеялись, мол, с таким таргетом — удачи!

И вот буквально в начале осени звонит телефон:
— Мы Cogent!
— Хорошо. Вы знаете, что мы русские? Идите на …! Зачем вы тратите наше и ваше время?
— Ну погодите, не спешите. Мы тут вернулись в Россию, можно платить на российское юрлицо, вернитесь, мы всё простим! Всё равно хотим работать, давайте поговорим.

Есть другой пример в это же время, когда довольно старый партнёр, который не принимал от нас платежей, а для возможности как-то продолжать работу с ним приходилось всякий раз изобретать способ оплаты, в итоге открыл юрлицо в России и сам прислал письмо, что они рады снова работать напрямую, а для удобства оплаты — вот русское лицо со счётом. То есть вот эти засранцы, кто нас так сильно не мог терпеть и выключал серверы, просто поняли, что без наших денег им грустно. Открыли какое-то ООО, соблюдают законодательство и говорят: «Идите к нам». Про разные интересные моменты говорят: «Нет, сейчас всё поменялось».

Ну, конечно, фразу я им договорил. Разборчиво и чётко. И они — не единственные.

Вообще раньше глобализация была из-за ПО. Очень многих объединяли винда, тот же Linux. А сейчас NIX — у всех свой: китайцев послали, русских послали — теперь не удивляйтесь сюрпризам. Теперь от глобальных решений отворачиваются уже многие, а это только начало пути. Многие в России тоже заявляют, что хотят сделать свои архитектуры виртуализации (!). Это всё вроде хорошо. Но, с другой стороны, лично я недоумеваю, насколько будет возможным всё это со временем администрировать. Представьте, что у вас — Чебурашка v1.0b, а вам искать команду админов. Мне хотелось бы, чтобы у нас был свой софт, но не ценой всего.

Информационная безопасность в ж…
Чем больше разных стандартов, тем меньше они аудируются людьми и пользователями. И, соответственно, больше будет уязвимости. Это минус и самопального ПО.

С другой стороны, зоопарки ПО означают историю Неуловимого Джо, когда мотивация ломать неглобальное решение ниже.

Весь год идут огромные кибератаки, которые фиксируют провайдеры, и активность снова резко выросла в октябре. Речь идёт про атаки на сетевую инфраструктуру, в частности, маршрутизаторы. У кого-то это привело к большим простоям.

Тренд в безопасности такой, что никому ничего не надо доверять. Оптимально — самописные решения, если у вас есть нормальная команда их написать. Как показала практика, крупные фреймворки и даже крупный опенсорс могут оказаться с дыркой (или бекдором) в любой момент. Опять же конкурентам нужно будет как-то договариваться между собой, чтобы противодействовать угрозам.

И напоследок
Некоторые боялись проблем с трансграничной связностью. Пока я их не видел. Понятно, что тренд идёт на борьбу с обходами блокировок. Если что-то случится, то это будет очень постепенно и плавно. Минцифры, кажется, реально обеспокоено ростом компьютерной грамотности благодаря действиям РКН. Сейчас VPN поставили даже те, кто их не ставил никогда, просто не зная, что это и зачем. Блокировка Ютуба подтолкнула людей не к российским платформам (это моё личное субъективное оценочное суждение), а к мобильным операторам (где «оборудование Гугла» не так тормозило) и к установке VPN на домашние роутеры. Я такое видел даже у дремучих пенсионеров, чему удивился невероятно! В общем, похоже, немного переборщили. Понятно, что государству необходимо контролировать медиа. Но для Интернета нужны огромные инвестиции в платформу. Это не вопрос коммерческой компании — это вопрос непосредственно госпроекта. Китай такое затащил. Ну, кстати, может и нам затащит, если не повезёт.

Ещё из анонсов: как я говорил, два года мы не повышали цен, и пора подняться примерно на 10 %. Опять хотим запускать спутник (новый, на этот раз, надеюсь, он будет летать в рабочем состоянии) и там дадим доступ к Powershell’у его борткомпьютера. Без прямой возможности его ушатать, конечно, но поиграть будет можно.

В общем, удачного вам нового года!

Почему мы полностью отказались от HDD





В индустрии есть устоявшееся мнение, что HDD — это устаревающая технология.

Это с одной стороны. С другой стороны, много у кого написано «Медленные SSD», а по факту при тестах они начинают показывать характерные скорости HDD, характерные бутылочные горлышки HDD и вообще ведут себя как жёсткие диски.

У нас тоже есть тариф с HDD-хранилищем, но он довольно давно тариф с HDD-содержащим хранилищем, потому что уже пять-шесть лет (в зависимости от страны) мы закупаем SSD вместо HDD. Совсем скоро последние хрустящие диски уйдут из эксплуатации, и это будет тариф типа SSD с ограничением по скорости для совместимости с легаси-ценами.

При этом мы используем HDD для долговременного хранения.

Основная проблема HDD — это механика
Внутри идут вращение шпинделя, позиционирование головки, трение. Из-за этого количество операций ввода-вывода IOPS физически ограничено.
  • HDD выдаёт около 150–200 IOPS. Задержка — миллисекунды.
  • SSD (SATA/SAS) — десятки тысяч IOPS.
  • SSD NVMe — сотни тысяч IOPS.

Разница — не в разы, а на порядки. В условиях хостинга, когда дисковый массив — это коммунальная квартира, которую делят сотни клиентов, это критично. Если кто-то один впилится в жёсткий диск записью огромного количества фрагментов меньше кластера и в случайные места на карте диска, то остальные будут стоять в очереди и ждать.

Поэтому, даже если вы просто хотите, чтобы ваши клиенты не испытывали тормозов на скоростях обычного HDD и на тарифе с обычным HDD, надо брать SSD.

Изменился сам веб. Если раньше мы на низком уровне по факту работали с крупными файлами и нагрузка ложилась на оперативку, то сейчас из-за Докера и k8s нагрузка стала дробной. Плюс очень многое стало возможным перераспределять на диски, зная, что они потенциально быстрые. Контейнеры, слои образов, логи микросервисов генерируют огромное количество мелких операций random I/O. Запускать кубера на механическом диске — технически плохая идея: диск просто не справится с очередью запросов, и iowait съест производительность процессора, даже если канал свободен.

Что можно сделать
HDD можно соединять в быстрые RAID (с дублированием). ОК, мы давно так делаем, ограничения — те же, просто чуть расширяются.

Есть устройства класса SSD+HDD или оперативка + HDD, где контроллер выступает кэшем. Условно, у вас есть 10 ТБ-накопитель, у которого 10 ГБ — это кэш контроллера (либо 1 ТБ — быстрый SSD, а остальное — хард, бывают разные вариации). Если вы пишете, скажем, 5 ГБ — их хватает контроллер, записывает в быструю память и потом постепенно распихивает по медленной. Если нагрузки неравномерные, как на десктопе, то всё прекрасно, со стороны это быстрый на запись диск и как-повезёт-на-чтение диск (попали в кэш или нет). То есть он как бы сам внутри себя делит данные на «горячие» и «холодные».

Вариантов там много, но мы такого не используем. Во-первых, они не предназначены для нормальных энтерпрайз-применений, когда запись-чтение может идти постоянно 24 часа в сутки и в разные места: в этой ситуации кэш быстро прокручивается, и вы работаете с HDD почти напрямую. Во-вторых, они создают дополнительные точки отказа, например, очень сложно объединяются в RAID. Рассинхрон кэша и основного диска может привести к полной потере данных. Отказ SSD-кэша делает недоступным весь массив. В-третьих, это зоопарк. А зоопарк мы очень не любим.

В итоге мы оставляем только SSD и NVMe
У нас наш тариф HDD — на самом деле постепенная миграция с HDD на SATA SSD. Мы искусственно режем скорость и IOPS до уровня хорошего жёсткого диска.

Почему так:
  • Нам проще и надёжнее обслуживать парк SSD (нет движущихся частей, ниже риск внезапного отказа), чем поддерживать зоопарк из разных типов накопителей. Исторически мы очень сильно стремимся к гомогенности железа, потому что это очень сильно облегчает и разработку, и ремонт-обслуживание, и логистику, и закупки, и вообще всё в хостинге.
  • Если мы переведём всех на быстрый SSD, то нам придётся поднять цены, и тогда клиенты уйдут. На рынке есть умолчание, что есть дешёвый дисковый тариф, но его как раз ограничивают, чтобы он не конкурировал с дорогими. Это искусственное ограничение из-за того, что все так делают — вероятно, в ближайшие годы оно уйдёт.
  • Есть привычки клиентов. Пользователь видит HDD и интуитивно считывает это как набор параметров + это дёшево и много места. Когда написано SSD — в голове вообще ничего не всплывает. Если тот же тариф назвать «Медленный SSD» или «Throttled SSD», то это вообще никак не поможет UX. HDD тут с годами стал просто красивой метафорой. Хотя на некоторых серверах они ещё остались.

А лента, лента для холодного хранения?
Удел HDD сейчас — долгое холодное хранение. Мы оставим пул HDD в хостинге как раз для этого. По большей части — для бэкапов. Это бэкапы, архивы логов, старый медиаконтент. Там, где нужно дёшево хранить терабайты и редко к ним обращаться, механика по-прежнему выигрывает по цене за гигабайт.

У нас сейчас есть услуга, где можно получить очень много места дёшево для архивов — это как раз массив классических механических HDD, на котором выделяется виртуальный ресурс.

Но в бэкапах есть другая технология холодного хранения — старая добрая магнитная лента. Много кто действительно хранит на ней — за этим, например, замечены Google или ЦЕРН.

В целом мы считали и решили, что та же причина зоопарка того не стоит. Выигрыш на наших масштабах не очень большой. Всё же это решение — для специфических задач вроде научных данных (которые надо всё время копить на тот случай, если они пригодятся через 20 лет), банковских архивов с хранением 50 лет, видеоконтента и так далее.

В хостинге, если клиенту понадобился бэкап, он нужен ему прямо сейчас. Никто не готов ждать час, пока робот найдёт кассету и перемотает её на нужное место. Экономия на носителе не перекрывает потерь от времени простоя и сложности введения дополнительной железяки в обслуживание.

Поэтому там, где надо дешевле, у нас только HDD.

Но ведь HDD дают безлимитное хранилище!
Это просто дикая боль.

Приходят клиенты и говорят, что на рынке есть тарифы с безлимитным хранилищем.

Это, если что, физически невозможно. Ну, без потерь данных.

В физическом мире безлимитов не существует. Канал (скорость записи) имеет ёмкость, а диск имеет объём. На уровне гипервизора всегда стоят жёсткие лимиты, чтобы один активный клиент не положил сервер и не лишил ресурсов остальных соседей. Безлимит — это всегда маркетинг. Вам дадут пользоваться ресурсом, пока вы не начнёте мешать другим и в разумных рамках.

HDD никаким образом не означает безлимит. Но да, часто само слово означает для клиента «бюджетное хранилище».

Итого
  • Самые дорогие тарифы — NVMe-диски. Никто нормально не решил проблему объединения их в массивы с избыточностью, поэтому, если вылетает один такой диск, теряются данные. Рядом с ними обычно стоят HDD для бэкапов по расписанию, например, раз в сутки или итеративных раз в четыре часа.
  • Обычные тарифы — SSD-массивы, мы перешли на RAID 10. Вот пост, почему мы так сделали. С них можно подключиться к хранилищу на HDD и получить там виртуальный диск, где физика будет на механических дисках.
  • Дешёвые тарифы — те же SSD-массивы и иногда уже выводящиеся из эксплуатации HDD. В будущем — только SSD-массивы.
  • Технические диски — образы операционок, промежуточные бэкапы и так далее — иногда бывают классическими HDD.

ruvds.com/ru-rub

Клиентам RUVDS стал доступен обновленный интерфейс ispmanager



Панель управления и администрирования Linux-серверов ispmanager стала доступна в обновленном интерфейсе.

Разработчики пересобрали пользовательский опыт, упростив навигацию, адаптировав панель для работы на любом устройстве, а также добавили обширные возможности для кастомизации. Подвергся переработке интерфейс, он стал проще и понятнее, улучшена читаемость текста.



Команда разработчиков вносила изменения с целью сделать дизайн одинаково удобным для пользователей с разными особенностями восприятия.
Обновлённый ispmanager корректно работает на устройствах с любым разрешением экрана. Смартфон, ноутбук или большой монитор — панель автоматически подстраивается под используемый формат.

Широкие возможности кастомизации позволяют не ограничиваться выбором между светлой и темной темой – пользователь может настроить цвета и оформление панели под себя или свой бренд, создавая собственное уникальное рабочее пространство.

Релиз нового интерфейса состоялся на 3 марта (версия 6.139, beta). После ближайшего обновления в панели управления появилась иконка с предложением перейти на новый интерфейс.

ruvds.com/ru-rub

RUVDS запустил дата-центр в Антарктиде



Хостинг-провайдер VPS серверов RUVDS совместно с Университетом морской практики и Арктического туризма и компанией «Стратонавтика» приступил к испытаниям возможностей экспериментального дата-центра, собранного в концепции минимального энергопотребления, для решения научных задач в условиях необходимости минимизации влияния на окружающую среду Антарктиды.

Вычислительные мощности компании запущены на станции Беллинсгаузен. Оборудование было доставлено на станцию в два этапа: сначала – самолётом из России в Аргентинский город Ушайя, а затем – морским путём, через Пролив Дрейка, одним из самых опасных маршрутов в мировом океане.

«Мы подходили к проекту подготовленными, уже имея за плечами опыт запуска ЦОД на Северном полюсе. Но с Антарктидой, конечно, всё было сложнее: сказывались и логистические трудности, и в целом большая масштабность проекта. Наш дата-центр предназначен как для решения научных задач, так и для доступа обычных пользователей. Рассчитываем, что локация в Антарктиде прослужит несколько месяцев, после чего оборудование будет безвозмездно передано в пользование сотрудникам станции», – сообщил генеральный директор RUVDS Никита Цаплин.

Перечень устройств, доставленных на антарктическую станцию, включал в себя защищенное серверное оборудование, подобранное в том числе и с учётом сложностей морского перехода, а также приемник сигнала с космического аппарата. Транспортировка была обеспечена при поддержке аэрокосмической лаборатории «Стратонавтика».

«Это был непростой маршрут. Благо, всё прошло благополучно, и сервер готов к работе с пользователями. Конечно, это экспериментальный некоммерческий проект, но, являясь настоящим дата-центром, служит доказательством перспектив работы серверного оборудования в самых тяжелых условиях. Уверен, этот опыт пригодится в том числе и для освоения Русского Севера», – подчеркнул Денис Ефремов, основатель «Стратонавтики».

ruvds.com/ru/

С Новым годом!



Вот и прошли очередные двенадцать месяцев, и мы снова поздравляем наших коллег, клиентов и партнеров – друзей, с которыми мы имели честь пронестись через ритмичный 2025-й.

В нём было многое. В том числе и то, что хочется забрать с собой в будущее. Весь этот год мы открывали новые площадки, проектировали спутники, запускали ЦОД в Заполярье и даже добрались до Антарктиды, воплощая то, что ещё совсем недавно казалось лишь планами на перспективу. Всё это стало возможным благодаря вам – людям, с которыми мы привыкли делиться всем. В том числе – новогодним настроением, тем самым чувством праздника, которое, посетив нас однажды, согревает ещё долгие месяцы.

Пусть новый 2026-й станет не просто ярким, а прорывным – годом, когда накопленный опыт, знания и силы позволят совершить невозможное, застолбив места там, куда ещё вчера многие боялись даже смотреть. Пусть планы становятся явью, удача сопутствует всем начинаниям, а успех занимает место постоянного спутника ваших будней. В конце концов, мы к этому шли, мы этого достойны, и мы этого заслужили!

С праздником!

ruvds.com

Я наконец-то понял, как открытость может помешать — и отчёт об аварии





В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали.

Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии.
Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы.

Так вот.

Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр.
Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным.

Наверное.

Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

Сбои случаются у всех, но не все про них рассказывают
До понедельника было другое событие.

Место действия — наш ЦОД в Королёве. Он находится на территории особо охраняемого завода. Завод, как и ЦОД, запитан от двух независимых подстанций + у нас есть ИБП, дизели и запас топлива + договор на поставки топлива и аренду дополнительного резервного дизеля.
Тестовые прогоны дизелей случаются регулярно как минимум на смене топлива с летнего на зимнее.

Подстанции в последние годы нестабильны. Там в 2023-м уже был ремонт, в результате которого электрики увидели летающие дверцы шкафа. Вот отчёт по этой истории. На этот раз случилось что-то новое, и обе подстанции вышли из строя. На этот раз нам не сообщали никаких деталей, то есть спектр причин мог быть очень широк: от банального человеческого фактора до диверсий.

Для нас важно то, что обе подстанции перестали подавать электричество в позапрошлый четверг.

ЦОД в Королёве переключился на дизель и почти 4 часа так работал с перерывами на попытки включения линий подстанций несколько раз. Подачу питания восстанавливали несколько раз, мы выжидали, переходили на городской ввод, и несколько раз происходило повторное отключение и снова переход на дизель.

Примерно через 4 часа подача питания от подстанций была восстановлена и оставалась стабильной. Авария закончилась.

Для абсолютного большинства клиентов ЦОДа все эти действия прошли незаметно. Сеть сохранялась, всё оборудование сохраняло работоспособность, так как каждый сервер имеет два блока питания, и они подключены к разным ИБП. Были некоторые проблемы с сетевым оборудованием в это время, которое потребовало перезагрузку коммутаторов по итогу, но в целом эту ситуацию отработали штатно.

В чём прикол с ИБП при «миганиях» света
Важно то, что дизели не стартуют мгновенно. Пока они заводятся, серверы и коммутаторы живут на
  • ИБП — старых добрых батареях. Что произошло:
  • При первом отключении батареи частично разрядились, ЦОД перешёл на дизель.
  • Батареи начали заряжаться от дизеля.
  • Они не успели полностью зарядиться, ЦОД перешёл на городской ввод.
  • Ещё 10 минут они заряжались от города.
  • Затем снова переход на дизели, то есть они разряжаются до примерно 20–30% остаточной ёмкости, потому что не успели зарядиться полностью прошлый раз.

Если свет моргнёт ещё раз, надо либо сутки стоять на дизеле и заряжать батареи, либо рисковать переключением с возможностью не переключиться обратно. Стандартная процедура — стоять на дизеле до безопасного заряда батарей.

Ещё несколько раз свет «мигал», когда питание прерывалось на несколько секунд, без переключения на дизели.

В прошлый понедельник ситуация повторилась
Питание с двух — напомню, независимых с независимыми маршрутами — подстанций пропало на 20 минут.

И вот в этот момент вылетело два ИБП.

Это вызвало отключение четырёх серверов, которые были одновременно подключены к вылетевшим батареям. Остальным серверам повезло больше, у каждого был как минимум один ИБП.

Почему всего четыре, а не полстойки? Потому что эта стойка неполная.

ИБП при такой нагрузке вылетать не должны.

Но!

Во-первых, мы планировали плановую замену батарей в ИБП как раз в начале декабря (напоминаю, авария — уже почти середина декабря). 2 декабря мы оплатили счета за них, и они должны были приехать 3–5 декабря.

Они действительно приехали к поставщику, но коробки оказались битые.

Поставщик отказался поставлять батареи, и был на 100% прав. Если логисты побили коробку — это всегда возврат и тщательная диагностика, возможно, списание.

То есть ровно неделю мы стояли с несколькими батареями за сроком плановой замены.
Срок плановой замены подбирается с запасом. Это не так, что ровно день в день батарея умирает.

Диагностика у нас постоянная, в помещении сверяется температура (она около 18–19 градусов Цельсия), плюс мы смотрим напряжение. У самих ИБП тоже есть собственные средства диагностики, и они зажигают лампочки, если нужна замена батарей.

Лампочки не горели. Температура была нормальная. Батареи давали нормальное напряжение.

Но часть из них почему-то решила взять и умереть при разряде в понедельник в этих двух ИБП.

Понедельник
В понедельник я оказался в странной ситуации:
  • Мы не понимали, что случилось. Но поддержка уже ответила клиентам наиболее вероятной версией, что в результате некоторого испорченного телефона стоило нам сильного недопонимания клиентов. Очень упрощая, клиент спросил, есть ли резервирование ИБП. Админ ответил, что нет, ни один ЦОД так не делает. Админ имел в виду ЦОДы TIER-III (T4 так делает) и резервирование 2N по мощности. ИБП должны выдерживать 2 переключения на своих батареях, и общий пул батарей не дублируется практически никогда. Смысл в том, что это именно общий пул, суммарная ёмкость. Она уже содержит резерв. Но из-за непонимания, что каждый имел в виду, клиент решил, что резервирования питания в ЦОДе нет.
  • Я в это время пытался разобраться с поставщиком и достать батареи быстрее.
  • Через несколько часов мы решили, что вместо расследования причин проблем с батареями, сначала надо провести все плановые замены. Поставщик не успевал с повторной поставкой, поэтому мы поехали и купили батареи в магазине как физики.
  • Дальше мы ковырялись с заменами и всё поменяли.
  • Ещё позже приехали батареи от поставщика.
  • До вечера мы разбирались с тем, что происходит.
  • Затем начислили положенные по SLA компенсации за простой тем, кто пострадал.
  • В итоге мы почти не трогали обсуждения, и в публичном поле творилось не самое хорошее.

Главный мой вопрос был — а что именно случилось с батареями? Они не должны были так деградировать. Плановая замена на то и плановая профилактическая, чтобы такого не было. Если бы горели лампы «замените батарею», можно было бы рассуждать про то, что мы не так обслужили ИБП, но смысл профилактической замены — сделать всё так, чтобы эти лампы никогда не загорались.

Первая наша гипотеза, которую поддержали инженеры, — батареи стали хуже. Тут я обосновать пока не могу.

Второй вариант — частые «мигания» питания могли повредить батареи. Но вообще-то они для этого и спроектированы.

Решения мы везде принимали правильные. Да, при аварии в четверг фактически был проведён стресс-тест системы, но мониторинг показывал, что все ИБП работают, ошибок нет. По этой причине не было никакого мотива каким-то образом там искать прямо в четверг эти батарейные блоки на замену, когда мы знали, что они едут. Принимать битые коробки мы точно не должны были.

Непохоже, что проигрывая эту ситуацию ещё раз, мы поступили бы иначе, имея тот же набор исходных данных для решения.

Почему пострадало относительно небольшое количество серверов. Мы применяем шахматную схему подключения, в которой серверы подключаются в таком порядке, чтобы минимизировать количество потенциально страдающих серверов при отключении более чем одного ИБП по любой причине. Ниже пример логики этой схемы. Если бы не она, отключились бы восемь серверов.



Возвращаюсь к вопросу открытости
Если бы мы ничего никому не сказали, ситуация для нас была бы гораздо легче. Время такое, что всё, что угодно, можно свалить на блокировки, санкции и т.п. И даже подсказывать не надо, это вроде как самоочевидная причина, люди сами очень быстро так подумают.

Если бы мы сказали позже на сутки, не было бы слухов и неправильного толкования того, что сказал саппорт. Они отвечали, ещё не до конца поняв, в чём проблема. Можно было не отвечать? Спокойно. Все так делают.

С другой стороны, пострадало 4 сервера в одном из 20 ЦОДов. Но ощущение из-за нашей публичности было такое, как будто авария крупная. И вот здесь главный минус открытости — складывается впечатление, что у нас такое происходит чаще, чем обычно. Так вот, нет. Ломается всё у всех, но если про это не говорить, это незаметно.

Я всё ещё считаю, что нужно держать в курсе всегда и по имеющимся на текущий момент данным. У нас открыты чаты и комментарии везде, есть сообщество клиентов в ТГ. Да, нас больно бьют за каждую проблему, и некоторые вещи эмоционально очень хочется не рассказывать. Это цена открытости.

ruvds.com/ru-rub

10 лет RUVDS в цифрах и 27 фактах

Всем привет! В этом году нам исполнилось 10 лет! Не так много по меркам истории, но Вояджер за это время вон куда улетел. В этой статье будет 27 коротких интересных фактов о том, что произошло за эти годы — уверены, про многое вы даже не знали (и не могли знать).



1. У компании три дня рождения
  • 18 сентября 2015 года был зарегистрирован домен ruvds.com
  • 16 октября 2015 года были прописаны NS-записи и сайт впервые вышел в онлайн
  • 16 декабря 2015 — первый пользователь сервиса!
Первые два мы уже отметили :) А вот с третьим можете нас поздравлять прямо сегодня в комментариях.

2. 315 500 491 секунда аптайма
Мы на связи 10,004 лет. И с каждой секундой значение растёт!

Посчитаем в наших любимых космических масштабах. Voyager-1 (самый быстрый из двух) удаляется от Солнечной системы со скоростью примерно 17 километров в секунду, то есть за время нашего аптайма на одометре «путешественника» набежало 5 365 508 347 км — не парсек и даже не световой год, но всегда надо к чему-то стремиться! Расстояние от Земли до Солнца (1 астрономическая единица) на данный момент 149 597 870,7 км, то есть за время нашей работы далёкий странник прошёл это расстояние 35,85 раз — 17 раз сгонял туда-обратно и сейчас завершает 18-й ;)

3. 1 207 572 созданных виртуальных сервера
Столько серверов было создано за всё время нашего существования на момент написания публикации. Прямо сейчас эта циферка уже выросла — актуальное значение мы выводим в футере нашего сайта:

Если бы каждый сервер был сухой рисинкой весом в 0,03 грамма, то получилось бы скромных 36,227 кг. Но если этот рис сварить (каждая рисинка станет вдвое тяжелее), то полученной массы хватило бы на 3 864 ролла Филадельфия (гугл выдаёт расход в 150 г риса на 8 штук). До задачи про зерно и шахматы ещё далеко, но опять же, есть к чему стремиться. Да и аппетит пусть нагуляется — ниже будет ещё кое-что вкусное.

4. 20 дата-центров
И было это так:
  • 2016 — открыли свой ДЦ Rucloud в Королёве
  • 2017 — Цюрих (Швейцария)
  • 2018 — Лондон, M9 (Москва)
  • 2019 — Франкфурт, Екатеринбург, Казань и Санкт-Петербург
  • 2020 — Останкино (Москва), Амстердам и Новосибирск
  • 2023 — Астана, Алматы, Владивосток, Измир (Турция) + Космический ЦОД RUVDS (спутник)
  • 2024 — Арктический ЦОД (временный))
  • 2025 — Ереван (Армения), Краснодар, Мурманск, Омск и Уфа


Практически про каждую локацию мы писали что-то интересное, но не хочется превращать эту публикацию в подборку ссылок, так что ищите в блоге самостоятельно.

Кстати, совсем скоро — новый спутник-платформа и ЦОД в Антарктиде, stay tuned ;)



5. Суммарное потребление наших серверов — более 2 МВт·ч в сутки
Вроде совсем немного, но в то же время не так уж и мало. Гугл подсказывает интересные аналогии:
  • Примерно столько же потребляет коттеджный посёлок на 60–80 частных домов среднего размера.
  • Примерно столько же вырабатывало бы за день 400–600 (в зависимости от подготовки) человек на велотренажёрах.
  • Можно было бы полностью зарядить ~20–34 тыс. макбуков (Pro/Air), то есть на всех сотрудников Яндекса должно хватить )

6. 8198 физических процессорных ядер
Ядра — чистый изумруд! :)

7. 128 000 Тб оперативки (ОЗУ)
Таком суммарный объём оперативки (ОЗУ) наших серверов. Мы используем надёжную серверную оперативную память DDR4 с частотой 3200 МГц и DDR5.

8. Будни поддержки за 10 лет
Мало приютить у себя каждого клиента — нужно помочь ему в том случае, если у него возникают проблема. Вот несколько цифр из будней нашей технической поддержки:
  • 146 575 тикетов в хелпдеске за 10 лет
  • 657 000 отправленных смс
  • 63 781 принятых звонков
Что касается смс, то в основном речь про сообщения двухфакторной авторизацией — они по 92 символа. 77 — в сообщении об оплате или неоплате, которых тоже хватает. Если посчитать среднее значение в 85 символов, то получим 55 845 000 символов. По неточной информации из сети можно узнать, что в стандартном издании произведения «Война и мир» примерно 700 000 символов с пробелами, то есть за всё время на телефонах наших пользователей суммарно осело около 80 копий издания.

9. ~116 тысяч обращений в онлайн-чате
То есть примерно по 11600 в год или 31 в день. Но, конечно, в разные дни нагрузка может отличаться — например, в дни аварий (а у нас они тоже случаются) бывает нескольких сотен сообщений и до 200 звонков (и около 500 в месяц в спокойное время).

10. 361 статья в справочнике RUVDS
Заходите, читайте и мотайте на ус — там целая база знаний. Если чего-то не хватает — сообщите, добавим или напишем вместе.

11. Более 200 партнёров по партнёрской программе
Всех поимённо не помним, но спасибо каждому из них!
Процент отчислений партнёру со списаний приведённого клиента стартует с 15% и увеличивается по мере роста числа активных серверов привлечённых клиентов и общей заработанной суммы:
  • от 0 активных серверов или заработанных 0 руб. – 15%
  • от 30 активных серверов или заработанных 20 000 руб. – 20%
  • от 60 активных серверов или заработанных 40 000 руб. – 25%

12. 75 590 799 бонусов начислили клиентам
Просто факт с такими вот цифрами
ruvds.com/ru/bonus/
ruvds.com/ru/helpcenter/bonusnaya-programma-ruvds/

13. 3 корпоративных блога
Хабр, извини, но ты у нас не один: мы также ведём блоги на VC и Pikabu. Но, положа руку на сердце, можем уверенно сказать — Хабр любим больше всего.

Несколько достижений блога RUVDS на Хабре:
  • 8 лет на первом месте рейтинга среди всех компаний
  • 4690 публикаций (все с положительным рейтингом), 329 новостей и 58 постов
  • Рейтинга блога в 4137 единиц, абсолютный рекорд площадки
Итоги блога за год в сравнении с предыдущими годами мы традиционно подведём ближе к Новому году.

14. 5200 Хабрабургеров
Помните Хабрабургер?! Вспоминаем, и вкусовые сосочки невольно возбуждаются. По информации от нашего партнёра Burger Heroes, за всё время существования бургера было изготовлено 5200 порций или 2% от объёма продаж сети на тот момент!

Кстати, калорийность бургера была в районе 617 ккал (что в 2+ раза больше, чем у биг-мака). Суммарно имеем дело с 3 208 000 ккал. Если за марафон сжигается примерно 3000 ккал, то наших бургеров хватило бы на 1069 марафонов или на 45 131 километров — достаточно, чтобы пробежаться по экватору (и ещё бы несколько тысяч км осталось на карманные расходы).

А ещё мы были замечены в изготовлении космической еды в рамках наших космических активностей, о которых чуть ниже.

15. Сварили 100 тонн пива Smart admin
«Лёгкий, светлый, ароматный эль с низким уровнем горечи и бархатным обволакивающим вкусом, который отправляет тебя на светлую сторону» — так про нашу коллаборацию с Beer Bros Brewery написано на сервисе UNTAPPD.


Но не все знают, что ещё было несколько тонн Dark admin для фанатов тёмной стороны.


И ещё был совсем уж лимитированный шотландский эль Duke Nukem, созданный в коллаборации с Ричардом Греем (Levelord) по лицензии GearBox — со вкусом копчёного бекона ;)


16. 33 часов
Про этот факт совсем мало кто знает, так как часы были выпущены совсем в небольшом количестве. Часовое производство «Русское Время» помогло нам запечатлеть в металле, стекле и коже наши воспоминания и эмоции от развёртывания нашего оборудования в Арктике.



17. 1 воздушный шар, 1 стратостат и 2 спутника
Сначала батут, потом воздушный шар, потом стратосфера и наконец-то выше облаков, космос! Один спутник был успешно запущен, все материалы и подробности можно найти на отдельном сайте или у нас в блоге.

Второй спутник полетит в космос в конце декабря, на борту которого будут крутые статьи пользователей Хабра, первый космический антивирус от Лаборатории Касперского и кое-что ещё интересное — следите за новостями.

18. 4 хакерских квеста
Шредер для денег, рояль, азот и котики, спутник — ну же, вспоминайте, как не спали вместе с нами и пытали свою удачу и смекалку. Ещё со своей инфраструктурой мы участвовали в Standoff 12 — это, кстати, был первый CTF на спутнике в мире.



Несколько ссылок, чтобы поностальгировать: раз, два, три, четыре, пять и шесть.
Количество участников квестов: 620, 2340, 177, 213 + 15 команд пентестеров общей численностью 100 человек.
Кстати, 0 — столько профессиональнов пентесторов смогли взломать спутник в рамках киберучений Standoff.

19. Провели 3 квиза
В сети бескрайнее множество информации, полезной и бесполезной. Когда знаешь какой-нибудь интересный факт, так и хочется рассказать его кому-то… или усложнить задачу — предложить угадать правильный ответ из нескольких, среди которых невольно хочется добавить каплю юмора. Ну любим мы такое!

Некоторые вопросы в них уже могли потерять актуальность, но всё равно можете попытать свою удачу и любознательность:

20. 3 конкурса лучших статей на Хабре и Космотекст
Три раза мы проводили конкурс лучших статей на Хабре (первый, второй, третий), а совсем недавно завершили Космотекст, в рамках которого отправим в космос несколько десятков отборных статей с Хабра.


21. Три раза поддержали Технотекст
Сами мы в нём тоже участвуем и даже иногда занимаем призовые места — по оценкам других членов жюри.
Кстати, совсем скоро вроде как стартует Технотекст-8 — восьмой конкурс технических статей Хабра, который мы, забегая вперёд, в очередной раз планируем поддержать классными призами и помощью в жюри. Попытаем удачу и в этот раз!

22. Ачивки
Не стыдно достать парадную одежду со следующими медальками:
  • Мировой рекорд — за прыжок из стратосферы, подробнее тут
  • Разместили первый в истории сайт в космосе
  • Первый в мире CTF в космосе
  • «Лучший блог о системном администрировании» от Хабра в 2021 году
  • Несколько побед в «Технотекстах» разных лет
  • 1 патент на ПО — у нас там собственные сетевые драйверы для повышения эффективности распределения каналов связи между пользователями, драйверы сертифицированы Microsoft для Hyper-V. Есть регистрация в Федеральном реестре интеллектуальной собственности.
  • Первые в России застраховали свою ответственность перед третьими лицами в AIG за несанкционированное публичное раскрытие персональных данных и корпоративной информации — это случилось ещё в 2017 году.
Также есть 4 награды от ЦОДЫ.рф:
  • «Креатив года» в 2021
  • «Хостер года» в 2023
  • «Человек года» в 2024
  • «Креатив года» в 2025
Бережно храним и планируем бороться за новые. Спасибо всем, кто нас поддерживает!

23. Среди лиц бренда RUVDS есть 2 настоящих космонавта
Вы их наверняка знаете и уже что-то читали про них:
  • Михаил Корниенко — Герой России, лётчик-космонавт; пребывание в космосе — 516 дней 10 часов и 1 минута
  • Александр Лазуткин — герой России, лётчик-космонавт, бортинженер орбитальной станции «МИР»; Пребывание в космосе — 184 дня 22 часа и 7 минут


24. 2 совместных игры
Совместно с ветераном игровой индустрии, дизайнером уровней культового Duke Nukem — Ричарда Грея, мы сделали две игры
Да, это далеко не Red Dead Redemption, но всем иногда хочется позалипать в каком-нибудь тайм-киллере (а на момент запуска можно было ещё и выиграть ценные призы).

25. 1 битва роботов-хоккеистов
Поучаствовали и в такой забаве :) О том, как готовили хоккеистов, рассказывали в отдельной публикации.


26. 1 регата
Иногда нужно выдернуть шнур выдавить стекло закрыть ноутбук, выключить телефон и выбраться куда-то на природу. В таком формате нам больше всего запомнилась регата, гонка парусных судов. 400 участников, 45 яхт и 5 дней гонки под парусом — травили и набивали как могли.



27. Стали членом Ассоциации участников отрасли ЦОД
Этим летом мы стали 50-ми участниками ассоциации, а что это и зачем вкратце рассказываем тут.

Возможно, кто-то прочитал всё это и подумал, что мы участвуем вообще во всём :) И отчасти будет прав: мы любим совмещать полезное (работу) с приятным (развлечения), потому что только так можно любить то, что делаешь. У нас полно амбициозных планов и целей, а также мы как никогда открыты к новым интересным партнёрствам и проектам — пишите нам.

Надеемся, вам было интересно. Начинаем второй десяток — спасибо, что вы с нами!

«Лаборатория Касперского» разработала защитное решение для спутника-платформы RUVDS





«Лаборатория Касперского» разработала для хостинг-провайдера VPS серверов RUVDS специализированное решение Kaspersky Endpoint Security for Linux (KESL) — Space Edition, которое поможет обеспечивать защиту спутника-платформы RUVDSSat1 на протяжении всей его миссии. Программное обеспечение создано на базе технологий KESL с учётом особых требований к производительности в условиях ограниченных вычислительных ресурсов на орбите.

Спутник выступит в качестве испытательного полигона. За решение ИТ-задач в космическом аппарате отвечает отдельный микрокомпьютер Raspberry Pi Zero с частотой процессора 1GHz и 512MB оперативной памяти. «Лаборатория Касперского» адаптировала технологии KESL под данную платформу, чтобы обеспечивать защиту полезной нагрузки, которую размещает на спутнике хостинг-провайдер RUVDS.

Проект имеет научно-исследовательский характер и ориентирован на широкую массу экспертов и энтузиастов освоения космоса. При этом хостинг-провайдер не исключает возможность предоставления вычислительных мощностей спутника на коммерческой основе — минимальный срок функционирования RUVDSSat1 на орбите составит один год. Запуск аппарата и его вывод на орбиту запланированы на конец 2025 года.

Как показал наш опыт, в том числе и с предыдущим спутником, обеспечившим первый в истории хостинг сайта прямо с орбиты, космические аппараты подвергаются точно таким же рискам, как и объекты инфраструктуры или частные вычислительные устройства на Земле. В нашем новом проекте мы ещё более открыты аудитории, потому вопросы кибербезопасности занимают в нашей повестке особое место. Мы рады сотрудничеству с „Лабораторией Касперского”, уверен, совместная работа над проектом самым положительным образом скажется на обеих компаниях и поможет в разработке новых решений
подчеркнул генеральный директор RUVDS Никита Цаплин.

Защита таких аппаратов, как спутник-платформа RUVDSSat1, требует особого подхода, поскольку они обладают ограниченными вычислительными ресурсами. Возможности Kaspersky Endpoint Security для Linux позволили нам справиться с этой задачей. Наше решение учитывает специфику ПО для автономных летательных аппаратов, в том числе это касается энергопотребления. Мы будем внимательно наблюдать за результатами проекта, чтобы использовать полученный опыт для развития наших технологий. Это позволит нам эффективнее защищать устройства с небольшими вычислительными мощностями, в частности IoT-приборы
комментирует Анна Кулашова, вице-президент «Лаборатории Касперского» по развитию бизнеса в России и странах СНГ.