Для вашего аккаунта установлено новое информационное сообщение



В связи с изменением налогового законодательства с 01.01.2026 изменяется
приложение 1 к договору об оказании услуг между вами и ЗАО «Ин-Солв».

Старая редакция:
Исполнитель освобожден от обязанности уплаты НДС согласно п. 1 ст. 145 НК РФ.

Новая редакция:
Цены включают НДС согласно пп. 1 п. 8 ст. 164 НК РФ.

Мы берем увеличение налогов на себя. Сумма оплаты остается неизменной.
Мы благодарны вам за использование нашего хостинга.

12 месяцев апдейтов. Рекап за 2025



Под Новый год у нас есть традиция. Нет, не ходить с друзьями в баню, а, конечно же, собирать дайджест года.

2025 получился плотным на события. Мы всерьез взялись за ИИ — внедрили AI-агентов, умные подсказки в саппорте и в наших сервисах. Прокачивали Kubernetes так, что апдейты выходили аж каждый месяц. Параллельно разгоняли мощности, осваивали новые регионы, релизили схему инфраструктуры, ивентили, брали премии… Так, без спойлеров!

Поехали распаковывать уходящий год в нашем большом рекапе →

В январе разогнались до 5 ГГц и запустили VMware
Решили не раскачиваться после праздников, а сразу добавить мощностей. Завезли серверы High CPU на AMD Ryzen 9 7950X с частотой до 5.5 ГГц в Москве. Конфигурации под любые аппетиты:
  • Базовый минимум — 1х5.5 ГГц CPU / 1 ГБ RAM / 15 ГБ NVMe
  • Роскошный максимум — 8х5.5 ГГц CPU / 16 ГБ RAM / 160 ГБ NVMe
Идеально для мгновенного отклика в 1С и Битрикс24, тяжелых баз данных и стабильной работы под высокими нагрузками.

А для более масштабных задач запустили публичное облако на базе VMware. Это не просто сервер, а полноценный виртуальный дата-центр с управлением через vCloud Director. Вы получаете полностью изолированные ресурсы и надежность уровня Enterprise.
  • Под капотом связка серверов ASUS на Intel Xeon Gold (до 4.1 ГГц) и промышленной СХД NetApp
  • И никаких капитальных затрат на свое оборудование и лицензии

В феврале заморозили S3 и прокачали почту
В феврале решили не отставать от погоды за окном и сделали холодный S3. Это идеальная «морозилка» для данных, которые не нужны каждый день, но должны быть под рукой на всякий случай.
В чем суть:
  • Работает на более медленных дисках, поэтому стоит в разы дешевле стандартного хранилища
  • Подходит для резервных копий, тяжелых архивов и логов за прошлые годы
А еще:
  • Входящий трафик — бесплатно
  • Исходящий — бесплатно первые 100 ГБ (для прайм-клиентов 1000 ГБ)
  • Минимальный конфиг — от 1 ГБ
Допом прокачали корпоративную почту, добавив поддержку алиасов. Теперь к основному ящику можно привязывать альтернативные адреса, чтобы морозиться от спама и сохранять приватность.
Алиасы бесплатны — на один ящик можно создавать до десяти штук. Ищите новую вкладку в разделе «Настройки почтового ящика» → «Алиасы».

В марте открыли Франкфурт и упростили работу с дисками
Март получился про удобство и Германию.
Сначала про удобство: добавили возможность заказать сетевой диск NVMe или HDD в Санкт-Петербурге сразу при создании сервера. А еще уменьшили минимальный заказ HDD с 500 до 100 ГБ — теперь можно тестировать сетевые диски еще бюджетнее, не переплачивая за лишние полтерабайта.
Вторая новость марта — Guten Tag! Запустили долгожданную локацию в Германии. Франкфурт идеально подходит, если ваша аудитория находится в Европе или вам нужен надежный зарубежный узел связи.
За надежность отвечает NTT — разместили оборудование у одного из топовых мировых операторов ЦОД. Отправиться в Дойчланд

В апреле запустили n8n в облачных серверах и Лондон-Париж в дедиках
Вспомним два апрельских релиза, которые вызвали бурный шквал «вау» в комьюнити.
Добавили в маркетплейс n8n — мощную open-source-платформу для автоматизации процессов. Теперь связывать разные сервисы можно без написания кода. Вы просто выбираете готовый образ n8n при создании сервера и собираете сценарии в удобном визуальном редакторе.
Можно интегрировать Телеграм, Google Таблицы и сотни других сервисов между собой. Пара кликов — и рутинные задачи выполняются сами, пока вы занимаетесь важным.
Затестили этот релиз и «в полях». Наш коллега поделился кейсом того, как настроил себе ассистента для рутинных задач. t.me/timewebru/1731
И продолжили европейский тур. К Франкфурту добавились две столицы для выделенных серверов — Лондон и Париж. А процессоры мы подготовили на любой вкус и бюджет:
Нужно просто и надежно? Берите AMD EPYC 3151 2.7 ГГц
Нужна экстремальная мощность? Берите AMD EPYC 9354 с 32 ядрами
Затем выбирайте локацию, которая ближе к вашим пользователям, и наслаждайтесь скоростью.

В мае выпустили новую консоль и научили ноды в Кубере «самолечиться»
Пока кто-то жарил шашлыки, мы жарили релизы.
Сначала выкатили новую серийную консоль, которой так не хватало для комфортной работы с серверами. Теперь можно достучаться до сервера через браузер, даже если недоступен SSH или отвалилась сеть.
Почему это кайф:
  • Копипаст: наконец-то работают привычные Ctrl+C / Ctrl+V
  • Мышь: поддерживается скролл и выделение текста
  • Удобство: подсветка синтаксиса включается одной кнопкой
  • Скорость: консоль запускается мгновенно и не грузит вкладку
На новых серверах (которые вы создавали после мая) она включена по умолчанию. На старых (это те, что создавали до мая) — включается кнопкой в панели.
Затем запустили автохилинг воркер-нод для Kubernetes.
Или если по-простому — научили кластеры «лечить» себя самостоятельно, без участия инженеров.
Как это работает:
Система каждые 10 минут проверяет здоровье нод. Если видит статус NotReady или Failed:
  • Сначала пробует аккуратно перезагрузить ноду
  • Если не помогло — удаляет «больную» ноду и автоматически создает новую
Фича доступна для кластеров с автоскейлингом (без GPU). Для конкретных нод можно отключить автохилинг через лейбл kube-healer.kubernetes.io/healing-disabled:true.

В июне рисовали карту инфраструктуры и разрешили шерить серверы
Сначала про огромное событие — запуск визуализации инфраструктуры.
Это большая фича, которую мы внедрили первыми среди российских облаков. Теперь вам не нужно рисовать схемы в Miro или держать архитектуру проекта в голове — панель построит схему сама.
Что умеет схема:
  • Строиться автоматически и показывать все связи внутри вашей инфраструктуры
  • Жить в реальном времени — если добавили новый сервер, он сразу появится на схеме
  • И кастомизироваться: сервисы можно группировать, добавлять к ним комментарии и др.
Всё это работает в полноэкранном режиме. Идеально, чтобы посмотреть на проект целиком и найти узкие места.
А еще мы реализовали одну из самых частых просьб — перенос серверов между аккаунтами. С бэкапами, IP и сетевыми дисками без тикетов и доп кликов.
Заходим в панель, выбираем сервер и нажимаем «Доступ»
Кликаем «Передать», указываем логин, на который переносится сервер, вводим код из почты и ждем апрува от получателя
Важно помнить — на время переноса любые действия с сервером будет временно заблокированы.
Команда Кубера работала в режиме конвейера, поэтому вместо долгих рассказов — короткая выжимка обновлений:
  • Container Registry: запустили собственный реестр. Теперь хранить, загружать и скачивать Docker-образы можно внутри нашего облака.
  • OpenID Connect: добавили поддержку OIDC. Настраивайте доступ через корпоративный IdP и забудьте про ручное управление правами доступа.
  • Новые типы нод. Добавили High CPU, Dedicated CPU и GPU-ноды для тяжелых вычислений.
  • TWC DBaaS Operator. Сделали свой аддон. Теперь разворачивать облачных базы (PostgreSQL, MySQL и Redis) и управлять ими можно через привычные YAML-манифесты.
  • Scale to Zero. Научили группы нод масштабироваться в ноль. Идеально для тестовых окружений: ночью простаивают — вы не платите.
  • Сетевые диски (CSI): полноценная поддержка persistent storage для баз данных, бэкапов и сохранения данных даже после перезапуска подов. Диски подключаются автоматически, чтобы приложения не теряли данные при рестартах.
  • TWC Alert Bot: бот, который шлет уведомления о жизни кластера (рестарты, ошибки проб, падение нод) в Telegram, Discord или Slack.
  • А еще мы сильно ускорили процесс выпуска обновлений версий Kubernetes. В 2025 выкатывали апдейты одними из первых на рынке и продолжим это и в 2026.

В июле запустили роутеры и status page
Июль — самый жаркий месяц года, и мы тоже были hot Точнее, наши релизы.
Первым делом выкатили виртуальные роутеры. Это спасение для тех, кто строит безопасные изолированные контуры.
Кейс: у вас есть серверы в закрытой частной сети (без доступа извне). Но им нужно ходить в интернет — например, качать обновления или отправлять данные.
Решение: подключаете виртуальный роутер, подключаете к нему приватную сеть и настраиваете SNAT. Серверы получают выход в сеть, оставаясь недоступными для входящего трафика извне.
Второй важный релиз — наш публичный status page.
Мы верим, что доверие строится на честности. Поэтому теперь состояние всех сервисов облака доступно вам в реальном времени.
Что там есть:
  • Полная картина доступности по всем регионам
  • Журнал инцидентов: если что-то сломалось, пишем об этом напрямую
  • Постмортемы: подробные технические разборы инцидентов от нашего CTO
Там же можно подписаться на уведомления, чтобы узнавать о любых работах первыми.

В августе запустили AI-агентов и превратили тикеты в чат
Надеемся, в августе вы успели перехватить немного солнца и получить свою порцию дачных кабачков. Мы же закрывали лето мощным AI-релизом.
Запустили AI-агентов на базе LLM+RAG. Это не просто чат-бот, а конструктор умных помощников, которые читают вашу базу знаний. Вы загружаете в агента документацию, инструкцию и логи, и он превращается в эксперта:
  • Отвечает на вопросы клиентов в поддержке
  • Анализирует данные и генерирует отчеты
  • Обучает новых сотрудников по вашим регламентам
Под капотом лучшие мозги: топовые модели GPT, DeepSeek, Claude, Grok и Gemini. Можно выбрать ту, которая подходит под бюджет и задачи.
Вторая новость — глобальный редизайн поддержки.
Мы окончательно убили формат устаревших тикетов. Теперь общение с инженерами выглядит как полноценный мессенджер, к которому вы привыкли. Почему это удобно:
  • Переписка в формате живого диалога с историей, эмодзи, вложениями кода и файлов
  • Все задачи, инциденты, архив и уведомления собраны в одном месте, не нужно прыгать по вкладкам
При этом история обращений никуда не делась — она аккуратно переехала в новый интерфейс.

В сентябре деплой из VS Code и сейф для данных S3
Пока все переворачивали календарь, мы переворачивали представление о деплое. Запустили MCP-сервер для App Platform (ex. Apps). Теперь, чтобы выкатить обновление, не нужно даже открывать браузер.
Как это меняет жизнь: вы пишете код в VS Code или Cursor, вводите одну команду — и приложение автоматически летит в облако. Без лишних кликов в панели и ручной настройки CI/CD.
Кстати, наш руководитель разработки, Миша Шпаков, записал для вас подробный туториал, как это настроить за пару минут. Зацените на досуге.
Помимо упрощенного деплоя выше выкатили Object Lock для S3. Функция позволяет «заморозить» объекты так, что их невозможно изменить или удалить в течение заданного времени.
Мы внедрили несколько режимов под разные сценарии угроз:
  • GOVERNANCE — защита от ошибок. Рядовой пользователь удалить файл не сможет, но у админа с особыми правами такая возможность останется.
  • COMPLIANCE — защита от катастроф. Файл нельзя удалить вообще никому — ни скрипту, ни хакеру, ни даже владельцу аккаунта с root-правами. Пока действует защита, данные бессмертны.
И без глобальной политики — тут блокировка версий объектов вообще не будет устанавливаться на бакете.

В октябре делали расходы и обновления предсказуемыми
Зарядились тыквенным латте и плотно поработали над прозрачностью финансов.
Мы полностью переделали историю списаний. Теперь вместо сухих цифр у вас перед глазами полноценная аналитика с графиками.
Вы сразу видите динамику трат. Легко отследить, в какой момент проект начал потреблять больше ресурсов или какой конкретный сервис «съедает» бюджет. Можно группировать данные по дням, неделям или месяцам и детализировать расходы в пару кликов.
А главный релиз стабильности — обновления по расписанию. Больше никаких сюрпризов с перезагрузкой баз данных или балансировщиков в разгар рабочего дня. Теперь вы сами решаете когда устанавливать обновления и патчи.
Как это работает: вы выставляете удобное окно (например ночью с 03:00 до 05:00), после чего все обновления будут происходить в этот интервал, пока ваши клиенты спят.
Бонус-трек: мгновенный импорт баз данных. Упростили жизнь тем, кто переезжает к нам или разворачивает новые среды. Теперь импортировать дамп в Managed PostgreSQL или MySQL можно буквально одной кнопкой.
Нужно: перейти в нужную базу → нажать кнопку «Импортировать» → ввести креды от базы-источника и выбрать владельца новой базы → done.


В ноябре были App Platform и автоскейлинг в S3
Ноябрь был суетным, но продуктивным. Мы попрощались со старым разделом Apps и выкатили вместо него мощный App Platform. Это полная перестройка архитектуры сервиса.
Что изменилось для разработчика:
  • Импорт переменных: больше не нужно вбивать ключи руками. Просто загружаете свой .env-файл или вставляете текст через Ctrl+V.
  • Актуальный стек: мы обновили вообще всё. Python 3.14, PHP 8.4, Node.js v24, свежие Go, .NET и Java — теперь доступны сразу.
Вторая вещь, которую мы убрали в ноябре, — неожиданная остановка проекта, когда бакет внезапно упирался в потолок по объему. Теперь S3 умеет масштабироваться автоматически.
Что важно знать:
  • Появились новые тарифы стандартного S3: от 1 до 250 ГБ
  • Всё, что выше 250 ГБ, считается по поресурсной тарификации. 2 ₽ за каждый гигабайт
  • Объем хранения не ограничен — от 1 ГБ до ∞
  • Холодное хранение теперь работает только по поресурсной модели
Всё подробно расписали в доке.
Получили «вышку» по безопасности: аттестат УЗ-1 для 152-ФЗ
В этом году мы прошли самый сложный экзамен на безопасность и получили аттестат уровня УЗ-1.
Если коротко: это знак высшего качества защиты в рамках 152-ФЗ. Аудиторы проверили каждый винтик нашей платформы — от архитектуры до регламентов доступа сотрудников и подтвердили, что защита максимальна.
Локации с аттестацией: Москва, Санкт-Петербург, Новосибирск

В декабре добавляли и прокачивали ИИ в сервисах
На финишной прямой года мы успели положить еще пару ИИ-релизов под елку.
В недавно обновленный App Platform добавили TimewebGPT, чтобы он пристально следил за вашим деплоем и давал полный анализ по логам.
Когда ваш деплой завершается ошибкой, агент получает всё о вашем проекте:
  • Логи сборки и запуска
  • Язык и фреймворк
  • Команду сборки, директорию, параметры и другие настройки
Теперь, если при развертывании возникает ошибка, вы получите конкретное объяснение: что не так → почему не так → как сделать, чтобы было так.
И конечно же, не обделили вниманием любимчиков пользователей — AI-агенты получили целую пачку улучшений. Кроме того, что мы добавили новинку GPT-5.2 в модельный ряд, в новых фичах:
  • Научили AI-агентов работать не только в виджетах на сайте, но и через Telegram-ботов — вау!
  • Индексация файлов баз знаний по ссылке. Достаточно вставить ссылку на файл, и агент автоматически скачает его и индексирует
  • Реакции в виджете AI-агента — оценивайте ответы агента лайком или дизлайком. Так он будет знать, в какую сторону ему обучаться, а в какую не стоит
  • Общая статистика по диалогу в истории чата, чтобы мониторить работу агента с пользователями
  • И допом обновили страницу подключенных сервисов — теперь на ней отображаются AI-агенты и Базы знаний.

Вы предлагали — мы делали
Под конец года особенно приятно оглянуться назад и посмотреть, что получилось сделать вместе. В 2025-м вы активно делились идеями, а мы их аккуратно складывали в продуктовый мешок, чтобы потом достать и превратить в релизы.
  • 815 идей мы получили от вас с начала года
  • 210 реализовали в течение года
  • 40 идей сейчас в работе и ждут своего часа уже в следующем году
Если посчитать, это 1,7 реализованных идей в день на протяжении всего года! И главное, всё по делу. Так, из идей выросли:
Container Registry для Kubernetes — упоминания часто всплывали в обсуждениях работы с кластерами, а в итоге появился полноценный сервис.
Интеграция n8n в маркетплейс — запрос на автоматизацию без костылей и долгой настройки. Забрали идею, сделали, выкатили.
И, конечно, App Platform. Огромное количество комментариев и фидбека по старым Apps помогли нам увидеть все болевые точки и задали направление для полной переработки платформы.
И еще один важный момент: в этом году мы перевалили за отметку в 1000 реализованных идей за всё время работы Timeweb Cloud. Поэтому хотим воспользоваться моментом и сказать спасибо за вашу вовлеченность и обратную связь. В новом году ждем от вас новые идеи — мы с удовольствием будем превращать их в релизы и в 2026!

Би-ту-би, блоги и рейтинги
Пока в панели появлялись новые фичи, за ее пределами тоже кипела жизнь. Встречи, кейсы, рейтинги, награды, выступления — всё, что происходило вокруг Timeweb Cloud в 2025, смотрите ниже.

Где встречались и что обсуждали
Инфраструктура — штука сложная, и иногда ее проще обсудить за живым разговором. Поэтому в этом году мы провели целых три собственных масштабных ивента.
Организовали закрытый мастермайнд в Москве для тех, кто строит и масштабирует инфраструктуру. Обсуждали рост проектов, сложные архитектурные кейсы и ограничения, с которыми сталкиваются команды.
На бизнес-завтраке в Москве с руководителями и топ-менеджерами обсуждали облака, архитектуру и кейсы за вкусной едой.
Впервые отправились в Казань и встретились с предпринимателями и ИТ-директорами, чтобы разобрать миграции, AI и сложные инфраструктурные сценарии.

Нам пишут: кейсы наших клиентов
  • Не будем ходить вокруг да около — вот самые заметные истории наших клиентов в этом году:
  • Медицинский онлайн-сервис НаПоправку написал о том, как обеспечить бесперебойную работу сервиса для 6 млн пациентов в месяц
  • Компания uForce поделились опытом поддержки высоконагруженной SaaS-платформы с обработкой 6 000 видео в сутки
  • И еще были GetCourse, которые построили почтовую систему в облаке на 10+ млн писем в день

Рейтинги, награды и другие достижения
  • Не можем не поделиться. Мы стали лауреатами XXII Премии Рунета в номинации «Облачное решение года».
Для понимания масштаба: на премию подали 900 заявок из 44 регионов. В финал прошли всего по 6 проектов в 22 номинациях. И только 3 проекта в каждой категории экспертное жюри признало лучшими.
Вот чем еще мы отметились в этом году:
  • Вошли в топ-10 рейтинга IaaS Enterprise 2025 от CNews
  • Заняли 9 место в рейтинге крупнейших поставщиков IaaS-услуг в России от TAdviser
  • Вошли в топ-500 крупнейших ИТ-компаний по версии CNews
  • Взяли «Приз хакерских симпатий» от Standoff Bug Bounty на форуме Positive Hack Days

Записывали видео и давали интервью
  • В 2025 мы всерьез взялись за производство видеоформата и запустили серию про наши сервисы. Первым в кадр вышли AI-агенты — показали, как они работают, в каких сферах применимы и чем будут полезны в проектах.
  • Еще провели Kuber Talks, прямой эфир в Телеграме. Рассказали, как изменился Kubernetes за год, какие решения принимали, что тестировали и от чего отказались.
  • Кроме наших видео, мы давали интервью в СМИ — про рынок, инфраструктуру и куда вообще движутся облака.
  • Наш CEO Сергей Наумов пообщался с CNews о трендах облачного рынка, развитии инфраструктуры и новых потребностях бизнеса. А на TAdviser вышел большой обзор облачных решений с его комментариями.
  • Максим Яковлев, наш СТО, тоже активно делился экспертизой и дал большое интервью для TAdviser о нашей собственной операторской сети, резервировании стоек, масштабировании платформы и переходе на 400G.

Книжная полка: что читали между релизами
  • Разработчики отчитались: 5000+ доставок на прод
  • Отчитывается и отдел контента: 1370+ публикаций — постов в соцсетях и статей в блогах
Наши блоги на Хабре, Виси, ДТФ и Пикабу, кстати, отличились в этом году не хуже, чем в прошлом. Давайте посмотрим:
  • На Хабре — четвертый год уверенно занимаем позицию в топ-3 корпоративных блогов. Пишем много, интересно, без нейростатей — чтобы вам было полезно. И видим, что это так. Например, огромный огромный гайд по настройке рабочего окружения на 30 минут чтения сохранили в закладках аж 1077 раз.
  • На ДТФ, напротив, стараемся вас немного отвлечь от технического контента в пользу развлекательного — про игры, фильмы и поп-культуру. В этом году часто вызывали приступ ностальгии и вспоминали любимые ретро-игры. Да так вспомнили, что собрали холивар на 366 комментариев.
  • Блог на VC стал для нас настоящим экспериментом и вызовом — сможем ли его раскачать. Спойлер — смогли. Тут уверенно занимали 1 место в топе блогов целых три недели. А одна статья провисела в «Популярном» рекордные 16 часов. Не обошлось и без обзора сервисов: чего только стоит наша статья про Скайп.
  • И, наконец, Пикабу. Блог, который приносит максимальные охваты. Не верите? А как вам такое — статья на целых 234к просмотров и 3 666 плюсов о том, как город в Норвегии купил себе солнце.


Уходящий 2025 показал, на что мы способны: на масштабные решения, глубокий рефакторинг сервисов, сложную инфраструктуру, большие ивенты и продукты, которые задают стандарты рынка.

Дальше — только интереснее. Увидимся в 2026 вместе с Timeweb Cloud!

Полный список, со всеми ссылками, если нужны подробности тут:
timeweb.cloud/blog/digest-2025

С Рождеством 2026! Спасибо, что вы с SpaceCore



Поздравляем с Рождеством 2026!
Пусть дома будет тепло и спокойно, рядом — свои люди, а в душе — легкость. Пусть все, что не успели в этом году, будет догнано в следующем. И вообще — пусть год будет добрый к вам

От всей команды SpaceCore благодарим вас за доверие и выбор нашего хостинга — мы очень ценим, что вы с нами.

Желаем здоровья, вдохновения и больше приятных моментов — чтобы поводов для радости было больше, чем для переживаний.

Мы продолжаем развивать и усиливать инфраструктуру, чтобы сделать сервис еще быстрее, стабильнее и удобнее для вас.

spacecore.pro/ru/

CLO: итоги 2025



Рассказываем о проделанной работе, делимся планами по развитию платформы на следующий год и дарим праздничный бонус!

В 2025 году мы сделали ставку на самое важное — стабильность и надёжность сервиса. Вместо громких анонсов мы выбрали глубокую, вдумчивую работу. Устранили технический долг, переписали слабые места, укрепили инфраструктуру, отладили процессы тестирования и разработки. Не всё из запланированного удалось выпустить в срок, но именно этот подход позволил нам заложить более прочную основу для будущих обновлений.

И вот чего мы добились в этом году:
Оптимизировали код бэкэнда
Закрыли 420 задач — от мелких правок до серьёзных изменений в архитектуре. Написали 76 тысяч строк кода, каждая из которых делает сервис стабильнее и надёжнее.

Перешли с Ceph на Linstor — новую систему распределённого хранения данных
Этот шаг позволил нам отказаться от локальных дисков и их ограничений без потери производительности. Теперь изменение размера и создание снапшота доступно для любого диска в сервисе.

Сделали Public API удобнее и предсказуемее
Добавили новые эндпоинты, расширяющие возможности Public API, привели URL и коды ответов к стандарту RESTful, улучшили валидацию входящих запросов и оптимизировали структуру документации.

Увеличили вычислительные мощности
Расширили серверный парк, чтобы даже в часы пик ваши проекты работали без задержек и перегрузок.

Улучшили механизмы тестирования и отладили процесс разработки
Серьёзно переработали внутренние процессы — от разработки до тестирования. Теперь новые функции появляются быстрее, проходят более строгую проверку и не преподносят неприятных сюрпризов. Всё это — чтобы в будущем чаще дарить вам полезные и стабильные обновления.

Подготовились к большому переезду
Запустили новую локацию в дата-центре IXcellerate на обновлённой платформе: OpenStack, OpenSDN и поддержка DPDK. Пока она в тестовом режиме, но в 2026 году мы переведём на неё всю боевую нагрузку. Это избавит нас от ограничений устаревшего ПО и даст ощутимый прирост скорости и стабильности за счёт обработки сетевого трафика напрямую в пользовательском пространстве.

И кое-что особенное — уже в январе
Уже в январе запустим мультипроектность — возможность создавать на одном аккаунте несколько не связанных между собой инфраструктур. Это особенно пригодится веб-студиям, low-code платформам и всем, кому нужно несколько изолированных локальных пространств.

Планы на 2026
В новом году мы представим обновлённую версию CLO — с переработанным интерфейсом и улучшенной архитектурой. Сервис станет быстрее, логичнее и надёжнее благодаря проделанной за последний год системной работе.

Переезд боевой инфраструктуры в новую локацию
Полный переход в новую локацию — главное событие года. Он обеспечит не просто прирост скорости, а качественно новое ощущение работы: стабильность, предсказуемость и готовность к росту без дополнительных усилий с вашей стороны.

Обновление личного кабинета
Мы переработали его с нуля: сделали интерфейс современнее, логичнее и приятнее в использовании, чтобы даже сложные задачи решались легко.

DBaaS на новом уровне
К концу года планируем существенно переработать услугу баз данных в облаке – сделать её более гибкой, функциональной и надёжной. Приступим к этой работе после переезда в новую локацию.

Безопасность и стабильность — в приоритете
В 2026 году наш приоритет — безопасность, надёжность и стабильность платформы. Всё, что мы делаем, направлено на то, чтобы вы могли работать в облаке без сбоев и неожиданностей.

Традиционный праздничный бонус


Используйте промокод HAPPY2026 и получите кешбэк 25%! С 25 января до 15 января при использовании промокода начислим 25% кешбэка на пополнение баланса.

Как получить кэшбэк:
  • Пополните баланс на любую сумму с 10:00 25.12.2025 по 23:59 15.01.2026 (время московское).
  • Введите промокод HAPPY2026 на странице Баланс и расходы → «Активировать промокод или сертификат».
  • Важно: промокод даёт возможность получить кешбэк только на последний платеж. Поэтому сначала нужно пополнить баланс, и только потом ввести промокод. Бонус можно получить один раз — зачислится автоматически после применения промокода. Максимальная сумма кешбэка — 20 000 ₽.

https://lk.clo.ru

Я наконец-то понял, как открытость может помешать — и отчёт об аварии





В прошлый понедельник у нас случилась очередная крайне идиотская авария. Идиоты тут мы, если что, и сейчас я расскажу детали.

Пострадало четыре сервера из всего ЦОДа — и все наши публичные коммуникации. Потому что владельцы виртуальных машин пришли под все посты и везде оставили комментарии.
Параллельно была ещё одна история — под статьёй про то, что случалось за год, написал человек, мол, чего у вас всё постоянно ломается. Я вот размещаюсь у регионального провайдера, и у него за 7 лет ни одной проблемы.

Так вот.

Разница в том, что мы про всё это рассказываем. Тот провайдер наверняка уже раз 10 падал, останавливался и оставался без сети, но грамотно заталкивал косяки под ковёр.
Это значит — никаких блогов на Хабре, никаких публичных коммуникаций с комментариями (типа канала в Телеграме), никаких объяснений кроме лицемерных ответов от службы поддержки и т.п. И тогда, внезапно, вас будут воспринимать более стабильным и надёжным.

Наверное.

Ну а я продолжаю рассказывать, что у нас происходило. Добро пожаловать в очередной RCA, где главное в поиске root cause было не выйти на самих себя. Но мы вышли!

Сбои случаются у всех, но не все про них рассказывают
До понедельника было другое событие.

Место действия — наш ЦОД в Королёве. Он находится на территории особо охраняемого завода. Завод, как и ЦОД, запитан от двух независимых подстанций + у нас есть ИБП, дизели и запас топлива + договор на поставки топлива и аренду дополнительного резервного дизеля.
Тестовые прогоны дизелей случаются регулярно как минимум на смене топлива с летнего на зимнее.

Подстанции в последние годы нестабильны. Там в 2023-м уже был ремонт, в результате которого электрики увидели летающие дверцы шкафа. Вот отчёт по этой истории. На этот раз случилось что-то новое, и обе подстанции вышли из строя. На этот раз нам не сообщали никаких деталей, то есть спектр причин мог быть очень широк: от банального человеческого фактора до диверсий.

Для нас важно то, что обе подстанции перестали подавать электричество в позапрошлый четверг.

ЦОД в Королёве переключился на дизель и почти 4 часа так работал с перерывами на попытки включения линий подстанций несколько раз. Подачу питания восстанавливали несколько раз, мы выжидали, переходили на городской ввод, и несколько раз происходило повторное отключение и снова переход на дизель.

Примерно через 4 часа подача питания от подстанций была восстановлена и оставалась стабильной. Авария закончилась.

Для абсолютного большинства клиентов ЦОДа все эти действия прошли незаметно. Сеть сохранялась, всё оборудование сохраняло работоспособность, так как каждый сервер имеет два блока питания, и они подключены к разным ИБП. Были некоторые проблемы с сетевым оборудованием в это время, которое потребовало перезагрузку коммутаторов по итогу, но в целом эту ситуацию отработали штатно.

В чём прикол с ИБП при «миганиях» света
Важно то, что дизели не стартуют мгновенно. Пока они заводятся, серверы и коммутаторы живут на
  • ИБП — старых добрых батареях. Что произошло:
  • При первом отключении батареи частично разрядились, ЦОД перешёл на дизель.
  • Батареи начали заряжаться от дизеля.
  • Они не успели полностью зарядиться, ЦОД перешёл на городской ввод.
  • Ещё 10 минут они заряжались от города.
  • Затем снова переход на дизели, то есть они разряжаются до примерно 20–30% остаточной ёмкости, потому что не успели зарядиться полностью прошлый раз.

Если свет моргнёт ещё раз, надо либо сутки стоять на дизеле и заряжать батареи, либо рисковать переключением с возможностью не переключиться обратно. Стандартная процедура — стоять на дизеле до безопасного заряда батарей.

Ещё несколько раз свет «мигал», когда питание прерывалось на несколько секунд, без переключения на дизели.

В прошлый понедельник ситуация повторилась
Питание с двух — напомню, независимых с независимыми маршрутами — подстанций пропало на 20 минут.

И вот в этот момент вылетело два ИБП.

Это вызвало отключение четырёх серверов, которые были одновременно подключены к вылетевшим батареям. Остальным серверам повезло больше, у каждого был как минимум один ИБП.

Почему всего четыре, а не полстойки? Потому что эта стойка неполная.

ИБП при такой нагрузке вылетать не должны.

Но!

Во-первых, мы планировали плановую замену батарей в ИБП как раз в начале декабря (напоминаю, авария — уже почти середина декабря). 2 декабря мы оплатили счета за них, и они должны были приехать 3–5 декабря.

Они действительно приехали к поставщику, но коробки оказались битые.

Поставщик отказался поставлять батареи, и был на 100% прав. Если логисты побили коробку — это всегда возврат и тщательная диагностика, возможно, списание.

То есть ровно неделю мы стояли с несколькими батареями за сроком плановой замены.
Срок плановой замены подбирается с запасом. Это не так, что ровно день в день батарея умирает.

Диагностика у нас постоянная, в помещении сверяется температура (она около 18–19 градусов Цельсия), плюс мы смотрим напряжение. У самих ИБП тоже есть собственные средства диагностики, и они зажигают лампочки, если нужна замена батарей.

Лампочки не горели. Температура была нормальная. Батареи давали нормальное напряжение.

Но часть из них почему-то решила взять и умереть при разряде в понедельник в этих двух ИБП.

Понедельник
В понедельник я оказался в странной ситуации:
  • Мы не понимали, что случилось. Но поддержка уже ответила клиентам наиболее вероятной версией, что в результате некоторого испорченного телефона стоило нам сильного недопонимания клиентов. Очень упрощая, клиент спросил, есть ли резервирование ИБП. Админ ответил, что нет, ни один ЦОД так не делает. Админ имел в виду ЦОДы TIER-III (T4 так делает) и резервирование 2N по мощности. ИБП должны выдерживать 2 переключения на своих батареях, и общий пул батарей не дублируется практически никогда. Смысл в том, что это именно общий пул, суммарная ёмкость. Она уже содержит резерв. Но из-за непонимания, что каждый имел в виду, клиент решил, что резервирования питания в ЦОДе нет.
  • Я в это время пытался разобраться с поставщиком и достать батареи быстрее.
  • Через несколько часов мы решили, что вместо расследования причин проблем с батареями, сначала надо провести все плановые замены. Поставщик не успевал с повторной поставкой, поэтому мы поехали и купили батареи в магазине как физики.
  • Дальше мы ковырялись с заменами и всё поменяли.
  • Ещё позже приехали батареи от поставщика.
  • До вечера мы разбирались с тем, что происходит.
  • Затем начислили положенные по SLA компенсации за простой тем, кто пострадал.
  • В итоге мы почти не трогали обсуждения, и в публичном поле творилось не самое хорошее.

Главный мой вопрос был — а что именно случилось с батареями? Они не должны были так деградировать. Плановая замена на то и плановая профилактическая, чтобы такого не было. Если бы горели лампы «замените батарею», можно было бы рассуждать про то, что мы не так обслужили ИБП, но смысл профилактической замены — сделать всё так, чтобы эти лампы никогда не загорались.

Первая наша гипотеза, которую поддержали инженеры, — батареи стали хуже. Тут я обосновать пока не могу.

Второй вариант — частые «мигания» питания могли повредить батареи. Но вообще-то они для этого и спроектированы.

Решения мы везде принимали правильные. Да, при аварии в четверг фактически был проведён стресс-тест системы, но мониторинг показывал, что все ИБП работают, ошибок нет. По этой причине не было никакого мотива каким-то образом там искать прямо в четверг эти батарейные блоки на замену, когда мы знали, что они едут. Принимать битые коробки мы точно не должны были.

Непохоже, что проигрывая эту ситуацию ещё раз, мы поступили бы иначе, имея тот же набор исходных данных для решения.

Почему пострадало относительно небольшое количество серверов. Мы применяем шахматную схему подключения, в которой серверы подключаются в таком порядке, чтобы минимизировать количество потенциально страдающих серверов при отключении более чем одного ИБП по любой причине. Ниже пример логики этой схемы. Если бы не она, отключились бы восемь серверов.



Возвращаюсь к вопросу открытости
Если бы мы ничего никому не сказали, ситуация для нас была бы гораздо легче. Время такое, что всё, что угодно, можно свалить на блокировки, санкции и т.п. И даже подсказывать не надо, это вроде как самоочевидная причина, люди сами очень быстро так подумают.

Если бы мы сказали позже на сутки, не было бы слухов и неправильного толкования того, что сказал саппорт. Они отвечали, ещё не до конца поняв, в чём проблема. Можно было не отвечать? Спокойно. Все так делают.

С другой стороны, пострадало 4 сервера в одном из 20 ЦОДов. Но ощущение из-за нашей публичности было такое, как будто авария крупная. И вот здесь главный минус открытости — складывается впечатление, что у нас такое происходит чаще, чем обычно. Так вот, нет. Ломается всё у всех, но если про это не говорить, это незаметно.

Я всё ещё считаю, что нужно держать в курсе всегда и по имеющимся на текущий момент данным. У нас открыты чаты и комментарии везде, есть сообщество клиентов в ТГ. Да, нас больно бьют за каждую проблему, и некоторые вещи эмоционально очень хочется не рассказывать. Это цена открытости.

ruvds.com/ru-rub

Серверы OpenYard прошли сертификацию с платформой VMmanager



Российский производитель серверного оборудования OpenYard и разработчик инфраструктурного ПО ISPsystem (входит в «Группу Астра») подтвердили совместимость серверов OpenYard RS101I, RS201I, RS102I и RS202I с платформой управления серверной виртуализацией VMmanager. Корректность совместной работы решений официально подкреплена сертификатом совместимости, выданным в рамках технологического партнерства компаний.

Проведенные испытания показали стабильную и корректную работу VMmanager на серверах OpenYard. Совместное использование решений позволяет заказчикам эффективно разворачивать и администрировать виртуальную инфраструктуру, снижая операционные затраты и упрощая эксплуатацию ИТ-среды.

Платформа VMmanager предназначена для централизованного управления виртуальными средами и позволяет автоматизировать ключевые процессы эксплуатации: создание и управление виртуальными машинами, распределение вычислительных ресурсов, контроль состояния инфраструктуры и повышение отказоустойчивости. Подтвержденная совместимость с серверами OpenYard дает заказчикам готовую, протестированную связку для быстрого и безопасного развертывания виртуализированных сред.

Серверы OpenYard RS101I и RS201I (на базе процессоров x86 третьего поколения), а также RS102I и RS202I (на базе процессоров x86 четвертого поколения) ориентированы на использование в современных дата-центрах и корпоративных ИТ-инфраструктурах. Их совместимость с VMmanager позволяет заказчикам формировать единый технологический стек для построения и масштабирования виртуализированных сред с использованием решений российских вендоров.

Развитие технологических партнерств и подтверждение совместимости оборудования с ключевыми инфраструктурными платформами – один из приоритетов OpenYard, сертификация нашего оборудования с платформой VMmanager дает заказчикам уверенность в корректной и стабильной работе виртуальной инфраструктуры и расширяет возможности применения наших решений в проектах с использованием отечественного ПО
отмечает Наталья Курилина, руководитель направления по работе с технологическими партнерами OpenYard

Наша задача – предоставить рынку не разрозненные продукты, а целостные, протестированные решения. Поэтому мы целенаправленно расширяем технологический стек в партнерстве с такими компаниями, как OpenYard. Каждое новое подтвержденное сочетание железа и софта – это шаг к созданию полноценной среды, на которой можно строить ответственную и суверенную ИТ-инфраструктуру
подчеркнул Иван Нистратов, директор по продажам ISPsystem.

ISPsystem запустила четвертую программу по поиску уязвимостей на BI.ZONE Bug Bounty



ISPsystem (входит в «Группу Астра»), ведущий разработчик инфраструктурного ПО, расширила публичную программу на BI.ZONE Bug Bounty. Теперь независимые исследователи могут проверить на наличие багов решение DCImanager 6. Размер выплат зависит от обнаруженных уязвимостей. Максимальная сумма вознаграждения — 100 000 рублей.

DCImanager отображает и мониторит иерархию всей IT-инфраструктуры, а также управляет ей: от дата-центров и размещенных в них стоек до комплектующих, установленных в серверы или хранящихся на складе. Кроме того, платформа помогает отслеживать весь жизненный цикл оборудования — от закупки до списания.

Ранее «Группа Астра» разместила на BI.ZONE Bug Bounty продукт серверной виртуализации VMmanager, платформу для управления IT-инфраструктурами и их анализа BILLmanager и программный продукт ОС Astra Linux Special Edition.

Андрей Лёвкин, руководитель продукта BI.ZONE Bug Bounty:
Уже более двух лет мы сотрудничаем с «Группой Астра» по направлению багбаунти. За это время коллеги расширили скоуп и запустили новые подпрограммы. Также они активно работают с комьюнити независимых исследователей безопасности. Совместная работа внутренних специалистов разработчика ПО и багхантеров позволяет непрерывно повышать устойчивость продуктов компании к актуальным киберугрозам

Павел Гуральник, генеральный директор ISPsystem, (входит в «Группу Астра»):
DCImanager — это фундаментальный продукт для управления физическим железом, от надежности которого зависит работа всего цифрового контура компании. Вывод платформы на BI.ZONE Bug Bounty — это логичный и ответственный шаг в рамках нашей общей стратегии по созданию защищенной отечественной ИТ-инфраструктуры.Ранее мы представили возможность исследовать VMmanager и BILLmanager и увидели огромный интерес со стороны профессионального сообщества, который привнес существенную помощь в развитии продуктов. Мы уверены, что привлечение независимых экспертов позволит вывести безопасность DCImanager на новый уровень и укрепить доверие наших клиентов

Максимум пространства и выгоды



На этой неделе на аукционе FirstDEDIC есть отличная возможность для тех, кому важен большой объём хранения.

В продаже — серверы с дисками от 4 000 до 14 000 Гб: идеальны для проектов с большими базами данных, систем резервного копирования, медиаархивов и других задач, где критичен объём.

Cейчас особенно выгодно оформить аренду на длительный срок и получить:

Скидку до 10% при аренде от 3 до 12 месяцев.
Кешбэк 12% от стоимости заказа. Возвращаем сумму на баланс после оплаты.
Примеры конфигураций:



1dedic.ru/

Декабрь — свежие техногайды, предновогодний кэшбек и немного наших итогов за 2025

Неделя до Нового года — время грандиозных планов: пет-проект, блог, спортзал. Кажется, вот шанс стать новой, продуктивной версией себя!

Но эти планы часто остаются лишь списком — ведь они рождаются на излёте сил, когда организм просит отдыха, а не новых свершений. Поэтому единственный рывок, который всем нам жизненно необходим прямо сейчас, — к дивану, на марафон по «Гарри Поттеру» с мандаринами и оливье.



А пока время длинных праздников не пришло, предлагаем сделать передышку в череде рабочих задач и прочитать наш декабрьский дайджест. В нём — познавательные материалы, интересные факты и подарок от Деда Мороза.

Дайджест новогодний, поэтому в конце вас ждёт немного итогов: предлагаем вместе вспомнить самые важные события уходящего года.

Статьи и инструкции
Запуск и настройка Django-проекта на Ubuntu
Django — высокоуровневый веб-фреймворк для создания сайтов. Для стабильной работы рабочего проекта необходим надёжный стек, например, связка MariaDB, Gunicorn и Nginx. Эта инструкция шаг за шагом поможет развернуть и настроить такую среду на Ubuntu — от установки базы данных до запуска приложения.
firstvds.ru/technology/zapusk-i-nastroyka-django-na-ubuntu
PostgreSQL-триггеры: создание, изменение и удаление с примерами
PostgreSQL-триггеры — это хранимые процедуры, которые выполняются до, после или вместо определенной операции. Делимся опытом, как использовать этот механизм при проектировании БД.
firstvds.ru/technology/postgresql-triggery-sozdanie-izmenenie-i-udalenie-s-primerami

Habr: самое интересное за декабрь
Праздничный сюрприз, который точно никому не нужен, — это взлом системы. На Хабре рассказываем о неочевидных рисках: уязвимостях в WordPress, атаках на Active Directory и скрытых угрозах IPv6.
Если захочется творчества, налейте чашку какао, возьмите имбирное печенье и откройте руководство по OpenAPI — будем учиться создавать чёткую документацию для API. А для лёгкого чтения припасли любопытное исследование, которое ответит, пожалуй, на один из самых важных вопросов 2025 года: правда ли, что ИИ-модели уже приблизились к уровню человека и могут легко выполнять его рабочие задачи?

Ищем авторов для блога на Хабр
Подготовьте статью на одну из специальных тем или отправьте материал на тему месяца. И если ваша статья подойдёт для блога, вы получите повышенный гонорар.
Тема января: софт.
firstvds.ru/avtoram

Новости декабря
Дед Мороз кешбэк принес

Чтобы сделать предпраздничные дни приятнее, подготовили специальное предложение: с 17 по 29 декабря начисляем кешбэк 10% при пополнении баланса на рекомендуемую сумму и выше. Узнать её можно в форме пополнения на сайте или в Личном кабинете.
firstvds.ru/actions/ded-moroz-keshbek

Переехали в новый ЦОД в Нидерландах

Открыли новую площадку в Амстердаме — ЦОД Qupra DC2. Это дата-центр с 30-летней историей, построенный по стандартам отказоустойчивости и безопасности. Подробнее о новом дата-центре рассказывали здесь.
Все серверы из euNetworks уже бесшовно перенесены в новый дата-центр. Стоимость аренды не изменилась, все услуги работают в штатном режиме.
firstvds.ru/products/vps_vds_netherlands

Новости из мира технологий и безопасности
Декабрь выдался довольно спокойным месяцем с точки зрения кибербезопасности. Но всё-таки не обошлось без пары серьёзных уязвимостей:
  • В первой половине декабря в трёх ключевых экосистемах — npm, crates io и React — были выявлены критические инциденты. Что произошло и как защититься от атак — в подборке.
  • Наша техподдержка обнаружила участившиеся случаи несанкционированных регистраций через демо-компоненты 1С-Битрикс, что может создать избыточную нагрузку на сайт. Какие меры предпринять, рассказываем в нашем материале.

В репозитории crates.io обнаружены сразу четыре вредоносных пакета
В репозитории crates.io были обнаружены вредоносные пакеты Rust: evm-units и uniswap-utils (нацелены на кражу криптовалюты), а также sha-rust и finch-rust (собирали конфиденциальные данные). Они маскировались под легитимные инструменты и успели набрать тысячи загрузок.
Как работает атака:
При вызове функции get_evm_version() пакет evm-units/uniswap-utils обращается к внешнему серверу и загружает скрипт (init в Linux/macOS или init.ps1 в Windows) для выполнения вредоносных действий.
Пакет finch-rust добавляет вызов sha_rust::from_str(), которая отправляет на удалённый сервер данные системы, переменные окружения и файлы с токенами (например, .env, config.toml). Пакет finch-rust также является тайпсквоттинг-атакой, имитируя легитимный пакет finch.
Как защититься:
Тщательно проверяйте названия пакетов и их зависимости перед установкой.
Обращайте внимание на подозрительные функции, которые могут обращаться к внешним ресурсам.
Регулярно обновляйте зависимости и используйте инструменты для сканирования пакетов на наличие уязвимостей.
Для защиты от тайпсквоттинга используйте точные названия пакетов при добавлении в проект.
www.opennet.ru/opennews/art.shtml?num=64394

Критическая брешь в React, которая позволяет выполнять произвольный код на сервере
В экспериментальных серверных компонентах React (RSC) была обнаружена критическая уязвимость CVE-2025-55182 с наивысшим уровнем опасности (10 из 10), позволявшая выполнить произвольный код на сервере. Она затрагивала пакеты react-server-dom-webpack, react-server-dom-parcel и react-server-dom-turbopack, а также фреймворки Next.js (отдельная уязвимость CVE-2025-66478) и React Router в экспериментальном режиме RSC. Стоит отметить, что эти компоненты используются относительно редко, поэтому большинство React-приложений не были уязвимы.
Уязвимость была вызвана небезопасной десериализацией данных в HTTP-запросах к серверным обработчикам. Атакующий мог отправить специально сформированный запрос, который позволял использовать свойства прототипа для выполнения команд ОС, JavaScript-кода или доступа к файловой системе. Для атаки не требовалась аутентификация. Исследователи подтвердили принцип эксплуатации и опубликовали рабочие эксплойты.
Чтобы устранить риск, необходимо обновить React до версий 19.0.1, 19.1.2 или 19.2.1, а Next.js — до 15.0.5, 15.1.9, 15.2.6, 15.3.6, 15.4.8, 15.5.7 или 16.0.7.
www.opennet.ru/opennews/art.shtml?num=64373

Анализ атаки Shai-Hulud 2: отчёт компании Wiz
Компания Wiz опубликовала анализ деятельности червя Shai-Hulud 2. В ходе активности вредоноса злоумышленникам удалось опубликовать вредоносные версии более 800 пакетов, которые были загружены свыше 100 миллионов раз. После установки на машину разработчика такой пакет активирует червя, который начинает поиск конфиденциальных данных — токенов доступа, ключей и переменных окружения. Обнаружив токен для публикации в npm, червь использует его для выпуска новых вредоносных пакетов, самораспространяясь. Подробнее об атаке мы рассказывали здесь.
Самое важное из отчёта:
Червь создал на GitHub свыше 30 тысяч репозиториев с украденной информацией. В них чаще всего встречались файлы environment.json (80%), contents.json (70%) и truffleSecrets.json (50%), содержащие ключи доступа, пароли и переменные окружения с поражённых систем. Также было найдено около 400 файлов actionsSecrets.json с ключами от окружений GitHub Actions.
Анализ содержимого показал, что в файлах contents.json содержалось более 500 уникальных токенов доступа к GitHub. В truffleSecrets.json было выявлено свыше 400 тысяч уникальных записей, собранных утилитой TruffleHog (верифицировано около 2,5% из них). Большая часть данных остаётся актуальной: например, 60% из перехваченных токенов npm всё ещё действуют, что создаёт основу для новых атак.
Статистика по окружению показывает, что в 77% случаев червь запускался в средах непрерывной интеграции (CI), прежде всего в GitHub Actions (60%). На компьютерах разработчиков зафиксировано 23% запусков. В 87% инцидентов использовалась ОС Linux. Большинство запусков (76%) происходило в контейнерах.
Основными векторами заражения стали пакеты @postman/tunnel-agent-0.6.7 и @asyncapi/specs-6.8.3, на которые пришлось 60% всех инфицирований. В 99% случаев активация происходила через выполнение скрипта «node setup_bun.js», прописанного в секции preinstall файла package.json.
Напоминаем, как можно защитить свои системы:
  • просканировать все конечные точки на наличие заражённых пакетов и немедленно удалить их;
  • обновить все учётные данные и проверить репозитории на наличие подозрительных файлов workflow, таких как shai-hulud-workflow.yml;
  • внимательно следить за необычными ветками и действиями в .github/workflows для выявления скрытого заражения.
www.opennet.ru/opennews/art.shtml?num=64377

Как мы работали в 2025 году
Пока готовили дайджест, оглянулись на прошедший год и захотелось поделиться с вами тем, что у нас получилось сделать.

  • 2025 был годом развития: мы внедряли новые услуги, открывали новые локации и улучшали железо. Ниже — краткий обзор всех главных продуктовых обновлений.
  • Запустили объектное хранилище S3 для больших объёмов данных (бэкапов, контента, логов и сайтов) с удобной панелью управления.
  • Представили VDS c GPU на видеокартах NVIDIA RTX 4090, L4 и L40S — решение для ресурсоёмких задач: работы с нейросетями и машинным обучением, 3D-моделирования, рендеринга и обработки видео.
  • Чтобы вы меньше волновались о работе своей инфраструктуры, запустили статус-панель: она позволяет следить за состоянием серверов в режиме реального времени. Если что-то упадёт, вы сможете сразу понять — это локальная неисправность или масштабный инцидент.
  • А для защиты проектов от внешних угроз добавили BitNinja — комплексное решение от кибератак: SQL-инъекций, DDoS, спама и взлома.
  • В 2025 география FirstVDS стала шире. Открыли новую локацию в Алматы: можно арендовать сервер в дата-центре Ahost.kz. А в Москве и Амстердаме апгрейднули железо: теперь серверы в тарифах Форсаж и Атлант открываются не только на AMD EPYC 9654, но и на новом серверном процессоре AMD EPYC 9655.

В маркетинге тоже не скучали. Вместе с вами мы провели десятки активностей и подготовили десятки материалов — делились опытом, помогали находить решения и вдохновляли на новые проекты.



Спасибо, что в 2025 году были с нами. Впереди — 2026, и у нас уже много идей. Давайте поддерживать контакт и поздравляем вас с наступающими праздниками!