Сегодня был проведён осмотр совместно с сотрудниками



Сегодня был проведён осмотр совместно с сотрудниками. С нашей стороны оказано полное содействие: предоставлена вся необходимая информация и выполнены все возможные технические мероприятия.

Осмотр данных проводился в нашем присутствии и исключительно в отношении абонента, зафиксированного в рамках уголовного дела. Иные данные затронуты не были.

Завтра работа в этом направлении также будет продолжена в течение всего дня. После завершения всех мероприятий ожидаем принятия решения о выдаче.

Все данные абонентов сохранены, виртуальные машины функционируют корректно, серверы находятся в удовлетворительном состоянии.

Отдельно отметим, что подобные ситуации, как правило, затягиваются на месяцы. Тем не менее, мы прилагаем максимум усилий, чтобы пройти все процедуры максимально быстро и восстановить работу в кратчайшие возможные сроки.

Планируем полностью восстановить работу до 9 мая. Точные сроки пока назвать затруднительно, однако делаем всё возможное, чтобы завершить восстановление как можно быстрее.

Благодарим за поддержку и понимание — это действительно важно для нас.

hosting-russia.ru

Срочно: обновите ядро Linux



Раскрыта критическая уязвимость ядра Linux CVE-2026-31431 («Copy Fail», CVSS 7.8). Затронуты практически все дистрибутивы с ядрами 2017+ — Ubuntu, Debian, RHEL, Alma, Rocky, SUSE, Amazon Linux. Локальный непривилегированный пользователь получает root через 10-строчный Python-скрипт, редактирующий PageCache любого файла, включая setuid-бинарники. Без race-условий, без подбора смещений.

Что делать прямо сейчас:
Ubuntu / Debian:
apt update && apt upgrade


RHEL / Alma / Rocky / Amazon Linux:
dnf update kernel


SUSE:
zypper update kernel-default


После обновления — перезагрузка обязательна, иначе старое ядро остаётся в памяти.

Если перезагрузка прямо сейчас невозможна и вы не используете IPsec ESP с Extended Sequence Numbers — временно отключите модуль:
echo "install algif_aead /bin/false" > /etc/modprobe.d/disable-algif-aead.conf && rmmod algif_aead


Подробности и PoC: xint.io/blog/copy-fail-linux-distributions

Нужна помощь — поддержка is*hosting на связи 24/7

Уведомление о безопасности — CVE-2026-31431: анализ, область применения и план устранения уязвимости



Это информационное уведомление относительно уязвимости CVE-2026-31431, известной как «Copy Fail». Она представляет собой одну из наиболее распространенных уязвимостей ядра Linux за последние годы, потенциально влияющую на глобальную экосистему Linux. Об этой уязвимости было сообщено 29 апреля 2026 года.

Наша команда безопасности подтвердила это в день публикации и немедленно начала необходимые расследования.

Эта уязвимость, расположенная в криптографической подсистеме ядра (через интерфейс AF_ALG), позволяет осуществить локальное повышение привилегий (LPE). На стандартном сервере она позволяет стандартному пользователю стать root (администратором). В контейнеризированной среде (например, Docker или Kubernetes) она позволяет контейнеру получить контроль над хост-узлом.

Поскольку безопасность вашей инфраструктуры является нашим приоритетом, ниже приведена подробная информация о влиянии этой уязвимости на ваши сервисы Scaleway и рекомендации по ее устранению.

Действия, предпринятые Scaleway
После обнаружения этой уязвимости наши команды приняли необходимые меры для обеспечения безопасности среды и предоставления чистых образов:

В Kubernetes Kapsule: Развернуты новые образы ОС, отключающие модуль algif_aead: Любой новый узел, созданный после 30 апреля 2026 г., 14:20 CEST, будет автоматически использовать версию с исправлением. (Вы можете проверить дату выпуска используемой версии в поле OS-IMAGE, возвращаемом командой kubectl get node -o wide).

Оценка риска: Многопользовательская среда против изолированной среды
Срочность применения исправлений сильно зависит от ваших моделей использования и архитектуры ваших сервисов:

Многопользовательская / Общая среда (высокая степень серьезности): Если ваши машины или кластеры Kapsule размещают приложения от разных клиентов, предоставляют доступ к командной оболочке нескольким пользователям или выполняют непроверенный сторонний код, эта уязвимость является критической. Злоумышленник с ограниченным доступом (стандартный пользователь или доступ к поду) может использовать эту уязвимость для получения полного контроля над сервером (доступ root) и компрометации данных других арендаторов в системе.

Однопользовательская/изолированная среда (умеренная степень опасности): Если ваши серверы или кластеры предназначены исключительно для вашего собственного использования и запускают только доверенные приложения, код которых вы контролируете (без возможности локального доступа или произвольного выполнения третьими лицами), риск значительно ниже. Для использования уязвимости действительно требуется предварительное локальное выполнение кода.

Необходимые действия и временные меры
Постоянное решение — обновить ядро ​​вашей системы, как только станет доступна версия, включающая патч. Мы рекомендуем регулярно проверять наличие патча для вашей конкретной ОС.

Меры по смягчению последствий (временное решение):
Если немедленная перезагрузка или обновление невозможны, вы можете применить временные меры по смягчению последствий непосредственно на затронутых узлах и серверах, чтобы заблокировать уязвимый интерфейс. Выполните следующие команды с правами администратора (root или sudo):
# Create a rule to prevent their automatic reloading

echo "install algif_aead /bin/false" > /etc/modprobe.d/disable-algif.conf



# Unload the vulnerable module from memory

rmmod algif_aead 2>/dev/null || true

For servers based on RedHat / CentOS / AlmaLinux / RockyLinux:

# Create a rule to prevent the module from loading automatically on boot

grubby --update-kernel=ALL --args=initcall_blacklist=algif_aead_init



# Completely reboot the system to apply the modification

For Kubernetes Kapsule, this operation must be performed on the worker nodes, for example via SSH access or by deploying a privileged DaemonSet:

apiVersion: apps/v1

kind: DaemonSet

metadata:

  name: disable-algif-aead

  namespace: kube-system

  labels:

    app: disable-algif-aead

spec:

  selector:

    matchLabels:

      app: disable-algif-aead

  template:

    metadata:

      labels:

        app: disable-algif-aead

    spec:

      hostPID: true

      tolerations:

        - operator: Exists

          effect: NoSchedule

        - operator: Exists

          effect: NoExecute

      initContainers:

        - name: disable-algif-aead

          image: alpine:3.23

          securityContext:

            privileged: true

          command:

            - /bin/sh

            - -c

            - |

              echo "install algif_aead /bin/false" > /etc/modprobe.d/disable-algif-aead.conf

              rmmod algif_aead 2>/dev/null || true

          volumeMounts:

            - name: modprobe-d

              mountPath: /etc/modprobe.d

      containers:

        - name: pause

          image: registry.k8s.io/pause:3.10

          resources:

            limits:

              cpu: 1m

              memory: 8Mi

      volumes:

        - name: modprobe-d

          hostPath:

            path: /etc/modprobe.d


Откат: Команды повторной активации
Отключение af_alg не влияет на подавляющее большинство стандартных приложений. Однако, если некоторым вашим сервисам требуется криптографическое ускорение, предоставляемое этой подсистемой (и вы наблюдаете сбои), вы можете отменить это решение в любое время с помощью следующих команд:
# Удаление блокирующего файла
sudo rm /etc/modprobe.d/disable-algif.conf

# Ручная перезагрузка модуля в ядро
sudo modprobe algif_aead

Мы остаемся в полном распоряжении для предоставления любой дополнительной информации или технической помощи через консоль.

Команда Scaleway.

OVHcloud использует Belenos от Quandela для ускорения развития европейского квантового сектора



Рубе – 17 апреля 2026 г. – На форуме Quantum Defense Forum компания OVHcloud, мировой игрок и европейский лидер в области облачных вычислений, и компания Quandela, специализирующаяся на фотонных квантовых вычислениях, объявили о появлении компьютера Belenos на квантовой платформе OVHcloud.

Представленная прошлой осенью платформа OVHcloud Quantum Platform демократизирует использование квантовых вычислений и доступ к передовым технологиям благодаря модели потребления «квантовые вычисления как услуга» (QaaS). С добавлением Belenos, OVHcloud продолжает реализацию своей амбициозной дорожной карты по созданию квантовых компьютеров, доступных из облака.

В Belenos de Quandel используется технология квантовой фотоники, обеспечивающая вычислительную мощность в 12 кубитов. Это позволяет экспериментировать с новыми алгоритмами в различных и инновационных областях, таких как классификация и генерация изображений, ускорение искусственного интеллекта и квантовое машинное обучение (QML). Новые области применения в электромагнитном моделировании, структурной механике, горении в двигателях, моделировании материалов, метеорологии и наблюдении за Землей также выигрывают от достижений в области квантовых вычислений.

С 2022 года Группа поддерживает европейскую квантовую экосистему, предоставляя самый широкий спектр квантовых эмуляторов на основе своей инфраструктуры, которой пользуются более тысячи человек. Сейчас, предлагая пятнадцать доступных квантовых эмуляторов (включая Perceval и MerLin) по цене от 0,03 евро в час, Группа помогает пользователям познакомиться с различными моделями квантовых вычислений.

Мы рады выполнить обещание, заложенное в квантовой платформе, добавив второй эталонный квантовый компьютер, Belenos, от французской компании Quandela. Квантовая революция набирает обороты, и OVHcloud намерена занять свое законное место в качестве европейского лидера в области облачных технологий в рамках экосистемы
говорит Мирослав Клаба, директор по исследованиям и разработкам OVHcloud.

Квантовая платформа OVHcloud предоставляет доступ к реальным квантовым компьютерам, стремясь ускорить внедрение квантовых вычислений в частном секторе. Квантовый процессор Belenos предлагается как услуга с оплатой по фактическому использованию, с точностью до секунды, без каких-либо обязательств.

Интеграция 12 кубитов Belenos в предложение OVHcloud знаменует собой решающий шаг для квантовых вычислений в Европе. Доступный через облако, этот фотонный компьютер становится конкретным инструментом для бизнеса. С помощью OVHcloud мы предлагаем специалистам по обработке данных и новаторам средства для разработки своих алгоритмов на гибкой и суверенной инфраструктуре
говорит Никколо Сомаски, генеральный директор и соучредитель Quandela.

Апрель — конкурс ИИ-видео, новые фичи S3-хранилища и подборка рейтинговых статей с Хабра

«Поехали!» — сказал Гагарин и полетел. Вдохновившись его подвигом, мы тоже решили поднапрячься и в апреле выложились на полную: доделали задачи, закрыли спринты, выкатили в релиз пару фич.



Теперь со спокойной душой можно на майских проводить нагрузочное тестирование мангала, мигрировать в горизонтальное положение или просто уйти в офлайн и не отсвечивать.

Специально для таких ситуаций мы подготовили наш апрельский дайджест. Собрали самое интересное для релакса на праздниках: гайды, чтобы с кайфом поковыряться в настройках, а ещё — статьи о физике и психологии для разговоров с друзьями за шашлычком.

А спринты, дедлайны, собрания — уже после майских.

Как установить Minecraft-сервер
Майские — отличный повод собраться с друзьями и поиграть в любимую игру. Подготовили инструкцию: как создать свой Minecraft-сервер, учесть подключение множества игроков и собрать огромный общий мир.
firstvds.ru/technology/kak-sozdat-i-nastroit-minecraft-server-na-ubuntu

Как сделать сайт-портфолио бесплатно без знания кода и конструкторов с помощью ИИ
Пошагово объясняем, как создать кастомный сайт с помощью ИИ на примере одностраничного портфолио. Технический бэкграунд необязателен — достаточно чётко формулировать задачи для нейросети и следовать её подсказкам в чате.
firstvds.ru/blog/kak-sdelat-sayt-besplatno-bez-znaniya-koda-i-konstruktorov-s-pomoschyu-ii

Что такое фишинг и как он изменился в 2026 году
Провели небольшое исследование о том, как развитие технологий и нейросетей помогает мошенникам придумывать новые схемы и почему привычные способы защиты перестали быть надёжными. В статье — примеры атак и несколько советов, как защититься от фишинга в новых условиях.
firstvds.ru/blog/chto-takoe-fishing-i-kak-izmenilsya-v-2026-godu

Habr: самое интересное за апрель
Отобрали статьи с Хабра, которые зацепили читателей. Сами залипли, пока читали. В подборке рассказываем, как запустить свою нейросеть на домашнем компьютере, зачем HR-специалисту разбираться в Warhammer и как это помогает понимать коллег, почему в физике элементарных частиц наступил кризис и как в 1844 году появился аналог онлайн-шахмат.

Ищем авторов для блога на Хабр
Подготовьте статью на одну из специальных тем или отправьте материал на тему месяца. И если ваша статья подойдёт для блога, вы получите повышенный гонорар.
Тема мая: электроника для начинающих.
firstvds.ru/avtoram

Новости апреля
Джон и кот в космосе: конкурс ИИ-видео


На днях запустили конкурс на лучший нейросетевой ролик про космические приключения кота и Джона. Победителям подарим крутой сет — шоппер, кепка, сумка-трансформер, блокнот с ручкой и патчи.
Чтобы поучаствовать в конкурсе, нужно подписаться на наш тг-канал, сгенерировать короткое видео с помощью ИИ и выложить в комментариях под постом до 3 мая включительно.
4 мая выберем пятерых лучших авторов по количеству реакций (лайков) под видео. Полёт фантазии не ограничиваем, но просим не вылетать за орбиту приличия :)
Дерзайте и выигрывайте классные призы!
t.me/TakeFirstNews
t.me/TakeFirstNews/1318

Новые фичи в S3-хранилище: мультипарт-загрузка и подключение домена с SSL
Продолжаем вести работы по улучшению S3 хранилища.

Добавили мультипарт-загрузку, при которой файл делится на части и качается параллельно в несколько потоков. Такой подход позволяет увеличить скорость передачи больших файлов. Другие плюсы:
  • При сбое вы сможете продолжить загрузку с того же места, где она прервалась.
  • Загружать можно что угодно — от бэкапа базы данных до архива проекта с десятками тысяч мелких файлов. Технология адаптируется под ваш файл, а не наоборот.
  • Система распределяет нагрузку. Это позволяет загружать большие файлы, не «подвешивая» всю сеть и не мешая другой работе.
  • При сбое вы сможете продолжить загрузку с того же места, где она прервалась.
  • Загружать можно что угодно — от бэкапа базы данных до архива проекта с десятками тысяч мелких файлов. Технология адаптируется под ваш файл, а не наоборот.
  • Система распределяет нагрузку. Это позволяет загружать большие файлы, не «подвешивая» всю сеть и не мешая другой работе.
Добавили возможность подключать домен и SSL-сертификат к S3-хранилищу. В чём плюсы этого решения:
  • Вместо ссылок провайдера пользователи видят ваш официальный адрес. С технической стороны это позволяет исключить возникновение предупреждений безопасности в браузерах.
  • При размещении статического сайта в бакете свой домен и SSL-сертификат делают хранилище полноценным веб-ресурсом, который работает как самостоятельный проект.
  • Вместо ссылок провайдера пользователи видят ваш официальный адрес. С технической стороны это позволяет исключить возникновение предупреждений безопасности в браузерах.
  • При размещении статического сайта в бакете свой домен и SSL-сертификат делают хранилище полноценным веб-ресурсом, который работает как самостоятельный проект.

День рождения CLO: последний день кешбэка

Проекту CLO исполнилось 6 лет! В честь этого события дарим своим клиентам кешбэк 25%. Чтобы его получить:
1. Пополните баланс в Личном кабинете до 23:59 30 апреля.
2. Введите промокод BDAYCLO на странице «Баланс и расходы» → нажмите «Активировать». Кешбэк начислится автоматически.
Сегодня последний день акции.

Топ новостей из мира безопасности


Обнаружено 113 уязвимостей в Rust Coreutils
В Rust Coreutils (uutils), которые используются в Ubuntu, независимый аудит выявил 113 уязвимостей, включая критические. В связи с этим в Ubuntu 26.04 от GNU Coreutils вернули утилиты cp, mv и rm.
Наиболее опасные уязвимости позволяют злоумышленнику выполнить код с правами root или разрушить систему:
  • chroot: если пользователь может писать в новый корень, он подставляет свои NSS-библиотеки (из-за того, что chroot() срабатывает раньше сброса привилегий и загрузки модулей NSS).
  • mkfifo: при попытке создать именованный канал в существующем файле утилита не завершается, а меняет права этого файла на 644 (rw-r--r--), открывая доступ к файлам, для которых не было разрешено чтение.
  • chmod: обход защиты --preserve-root через путь /../ или символическую ссылку на корень — можно рекурсивно изменить права доступа во всей ФС.
  • rm: обработка любых сокращений опции --no-preserve-root (например, rm -rf --n /), а также подстановка символической ссылки на / или пути ./, /// для удаления текущего каталога.
  • kill: указание идентификатора процесса -1 отправляет сигнал сразу всем процессам в системе.
  • Также выявлено много уязвимостей класса TOCTOU (состояния гонки), когда между проверкой и операцией подменяют файл на символическую ссылку — это позволяет, например, перезаписать произвольные файлы из скриптов, запущенных от root.
В Ubuntu 26.04 для cp, mv и rm уже возвращены версии из GNU Coreutils. Большинство найденных уязвимостей устранено в выпусках uutils 0.5–0.8, поэтому рекомендуем как можно скорее обновиться.
www.opennet.ru/opennews/art.shtml?num=65278

Ошибка в API IndexedDB позволяет сайтам отслеживать действия пользователей Firefox и Tor Browser
В браузерах на движке Gecko (Firefox, Tor Browser и др.) нашли уязвимость (CVE-2026-6770). Она позволяет сайтам создавать уникальный отпечаток браузера и отслеживать активность пользователя на сайтах.
Атака работает так. Сайты создают через IndexedDB один и тот же набор баз данных. Затем вызывают метод indexedDB.databases(), который возвращает список этих баз. Их порядок не зависит от имён или времени создания, а определяется внутренним устройством конкретного экземпляра браузера. Для каждого запущенного браузера этот порядок свой, но он одинаков для всех сайтов, которые пользователь открывает в рамках одной сессии. Порядок сохраняется до перезапуска браузера, и на него не влияют очистка локальных хранилищ или смена Tor-цепи («New Identity»). Атака работает даже в режиме приватного просмотра.
Уязвимость уже исправлена. Чтобы защититься, обновите браузер до версии:
  • Firefox 150 или 140.10.0 (в зависимости от ветки)
  • Tor Browser 15.0.10
www.opennet.ru/opennews/art.shtml?num=65272

Критические уязвимости в Chrome
В Chrome нашли 5 критических уязвимостей, которые позволяют обойти песочницу и выполнить вредоносный код в системе. Кроме того, браузер оказался уязвим для множества методов скрытой идентификации пользователей.
Критические уязвимости связаны с выходом за границы буфера в компонентах ANGLE и Skia, а также с обращением к уже освобождённой памяти (use-after-free) в механизме предварительной отрисовки Prerender, в XR-компонентах для виртуальной реальности и в реализации Proxy-объектов.
Методы скрытой идентификации собирают косвенные признаки: разрешение экрана, установленные шрифты, MIME-типы, заголовки HTTP/2 и HTTP/3, особенности отрисовки через WebGL, Canvas и WebGPU, утечку локального IP через WebRTC, список поддерживаемых расширений TLS, отображение Emoji, показания датчиков, подключённые Bluetooth/USB/HID-устройства, производительность системы, CSS-правила, историю посещений и даже установленные расширения браузера. Также используются «суперкуки» — например, кэш иконок Favicon или база автозаполнения форм. В Chrome почти нет встроенной защиты от таких методов.
Чтобы защититься от вероятных атак, обновите Chrome до версии 147.0.7727.101. Для блокировки скрытой идентификации можно установить браузерные дополнения, которые используют скрипты обработки контента, отладочный API (chrome.debugger) и перехват сетевых запросов (chrome.webRequest).
www.opennet.ru/opennews/art.shtml?num=65219

Уязвимость во Flatpak, позволяющая выполнить код вне изолированного окружения
Опубликованы корректирующие выпуски Flatpak 1.16.4 и 1.17.4, в которых устранена критическая уязвимость (CVE-2026-34078, 9.3 из 10), позволяющая вредоносному приложению обойти sandbox-изоляцию, получить доступ к файлам основной системы и выполнить произвольный код вне изолированного окружения.
Сервис flatpak-portal позволяет приложению указывать в опции sandbox-expose пути, которые могут быть символическими ссылками на произвольные части ФС. Сервис раскрывает ссылку и монтирует целевой путь в sandbox-окружение, давая доступ на чтение и запись к файлам хост-системы. Для выполнения кода можно, например, добавить автозапускаемый скрипт (вроде ~/.bashrc) или изменить ~/.ssh/authorized_keys.
Чтобы защитить свои системы, отключите сервис flatpak-portal командой:
sudo systemctl --global mask flatpak-portal.service && systemctl --user stop flatpak-portal.service

www.opennet.ru/opennews/art.shtml?num=65170

Две угрозы в экосистеме Python
В апреле выявили две важные уязвимости.
В стандартных библиотеках сжатия CPython (lzma, bz2, gzip) нашли критическую уязвимость (CVE-2026-6100, 9.1 балла). При распаковке специально оформленных данных и нехватке памяти может возникнуть обращение к уже освобождённой памяти (use-after-free), что приводит к утечке информации или выполнению кода атакующего. Подробности можно почитать здесь. Исправление пока только в виде патча.
Вторая проблема — атака на цепочку поставок. В пакет elementary-data (1,1 млн загрузок в месяц) через скомпрометированный GitHub Actions внедрили вредоносный код. В релизе 0.23.3, доступном для скачивания более 11 часов, при установке активировался base64-код. Он похищал SSH-ключи, данные из переменных окружения, пароли от БД, учётные данные от облачных сервисов (AWS, GCP, Azure, K8s), криптокошельки и другую конфиденциальную информацию. Подробнее здесь.
www.opennet.ru/opennews/art.shtml?num=65202
github.com/python/cpython/pull/148396
www.opennet.ru/opennews/art.shtml?num=65313

Бэкдор в 30 плагинах WordPress мог заразить тысячи сайтов через штатные обновления
Специалисты по ИБ обнаружили, что более 30 плагинов WordPress из пакета EssentialPlugin скомпрометированы. Выяснилось, что в них ещё в 2025 году внедрили бэкдор, который через штатные обновления распространился на тысячи (потенциально сотни тысяч) сайтов. Недавно малварь активировали.
После активации бэкдор связывался с внешним сервером (используя адресацию через Ethereum-блокчейн) и скачивал файл wp-comments-posts.php, который встраивал вредоносный код в wp-config.php. По команде злоумышленников малварь генерировала спам-ссылки, редиректы и фейковые страницы, видимые только Googlebot. Бэкдор активировался при условии, что эндпоинт analytics.essentialplugin.com возвращал вредоносный контент.
Сейчас скомпрометированные плагины заблокированы, WordPress.org отправил принудительное обновление, нейтрализующее бэкдор и обрывающее связь с C2. Однако оно не очищает wp-config.php — файл нужно проверить вручную. Также следует искать файл wp-comments-posts.php (не путать с легитимным wp-comments-post.php). Малварь может скрываться и в других местах.
xakep.ru/2026/04/17/essentialplugin-backdoor/

CrystalX RAT: новый MaaS-троян для кражи данных и пранков над жертвами
Эксперты «Лаборатории Касперского» обнаружили троян удалённого доступа CrystalX RAT (ранее назывался Webcrystal RAT). Вредонос распространяется по модели MaaS (Malware-as-a-Service) и нацелен преимущественно на российских пользователей. Он совмещает функции RAT, стилера, кейлоггера, клиппера и шпионского ПО, а также умеет выполнять prankware-действия (менять обои и кнопки мыши, переворачивать экран, отправлять сообщения жертве). У малвари есть собственный телеграм-канал и даже YouTube-аккаунт с видео, которые обучают использованию вредоноса.
Панель управления CrystalX позволяет клиентам собирать собственную уникальную версию трояна с широкими возможностями настройки: можно включить фильтрацию жертв по стране, выбрать иконку для исполняемого файла, подключить защиту от анализа и другие опции.
Готовый имплант сжимается с помощью zlib, а затем шифруется потоковым шифром ChaCha20 с 256‑битным ключом и 96‑битным одноразовым кодом. Кроме того, CrystalX умеет обнаруживать виртуальные машины и проверять, не запущен ли он в тестовой или отладочной среде, что затрудняет его обнаружение.
После заражения вредонос крадёт учётные данные из Steam, Discord, телеграма и всех браузеров на движке Chromium, а также мониторит буфер обмена, подменяя скопированные адреса криптокошельков на адреса злоумышленников. Троян оснащён клавиатурным шпионом (кейлоггером) и обеспечивает полный удалённый контроль над устройством жертвы: доступ к экрану, камере и микрофону с возможностью записи видео и звука. Помимо этого, CrystalX может выполнять пранк-функции.
Для защиты от трояна специалисты рекомендуют стандартные меры цифровой гигиены:
  • Обращать внимание на странное поведение (поворот экрана, блокировка клавиатуры/мыши, необычные уведомления). При подозрении — отключить компьютер от сети и интернета, установить антивирус с флешки.
  • Скачивать программы только с официальных сайтов, избегать взломанного ПО.
  • Осторожно относиться к файлам из мессенджеров (особенно архивам с паролями).
  • Включить двухфакторную аутентификацию.
  • Регулярно обновлять ОС и приложения.
  • Использовать защитное решение, которое обнаруживает и обезвреживает CrystalX.
www.kaspersky.ru/blog/prankware-crystalx-rat-maas/41616/?ysclid=mnzvvaocoy152695405

Первый квартет задал темп



Первый выпуск «The Cloud Cover» создан специально для вас: ежеквартальный путеводитель по обновлениям OVHcloud, в котором рассказывается о новинках, изменениях и о том, почему это важно для вашего бизнеса.

Основы платформы и устойчивость
Стройте на прочном фундаменте.
www.ovhcloud.com/en-ie/lp/quarterly-product-update-q1-fy26/

Управляемый Kubernetes (многозонная отказоустойчивость) www.ovhcloud.com/en-ie/public-cloud/kubernetes/
Дата-центр в Милане www.ovhcloud.com/en-ie/about-us/global-infrastructure/multi-az/
Сквозное шифрование corporate.ovhcloud.com/en-ie/newsroom/news/ovhcloud-acquires-seald/
RTvRack www.ovhcloud.com/en-ie/network/vrack/
Новые точки присутствия для OVHcloud Connect www.ovhcloud.com/en-ie/network/ovhcloud-connect/
Зона развертывания
FOCUS 1.0 для FinOps labs.ovhcloud.com/en-ie/node/18161/
Использование собственного IP-адреса (3 зоны доступности в Милане) www.ovhcloud.com/en-ie/datacenter/europe/italy/milan/
Метрики мониторинга для экземпляров публичного облака
Протокол пограничного шлюза (альфа-версия) labs.ovhcloud.com/en-ie/node/17102/

Ускорение обработки данных, хранения информации и ИИ
Больше данных. Больше рабочих нагрузок. Больше ИИ.

Облачные графические процессоры (NVIDIA H200)
Новые функции в AI Deploy www.ovhcloud.com/en-ie/public-cloud/ai-deploy/
Защита LLM на конечных точках ИИ (бета-версия) www.ovhcloud.com/fr/public-cloud/ai-endpoints/catalog/
Управляемый ClickHouse
Модель визуального языка на конечных точках ИИ www.ovhcloud.com/fr/public-cloud/ai-endpoints/catalog/
Квантовые эмуляторы и QPU www.ovhcloud.com/en-ie/public-cloud/qpu/
Платформа данных (сертифицирована по ISO 27001 и HDS) www.ovhcloud.com/en-ie/public-cloud/data-platform/
Объектное хранилище Active Archive www.ovhcloud.com/en-ie/public-cloud/object-storage/classes/
Публичное облачное файловое хранилище (бета-версия) www.ovhcloud.com/en-ie/public-cloud/file-storage/

Новые возможности Nutanix на OVHcloud www.ovhcloud.com/en-ie/hosted-private-cloud/nutanix/packaged/
Облачная платформа SNC (бета-версия) labs.ovhcloud.com/en-ie/node/18520/
Новое оборудование для управляемого VMware vSphere www.ovhcloud.com/en-ie/hosted-private-cloud/vmware/
Новые диапазоны выделенных серверов для масштабируемых и высокопроизводительных решений www.ovhcloud.com/en-ie/bare-metal/prices/?display=list&range=scale%7Chighgrade
Управляемый кластер VMware Stretched Cluster (3 зоны доступности, альфа-версия) labs.ovhcloud.com/en-ie/node/18533/
Опыт разработчиков и малых и средних предприятий
Сделайте разработку вашей платформы проще и быстрее.
Управляемый ClickHouse
Функция автомасштабирования в AI www.ovhcloud.com/en-ie/public-cloud/ai-deploy/
Агент резервного копирования www.ovhcloud.com/en-ie/storage-solutions/backup-agent/
Управляемый WordPress для хостинга (бета-версия) www.ovhcloud.com/en-ie/node/18297/
Центр видеохостинга (бета-версия) www.ovhcloud.com/en-ie/node/19133/
VPS 2026 www.ovhcloud.com/en-ie/vps/
Пакеты доменных имен www.ovhcloud.com/en-ie/domains/tld/
Email ZIMBRA Pro www.ovhcloud.com/en-ie/emails/
Новый веб-сайт для Kimsufi www.kimsufi.com/fr/
SSD-хранилище и инфраструктура HA-NAS для веб-хостинга www.ovhcloud.com/en-ie/web-hosting/
Новый интерфейс для VoIP SIP-транка www.ovhcloud.com/en-ie/node/17707/

Добавили файловый менеджер для хранилища S3





Добавили файловый менеджер для работы с объектным хранилищем S3. Теперь управлять бакетами и файлами можно прямо в браузере, без установки клиентов, настройки CLI и перехода в сторонние сервисы.

Что умеет новый инструмент:
  • Управление бакетами – через файловый менеджер можно менять политики CORS и редактировать настройки публичности;
  • Мультипарт-загрузка — большие файлы загружаются быстро и надёжно, даже при нестабильном соединении;
  • Оптимизация нагрузки — система распределяет нагрузку при работе с тяжёлыми файлами, чтобы не перегружать сеть и ваш браузер;
  • Массовые операции — удобно управлять большим количеством файлов: доступно перемещение, удаление и копирование.

Как начать?
Просто авторизуйтесь в сервисе под нужным пользователем с использованием идентификатора ключа и секретного ключа, дополнительная настройка не требуется.
s3manager.clo.ru
clo.ru/help/s3/use/filemanager

Подтверждена совместимость платформы серверной виртуализации VMmanager 6 и систем хранения данных BAUM-Inform



Компания BAUM-Inform, российский производитель систем хранения данных, и ISPsystem (входит в «Группу Астра»), разработчик платформ для управления IT-инфраструктурой, подтверждают совместимость систем хранения данных BAUM-Inform и платформы виртуализации VMmanager 6 редакции Infrastructure. Результаты проведенных испытаний подтверждены сертификатом совместимости.

В ходе тестирования специалисты компаний проверили работу платформы виртуализации VMmanager 6 Infrastructure с системами хранения данных BAUM-Inform. Испытания проводились в соответствии с программой и методикой испытаний, учитывающей практические особенности работы СХД в инфраструктуре.

Системы хранения данных BAUM-Inform предназначены для хранения и обработки больших объёмов данных и применяются в корпоративных IT-инфраструктурах различного масштаба. Решения обеспечивают высокую производительность, гибкость и отказоустойчивость хранения.

VMmanager — это масштабируемая российская платформа для создания отказоустойчивой среды виртуализации. Решение подходит для управления аппаратной и контейнерной виртуализацией, обеспечивая изоляцию и абстрагирование виртуальной инфраструктуры от физической. Платформа объединяет физические серверы и сетевые хранилища в единый кластер, поддерживая SAN и Ceph. Высокий уровень надежности достигается за счет НА-кластера, встроенного резервного копирования и микросервисной архитектуры.

«Совместимость решений — это не только факт подключения, но и предсказуемая работа инфраструктуры в реальных условиях эксплуатации. Подтверждение совместимости с VMmanager 6 Infrastructure снижает риски при переходе на отечественные решения и даёт заказчикам уверенность в стабильной работе систем хранения в составе инфраструктуры», — отметил представитель ООО «БАУМ-Информ».

«Для нас важно, чтобы заказчики, выбирающие VMmanager для построения виртуальной инфраструктуры, имели возможность использовать проверенные и совместимые системы хранения данных. Совместные тесты с BAUM-Inform подтвердили корректную работу СХД под управлением VMmanager, что позволяет клиентам не беспокоиться о производительности и надёжности хранения данных при развёртывании виртуальных сред», — комментирует Алексей Калуга, владелец продукта VMmanager.

Эксперты BAUM-Inform и ISPsystem отмечают, что подтверждение совместимости решений расширяет возможности использования отечественных технологий при построении и развитии IT-инфраструктуры.

www.ispsystem.ru

Инференс ИИ: что происходит между запросом и ответом



Обучение модели может занимать недели и требовать суперкомпьютерных мощностей. Но ценность она создает только в один момент — когда отвечает на конкретный запрос пользователя.
Этот момент называется инференсом.

Инференс ИИ (от англ. inference — логический вывод) — это практическое применение навыков искусственного интеллекта, которые он усвоил в ходе обучения. Когда умная колонка включает свет по вашей просьбе или смартфон с помощью Face ID распознает лицо для разблокировки экрана — это и есть инференс модели в действии. Во всех подобных случаях локальное устройство или удаленный сервер выполняет операцию логического вывода.

Говоря языком определений, инференс — это процесс, при котором уже готовая, натренированная нейросеть получает новые входные данные, выполняет математическое вычисление, опираясь на каждый свой внутренний параметр, и выдает готовый результат. В этот момент обработка данных происходит «на лету», без изменения исходного кода или архитектуры алгоритма.

Инференс модели: как он связан с обучением
Невозможно запустить инференс, если предварительно не создать обученную модель.

Что такое обучение модели (training)
На этом этапе дата-инженеры заставляют алгоритм искать математические связи внутри огромных наборов данных. Модель выдает свой ответ, сравнивает его с правильным ответом, фиксирует ошибку и самостоятельно корректирует свои внутренние веса (параметры). Этот цикл повторяется миллионы раз, пока точность предсказаний не достигнет необходимого уровня.

Тренировка требует вычислительной мощности. Обычно для этого используются GPU. Когда целевой процент точности достигнут, корректировки останавливаются, а веса фиксируются. Алгоритм «замораживается», превращаясь в готовый продукт.

После этого можно приступать к инференсу.

Разница инференса и обучения
Если обучение — это долгое и ресурсоемкое создание «мозга», то инференс — это эксплуатация этого «мозга» в продакшене. Эти два процесса отличаются по целям, инфраструктуре и метрикам эффективности.


Как работает инференс искусственного интеллекта
Любая система искусственного интеллекта при обработке новых данных проходит строго определенный конвейер шагов. Скорость и точность этого процесса зависят от архитектуры обученной модели и характеристик используемого оборудования.

Принцип работы: от запроса до результата
Вне зависимости от того, генерирует ли нейросеть текст или анализирует изображение, процесс логического вывода (forward pass) включает три этапа:
  • Препроцессинг (Подготовка). Пользователь отправляет запрос через интерфейс или API. Поскольку алгоритмы работают исключительно с математическими абстракциями, входная информация (слова, пиксели, аудиоволны) конвертируется в многомерные массивы чисел — тензоры.
  • Прямой проход (Вычисление). Подготовленные данные проходят через слои нейросети. На этом этапе каждая математическая операция матричного умножения использует накопленные знания, чтобы преобразовать входной тензор.
  • Постпроцессинг (Выдача). Финальный числовой массив декодируется обратно в понятный человеку формат. Результатом работы становится сгенерированный текст, перерисованное изображение или координаты рамки, если система должна была найти конкретный объект на видео.

Аппаратная база и требования к железу
Инференс ИИ требует специфического подхода к оборудованию. Выбор железа — это всегда поиск баланса между тем, насколько быстрый нужен ответ, и какой вычислительный ресурс экономически целесообразно выделить под задачу.
  • Серверный инференс (cloud/on-premise). Выполняется на мощных серверах. Видеокарта идеально подходит для инференса благодаря тысячам вычислительных ядер, способным параллельно обрабатывать огромный массив чисел. Высокая производительная мощность помогает загрузить в память «тяжелые» модели и обслуживать сотни пользователей одновременно.
  • Edge-инференс (на устройстве). Вычисления переносятся непосредственно на конечное устройство: смартфон, IoT-датчик или умную камеру. Этот подход исключает этап передачи данных на удаленный сервер. Отсутствие сетевых запросов радикально снижает общую задержку, экономит пропускную способность сети и повышает приватность. Однако локальная вычислительная мощность и размер памяти устройства жестко ограничены, что требует использования компактных, сжатых версий нейросетей.

Инференс LLM (больших языковых моделей)
Большие языковые модели (LLM, Large Language Model), такие как GPT, Llama или Claude, построены на архитектуре трансформеров. Их базовая задача — разобраться в структуре языка, векторах смыслов и научиться предсказывать следующее слово (точнее, его фрагмент — токен) на основе всего предыдущего контекста.

Что такое LLM и как они генерируют текст
В контексте текстовых нейросетей инференс LLM работает по принципу авторегрессионной генерации. То есть модель не выдает весь ответ мгновенно. Процесс выглядит так:
  • Система анализирует входящий промпт и генерирует первый токен.
  • Этот сгенерированный токен добавляется в конец исходного запроса.
  • Модель анализирует обновленный запрос и генерирует следующий токен.
Цикл повторяется до тех пор, пока обученная модель не выдаст специальный токен остановки (stop-token) или не упрется в заложенный разработчиками лимит длины.

Особенности инференса LLM: токены, задержки и память
Главная проблема при работе с LLM — это скорость ответа и потребление оперативной памяти. В отличие от задач компьютерного зрения, где изображение обрабатывается за один проход, при генерации текста системе приходится заново прогонять данные через всю сеть для каждого нового слова.

Инженер, настраивающий инференс, всегда отслеживает два критических фактора производительности:
  • TTFT (Time To First Token) — время до появления первого сгенерированного слова. Этот показатель определяет, насколько быстро система обрабатывает исходный промпт (этап prefill).
  • TPOT (Time Per Output Token) — время генерации каждого последующего токена (этап decode).
Именно эта метрика определяет, с какой скоростью текст «печатается» на экране.
Чтобы не пересчитывать математические состояния предыдущих слов при генерации каждого нового токена, сервер сохраняет промежуточные результаты вычислений в специальный кэш контекста (КV-cache). У этого решения есть цена: по мере увеличения длины диалога объем, который занимает КV-cache в видеопамяти графического процессора, растет. При пиковой нагрузке видеопамять забивается кэшами прошлых запросов, поглощая свободный ресурс ускорителя и ограничивая число пользователей, которых сервис может обслуживать параллельно.

Где используется инференс (inference)
На практике инференс интегрирован в огромное количество IT-сервисов.

Компьютерное зрение
Инференс моделей компьютерного зрения работает с сетками пикселей в изображениях или видеопотоке. В отличие от языковых моделей, здесь данные обычно проходят через сверхточные сети или vision-трансформеры за один прямой проход.
  • Обнаружение объектов. Камера беспилотного автомобиля непрерывно передает кадры на бортовой компьютер (edge-устройство). Инференс ИИ каждую миллисекунду определяет границы пешеходов, знаков и других машин, формируя решение о продолжении движения или торможении.
  • Сегментация и классификация. Медицинские системы анализируют рентгеновские снимки, выделяя зоны с потенциальными патологиями.

Обработка естественного языка
Помимо генерации текста, инференс применяется для глубокого синтаксического и семантического анализа исходного запроса.
  • Машинный перевод. Преобразование текста из одного языкового пространства в другое с учетом контекста.
  • Анализ тональности и классификация. Спам-фильтры в почтовых клиентах или системы мониторинга бренда, которые за доли секунды определяют, является ли отзыв пользователя негативным или позитивным.

Рекомендательные системы
Стриминговые платформы и маркетплейсы используют инференс для персонализации выдачи. Когда пользователь заходит на главную страницу, система собирает его вектор истории поиска и прогоняет через обученную модель ранжирования. Результат работы — это отсортированный список товаров или фильмов, вероятность клика по которым математически наивысшая.

Голосовые помощники
Работа умной колонки — это каскадный инференс, состоящий из трех последовательных этапов:
  • Автоматическое распознавание речи конвертирует аудиоволну в текст.
  • Языковая модель анализирует текст и формирует ответ.
  • Синтез речи переводит текстовый результат обратно в голосовой формат.
Эта многосоставная операция должна уложиться в минимальный промежуток времени, чтобы диалог казался естественным.

Проблемы и ограничения инференса
Перенос обученной модели из лабораторной среды в продакшен неизбежно сталкивается с аппаратными и физическими пределами. Чем умнее и точнее искусственный интеллект, тем больше в нем параметров и тем сложнее обеспечить его быстрый и бесперебойный инференс.

Нехватка видеопамяти (VRAM Wall)
Чем больше размер модели, тем больше нужно видеопамяти. А это самый дорогой и ограниченный вычислительный ресурс.

Каждый параметр нейросети занимает конкретный объем физической памяти. Например, модель ИИ на 70 миллиардов параметров (например, Llama 3 70B) только для загрузки своих «накопленных знаний» в память потребует около 140 ГБ VRAM. Дополнительная память нужна для обработки самого запроса (тот самый KV-cache).

Задержки
Задержка — это время между отправкой запроса и получением результата. В некоторых системах критичен каждый такт процессора. Сама задержка складывается из двух факторов:
  • Сетевая задержка. Время передачи данных от клиента к серверу и обратно. Именно из-за этого фактора производители умных устройств стремятся перенести вычисления на Edge-уровень.
  • Вычислительная задержка. Время обработки математических матриц внутри GPU. Если модель слишком «тяжелая», прямой проход занимает недопустимо долгое время.

Сложности масштабирования под нагрузкой
Обслуживание одного запроса отличается от одновременного обслуживания тысяч пользователей. Когда популярный сервис сталкивается с пиковой нагрузкой, серверы начинают ставить входящие промпты в очередь.

Чтобы оптимизировать процесс, инженеры используют динамический батчинг (batching) — группировку нескольких запросов в один пакет для параллельного вычисления на видеокарте. Однако запросы имеют разную длину и генерируют ответы разного размера. Обработка неравномерных пакетов приводит к простою вычислительной мощности: одни ядра видеопроцессора уже закончили работу, а другие еще обрабатывают длинный текст. Управление этой нагрузкой — одна из главных инженерных проблем LLM-инференса на сегодняшний день.

Оптимизация инференса
Обслуживание больших нейросетей обходится компаниям очень дорого. Чтобы снизить инфраструктурные издержки и повысить общую производительность, инженеры применяют специальные технические решения, меняющие внутреннюю структуру алгоритмов или логику обработки запроса.

Главная задача здесь — найти баланс скорости инференса и качества: сделать так, чтобы система работала быстрее и потребляла меньше ресурсов ускорителя, но при этом исходная точность не деградировала.

Квантование
Это самый популярный метод — уместить тяжелую модель в ограниченный объем VRAM. Суть подхода заключается в изменении точности чисел, описывающих параметры нейросети.

Во время обучения веса модели обычно хранятся и вычисляются в 16-битном формате с плавающей запятой (FP16/BF16), где каждое число занимает 2 байта. Также существует возможность хранить их в 32-битном формате (FP32). Квантование позволяет математически округлить эти значения до менее вместительных форматов — 8-битных или 4-битных (INT8, FP8, INT4).

В результате размер обученной модели на диске и в оперативной памяти сокращается в 2–4 раза. Уменьшенная модель требует меньше тактов на чтение информации, скорость передачи данных по шине графического процессора кратно возрастает, а качество генерации падает незначительно.

Сжатие моделей
Еще один эффективный подход — физическое упрощение архитектуры алгоритма.
  • Прунинг, обрезка. После обучения в архитектуре сети остаются миллионы математических связей, вес которых близок к нулю. Они потребляют вычислительную мощность, но не влияют на итоговый результат. Инженеры выявляют такие «бесполезные» нейроны и удаляют их из графа вычислений, делая нейросеть легче и быстрее.
  • Дистилляция знаний. Процесс, при котором огромная, медленная обученная модель выступает в роли «учителя». На ее идеальных ответах тренируют маленькую, компактную модель-«ученика». Меньшая модель усваивает паттерны поведения большой и может работать автономно с высокой скоростью на слабом железе.

Ускорение: устранение простоев и умный батчинг
Для текстовых LLM критически важна работа с памятью и очередями. Если обрабатывать промпты по одному, дорогостоящий вычислительный ресурс будет простаивать в ожидании новых токенов.

Чтобы избежать простоев, применяется метод непрерывного батчинга. Процесс строится динамически: система не ждет, пока графический чип допишет весь длинный текст для одного пользователя. Как только в пакете вычислений освобождается место (кто-то получил свой финальный токен), сервер тут же подмешивает туда новый запрос от другого клиента.

Чтобы оперативная память не фрагментировалась из-за разной длины ответов, кэш контекста нарезают на одинаковые страницы (блоки). Это работает аналогично управлению памятью в современных операционных системах и позволяет увеличить пропускную способность сервера в несколько раз.

Часто задаваемые вопросы (FAQ)
Что такое инференс простыми словами?
Это процесс работы уже готового (натренированного) искусственного интеллекта. Когда вы отправляете фото в приложение, чтобы наложить фильтр, или пишите вопрос в чат-бот, система применяет свои накопленные знания к вашим новым данным, чтобы мгновенно выдать результат. Выполнение этой задачи — и есть инференс.

Что такое инференс модели?
Это этап жизненного цикла модели глубокого обучения, следующий после тренировки (training). На этапе инференса внутренние параметры нейросети «заморожены». Модель не учится ничему новому, она используется исключительно в режиме чтения для выполнения предсказаний, классификации или генерации контента.

Как работает инференс LLM?
Инференс больших языковых моделей работает по принципу авторегрессии. Нейросеть генерирует ответ не целиком, а последовательно — один токен (часть слова) за другим. Каждый новый сгенерированный токен добавляется к вашему исходному контексту, и алгоритм заново оценивает весь текст, чтобы предсказать следующую часть слова, пока не дойдет до логического конца.

Можно ли запустить инференс на обычном процессоре (CPU)?
Да, можно. Процесс логического вывода на центральном процессоре отлично подходит для компактных нейросетей, небольших объемов данных и Edge-инференса. Однако вычисление тяжелых моделей (например, генерация изображений или локальный запуск LLM) на CPU будет происходить крайне медленно из-за недостатка параллельных ядер, в отличие от видеокарт (GPU).

Чем Edge-инференс отличается от облачного?
Облачный инференс работает на удаленных мощных серверах — он быстрый, но требует постоянного подключения к интернету, что создает сетевую задержку. Edge-инференс выполняется локально, прямо на вашем устройстве. Он полностью приватен, не тратит время на передачу данных по сети и работает без связи, но ограничен вычислительной мощностью чипа в устройстве.

Почему популярные чат-боты иногда печатают ответ с паузами или задержками?
Это связано с метриками TTFT (время до первого токена) и вычислительной задержкой внутри серверов компании. Если сервис находится под высокой нагрузкой от тысяч пользователей одновременно, ваш запрос встает в очередь, а мощностей GPU не хватает для мгновенной генерации текста в режиме реального времени.

Сколько памяти нужно, чтобы запустить AI на своем ПК или сервере?
Для грубого расчета используйте формулу: «Число параметров × количество байт формата точности». Если модель имеет 8 миллиардов параметров и квантована в 4-битный формат (0.5 байта на параметр), для ее базовой загрузки потребуется около 4 ГБ видеопамяти. Плюс еще 1–2 ГБ потребуется выделить для кэша контекста во время самой генерации текста.

В чем разница между инференсом и промпт-инжинирингом?
Инференс — это аппаратный и математический процесс вычисления внутри компьютера. Промпт-инжиниринг — это пользовательский навык составления правильных, точных текстовых запросов (промптов), чтобы в ходе инференса нейросеть поняла задачу максимально верно и выдала ожидаемый результат.

servercore.com

Топ-5 выделенных серверов для AI - арендуй на ABCD.HOST



Собрали короткую подборку выделенных GPU-серверов в Европе и РФ, которые можно арендовать и использовать под AI-задачи: inference, LLM, RAG, embeddings, ботов, API, ML-тесты и локальные нейросетевые сервисы.

В топ вошли разные варианты — от бюджетного входа на Tesla T4 до мощных конфигураций с RTX 6000 Ada 48GB и RTX PRO 6000 Blackwell Max-Q 96GB.

Кратко по актуальным конфигурациям:
1. SAGPU-128 — RTX 6000 Ada 48GB, 128 GB RAM, 2×1.92 TB NVMe — €960/мес, установка бесплатно
2. GEX131 — RTX PRO 6000 Blackwell Max-Q 96GB, 256 GB RAM, 2×960 GB NVMe — €1319/мес, установка €1555
3. GEX44 — RTX 4000 SFF Ada 20GB, 64 GB RAM, 2×1.92 TB NVMe — €343/мес, установка €264
4. CL26G-NVMe — Tesla T4 16GB, 32 GB RAM, 2×1000 GB NVMe — €220/мес, установка бесплатно
5. CL23G-NVMe — RTX 2080 Ti 11GB, 32 GB RAM, 2×1000 GB NVMe — €275/мес, установка бесплатно

Не стали включать в основной AI-топ серверы только со встроенной графикой — для нейросетей всё-таки критичны видеопамять и класс GPU.

Полный разбор с конфигурациями и сценариями использования опубликовали в блоге ABCD.HOST:
blog.abcd.host/abcd-host-bare-metal-radar-top-5-vydelennyh-serverov-dlja-ai/

Если нужна помощь с подбором сервера под конкретную модель, RAG, inference API или AI-бота — можно написать нам в поддержку, подскажем по конфигурации либо арендуйте выделенные серверы с GPU по следующей ссылке abcd.host/dedicated

Спасибо, что остаетесь с нами!
ABCD.HOST