Апрель — конкурс ИИ-видео, новые фичи S3-хранилища и подборка рейтинговых статей с Хабра

«Поехали!» — сказал Гагарин и полетел. Вдохновившись его подвигом, мы тоже решили поднапрячься и в апреле выложились на полную: доделали задачи, закрыли спринты, выкатили в релиз пару фич.



Теперь со спокойной душой можно на майских проводить нагрузочное тестирование мангала, мигрировать в горизонтальное положение или просто уйти в офлайн и не отсвечивать.

Специально для таких ситуаций мы подготовили наш апрельский дайджест. Собрали самое интересное для релакса на праздниках: гайды, чтобы с кайфом поковыряться в настройках, а ещё — статьи о физике и психологии для разговоров с друзьями за шашлычком.

А спринты, дедлайны, собрания — уже после майских.

Как установить Minecraft-сервер
Майские — отличный повод собраться с друзьями и поиграть в любимую игру. Подготовили инструкцию: как создать свой Minecraft-сервер, учесть подключение множества игроков и собрать огромный общий мир.
firstvds.ru/technology/kak-sozdat-i-nastroit-minecraft-server-na-ubuntu

Как сделать сайт-портфолио бесплатно без знания кода и конструкторов с помощью ИИ
Пошагово объясняем, как создать кастомный сайт с помощью ИИ на примере одностраничного портфолио. Технический бэкграунд необязателен — достаточно чётко формулировать задачи для нейросети и следовать её подсказкам в чате.
firstvds.ru/blog/kak-sdelat-sayt-besplatno-bez-znaniya-koda-i-konstruktorov-s-pomoschyu-ii

Что такое фишинг и как он изменился в 2026 году
Провели небольшое исследование о том, как развитие технологий и нейросетей помогает мошенникам придумывать новые схемы и почему привычные способы защиты перестали быть надёжными. В статье — примеры атак и несколько советов, как защититься от фишинга в новых условиях.
firstvds.ru/blog/chto-takoe-fishing-i-kak-izmenilsya-v-2026-godu

Habr: самое интересное за апрель
Отобрали статьи с Хабра, которые зацепили читателей. Сами залипли, пока читали. В подборке рассказываем, как запустить свою нейросеть на домашнем компьютере, зачем HR-специалисту разбираться в Warhammer и как это помогает понимать коллег, почему в физике элементарных частиц наступил кризис и как в 1844 году появился аналог онлайн-шахмат.

Ищем авторов для блога на Хабр
Подготовьте статью на одну из специальных тем или отправьте материал на тему месяца. И если ваша статья подойдёт для блога, вы получите повышенный гонорар.
Тема мая: электроника для начинающих.
firstvds.ru/avtoram

Новости апреля
Джон и кот в космосе: конкурс ИИ-видео


На днях запустили конкурс на лучший нейросетевой ролик про космические приключения кота и Джона. Победителям подарим крутой сет — шоппер, кепка, сумка-трансформер, блокнот с ручкой и патчи.
Чтобы поучаствовать в конкурсе, нужно подписаться на наш тг-канал, сгенерировать короткое видео с помощью ИИ и выложить в комментариях под постом до 3 мая включительно.
4 мая выберем пятерых лучших авторов по количеству реакций (лайков) под видео. Полёт фантазии не ограничиваем, но просим не вылетать за орбиту приличия :)
Дерзайте и выигрывайте классные призы!
t.me/TakeFirstNews
t.me/TakeFirstNews/1318

Новые фичи в S3-хранилище: мультипарт-загрузка и подключение домена с SSL
Продолжаем вести работы по улучшению S3 хранилища.

Добавили мультипарт-загрузку, при которой файл делится на части и качается параллельно в несколько потоков. Такой подход позволяет увеличить скорость передачи больших файлов. Другие плюсы:
  • При сбое вы сможете продолжить загрузку с того же места, где она прервалась.
  • Загружать можно что угодно — от бэкапа базы данных до архива проекта с десятками тысяч мелких файлов. Технология адаптируется под ваш файл, а не наоборот.
  • Система распределяет нагрузку. Это позволяет загружать большие файлы, не «подвешивая» всю сеть и не мешая другой работе.
  • При сбое вы сможете продолжить загрузку с того же места, где она прервалась.
  • Загружать можно что угодно — от бэкапа базы данных до архива проекта с десятками тысяч мелких файлов. Технология адаптируется под ваш файл, а не наоборот.
  • Система распределяет нагрузку. Это позволяет загружать большие файлы, не «подвешивая» всю сеть и не мешая другой работе.
Добавили возможность подключать домен и SSL-сертификат к S3-хранилищу. В чём плюсы этого решения:
  • Вместо ссылок провайдера пользователи видят ваш официальный адрес. С технической стороны это позволяет исключить возникновение предупреждений безопасности в браузерах.
  • При размещении статического сайта в бакете свой домен и SSL-сертификат делают хранилище полноценным веб-ресурсом, который работает как самостоятельный проект.
  • Вместо ссылок провайдера пользователи видят ваш официальный адрес. С технической стороны это позволяет исключить возникновение предупреждений безопасности в браузерах.
  • При размещении статического сайта в бакете свой домен и SSL-сертификат делают хранилище полноценным веб-ресурсом, который работает как самостоятельный проект.

День рождения CLO: последний день кешбэка

Проекту CLO исполнилось 6 лет! В честь этого события дарим своим клиентам кешбэк 25%. Чтобы его получить:
1. Пополните баланс в Личном кабинете до 23:59 30 апреля.
2. Введите промокод BDAYCLO на странице «Баланс и расходы» → нажмите «Активировать». Кешбэк начислится автоматически.
Сегодня последний день акции.

Топ новостей из мира безопасности


Обнаружено 113 уязвимостей в Rust Coreutils
В Rust Coreutils (uutils), которые используются в Ubuntu, независимый аудит выявил 113 уязвимостей, включая критические. В связи с этим в Ubuntu 26.04 от GNU Coreutils вернули утилиты cp, mv и rm.
Наиболее опасные уязвимости позволяют злоумышленнику выполнить код с правами root или разрушить систему:
  • chroot: если пользователь может писать в новый корень, он подставляет свои NSS-библиотеки (из-за того, что chroot() срабатывает раньше сброса привилегий и загрузки модулей NSS).
  • mkfifo: при попытке создать именованный канал в существующем файле утилита не завершается, а меняет права этого файла на 644 (rw-r--r--), открывая доступ к файлам, для которых не было разрешено чтение.
  • chmod: обход защиты --preserve-root через путь /../ или символическую ссылку на корень — можно рекурсивно изменить права доступа во всей ФС.
  • rm: обработка любых сокращений опции --no-preserve-root (например, rm -rf --n /), а также подстановка символической ссылки на / или пути ./, /// для удаления текущего каталога.
  • kill: указание идентификатора процесса -1 отправляет сигнал сразу всем процессам в системе.
  • Также выявлено много уязвимостей класса TOCTOU (состояния гонки), когда между проверкой и операцией подменяют файл на символическую ссылку — это позволяет, например, перезаписать произвольные файлы из скриптов, запущенных от root.
В Ubuntu 26.04 для cp, mv и rm уже возвращены версии из GNU Coreutils. Большинство найденных уязвимостей устранено в выпусках uutils 0.5–0.8, поэтому рекомендуем как можно скорее обновиться.
www.opennet.ru/opennews/art.shtml?num=65278

Ошибка в API IndexedDB позволяет сайтам отслеживать действия пользователей Firefox и Tor Browser
В браузерах на движке Gecko (Firefox, Tor Browser и др.) нашли уязвимость (CVE-2026-6770). Она позволяет сайтам создавать уникальный отпечаток браузера и отслеживать активность пользователя на сайтах.
Атака работает так. Сайты создают через IndexedDB один и тот же набор баз данных. Затем вызывают метод indexedDB.databases(), который возвращает список этих баз. Их порядок не зависит от имён или времени создания, а определяется внутренним устройством конкретного экземпляра браузера. Для каждого запущенного браузера этот порядок свой, но он одинаков для всех сайтов, которые пользователь открывает в рамках одной сессии. Порядок сохраняется до перезапуска браузера, и на него не влияют очистка локальных хранилищ или смена Tor-цепи («New Identity»). Атака работает даже в режиме приватного просмотра.
Уязвимость уже исправлена. Чтобы защититься, обновите браузер до версии:
  • Firefox 150 или 140.10.0 (в зависимости от ветки)
  • Tor Browser 15.0.10
www.opennet.ru/opennews/art.shtml?num=65272

Критические уязвимости в Chrome
В Chrome нашли 5 критических уязвимостей, которые позволяют обойти песочницу и выполнить вредоносный код в системе. Кроме того, браузер оказался уязвим для множества методов скрытой идентификации пользователей.
Критические уязвимости связаны с выходом за границы буфера в компонентах ANGLE и Skia, а также с обращением к уже освобождённой памяти (use-after-free) в механизме предварительной отрисовки Prerender, в XR-компонентах для виртуальной реальности и в реализации Proxy-объектов.
Методы скрытой идентификации собирают косвенные признаки: разрешение экрана, установленные шрифты, MIME-типы, заголовки HTTP/2 и HTTP/3, особенности отрисовки через WebGL, Canvas и WebGPU, утечку локального IP через WebRTC, список поддерживаемых расширений TLS, отображение Emoji, показания датчиков, подключённые Bluetooth/USB/HID-устройства, производительность системы, CSS-правила, историю посещений и даже установленные расширения браузера. Также используются «суперкуки» — например, кэш иконок Favicon или база автозаполнения форм. В Chrome почти нет встроенной защиты от таких методов.
Чтобы защититься от вероятных атак, обновите Chrome до версии 147.0.7727.101. Для блокировки скрытой идентификации можно установить браузерные дополнения, которые используют скрипты обработки контента, отладочный API (chrome.debugger) и перехват сетевых запросов (chrome.webRequest).
www.opennet.ru/opennews/art.shtml?num=65219

Уязвимость во Flatpak, позволяющая выполнить код вне изолированного окружения
Опубликованы корректирующие выпуски Flatpak 1.16.4 и 1.17.4, в которых устранена критическая уязвимость (CVE-2026-34078, 9.3 из 10), позволяющая вредоносному приложению обойти sandbox-изоляцию, получить доступ к файлам основной системы и выполнить произвольный код вне изолированного окружения.
Сервис flatpak-portal позволяет приложению указывать в опции sandbox-expose пути, которые могут быть символическими ссылками на произвольные части ФС. Сервис раскрывает ссылку и монтирует целевой путь в sandbox-окружение, давая доступ на чтение и запись к файлам хост-системы. Для выполнения кода можно, например, добавить автозапускаемый скрипт (вроде ~/.bashrc) или изменить ~/.ssh/authorized_keys.
Чтобы защитить свои системы, отключите сервис flatpak-portal командой:
sudo systemctl --global mask flatpak-portal.service && systemctl --user stop flatpak-portal.service

www.opennet.ru/opennews/art.shtml?num=65170

Две угрозы в экосистеме Python
В апреле выявили две важные уязвимости.
В стандартных библиотеках сжатия CPython (lzma, bz2, gzip) нашли критическую уязвимость (CVE-2026-6100, 9.1 балла). При распаковке специально оформленных данных и нехватке памяти может возникнуть обращение к уже освобождённой памяти (use-after-free), что приводит к утечке информации или выполнению кода атакующего. Подробности можно почитать здесь. Исправление пока только в виде патча.
Вторая проблема — атака на цепочку поставок. В пакет elementary-data (1,1 млн загрузок в месяц) через скомпрометированный GitHub Actions внедрили вредоносный код. В релизе 0.23.3, доступном для скачивания более 11 часов, при установке активировался base64-код. Он похищал SSH-ключи, данные из переменных окружения, пароли от БД, учётные данные от облачных сервисов (AWS, GCP, Azure, K8s), криптокошельки и другую конфиденциальную информацию. Подробнее здесь.
www.opennet.ru/opennews/art.shtml?num=65202
github.com/python/cpython/pull/148396
www.opennet.ru/opennews/art.shtml?num=65313

Бэкдор в 30 плагинах WordPress мог заразить тысячи сайтов через штатные обновления
Специалисты по ИБ обнаружили, что более 30 плагинов WordPress из пакета EssentialPlugin скомпрометированы. Выяснилось, что в них ещё в 2025 году внедрили бэкдор, который через штатные обновления распространился на тысячи (потенциально сотни тысяч) сайтов. Недавно малварь активировали.
После активации бэкдор связывался с внешним сервером (используя адресацию через Ethereum-блокчейн) и скачивал файл wp-comments-posts.php, который встраивал вредоносный код в wp-config.php. По команде злоумышленников малварь генерировала спам-ссылки, редиректы и фейковые страницы, видимые только Googlebot. Бэкдор активировался при условии, что эндпоинт analytics.essentialplugin.com возвращал вредоносный контент.
Сейчас скомпрометированные плагины заблокированы, WordPress.org отправил принудительное обновление, нейтрализующее бэкдор и обрывающее связь с C2. Однако оно не очищает wp-config.php — файл нужно проверить вручную. Также следует искать файл wp-comments-posts.php (не путать с легитимным wp-comments-post.php). Малварь может скрываться и в других местах.
xakep.ru/2026/04/17/essentialplugin-backdoor/

CrystalX RAT: новый MaaS-троян для кражи данных и пранков над жертвами
Эксперты «Лаборатории Касперского» обнаружили троян удалённого доступа CrystalX RAT (ранее назывался Webcrystal RAT). Вредонос распространяется по модели MaaS (Malware-as-a-Service) и нацелен преимущественно на российских пользователей. Он совмещает функции RAT, стилера, кейлоггера, клиппера и шпионского ПО, а также умеет выполнять prankware-действия (менять обои и кнопки мыши, переворачивать экран, отправлять сообщения жертве). У малвари есть собственный телеграм-канал и даже YouTube-аккаунт с видео, которые обучают использованию вредоноса.
Панель управления CrystalX позволяет клиентам собирать собственную уникальную версию трояна с широкими возможностями настройки: можно включить фильтрацию жертв по стране, выбрать иконку для исполняемого файла, подключить защиту от анализа и другие опции.
Готовый имплант сжимается с помощью zlib, а затем шифруется потоковым шифром ChaCha20 с 256‑битным ключом и 96‑битным одноразовым кодом. Кроме того, CrystalX умеет обнаруживать виртуальные машины и проверять, не запущен ли он в тестовой или отладочной среде, что затрудняет его обнаружение.
После заражения вредонос крадёт учётные данные из Steam, Discord, телеграма и всех браузеров на движке Chromium, а также мониторит буфер обмена, подменяя скопированные адреса криптокошельков на адреса злоумышленников. Троян оснащён клавиатурным шпионом (кейлоггером) и обеспечивает полный удалённый контроль над устройством жертвы: доступ к экрану, камере и микрофону с возможностью записи видео и звука. Помимо этого, CrystalX может выполнять пранк-функции.
Для защиты от трояна специалисты рекомендуют стандартные меры цифровой гигиены:
  • Обращать внимание на странное поведение (поворот экрана, блокировка клавиатуры/мыши, необычные уведомления). При подозрении — отключить компьютер от сети и интернета, установить антивирус с флешки.
  • Скачивать программы только с официальных сайтов, избегать взломанного ПО.
  • Осторожно относиться к файлам из мессенджеров (особенно архивам с паролями).
  • Включить двухфакторную аутентификацию.
  • Регулярно обновлять ОС и приложения.
  • Использовать защитное решение, которое обнаруживает и обезвреживает CrystalX.
www.kaspersky.ru/blog/prankware-crystalx-rat-maas/41616/?ysclid=mnzvvaocoy152695405

Обновление веб-сайта Dedisve



Уважаемый клиент,
Мы пишем, чтобы сообщить вам о небольшом обновлении веб-сайта Dediserve.

С 18 мая 2026 года наш устаревший веб-сайт Dediserve будет перенаправлять на iomart.com Это изменение является частью более масштабных усилий по упрощению и модернизации нашей веб-инфраструктуры.

Что это значит для вас:
  • Никаких изменений в предоставляемых услугах не наблюдается.
  • Никаких изменений в выставлении счетов или условиях договора не предусмотрено.
  • Вы продолжите пользоваться той же панелью управления, что и сегодня.

Если вы посетите существующий веб-сайт Dediserve, вы будете автоматически перенаправлены на страницу панелей управления Iomart, где сможете получить доступ к своей панели управления как обычно.
www.iomart.com/control-panels
www.iomart.com/our-data-centres

Это изменение затрагивает только веб-сайт и никак не повлияет на то, как вы управляете своими услугами или используете их.

Если у вас возникнут какие-либо вопросы или проблемы, наша служба поддержки с удовольствием вам поможет.

С уважением,
Команда Дедивер

Первый квартет задал темп



Первый выпуск «The Cloud Cover» создан специально для вас: ежеквартальный путеводитель по обновлениям OVHcloud, в котором рассказывается о новинках, изменениях и о том, почему это важно для вашего бизнеса.

Основы платформы и устойчивость
Стройте на прочном фундаменте.
www.ovhcloud.com/en-ie/lp/quarterly-product-update-q1-fy26/

Управляемый Kubernetes (многозонная отказоустойчивость) www.ovhcloud.com/en-ie/public-cloud/kubernetes/
Дата-центр в Милане www.ovhcloud.com/en-ie/about-us/global-infrastructure/multi-az/
Сквозное шифрование corporate.ovhcloud.com/en-ie/newsroom/news/ovhcloud-acquires-seald/
RTvRack www.ovhcloud.com/en-ie/network/vrack/
Новые точки присутствия для OVHcloud Connect www.ovhcloud.com/en-ie/network/ovhcloud-connect/
Зона развертывания
FOCUS 1.0 для FinOps labs.ovhcloud.com/en-ie/node/18161/
Использование собственного IP-адреса (3 зоны доступности в Милане) www.ovhcloud.com/en-ie/datacenter/europe/italy/milan/
Метрики мониторинга для экземпляров публичного облака
Протокол пограничного шлюза (альфа-версия) labs.ovhcloud.com/en-ie/node/17102/

Ускорение обработки данных, хранения информации и ИИ
Больше данных. Больше рабочих нагрузок. Больше ИИ.

Облачные графические процессоры (NVIDIA H200)
Новые функции в AI Deploy www.ovhcloud.com/en-ie/public-cloud/ai-deploy/
Защита LLM на конечных точках ИИ (бета-версия) www.ovhcloud.com/fr/public-cloud/ai-endpoints/catalog/
Управляемый ClickHouse
Модель визуального языка на конечных точках ИИ www.ovhcloud.com/fr/public-cloud/ai-endpoints/catalog/
Квантовые эмуляторы и QPU www.ovhcloud.com/en-ie/public-cloud/qpu/
Платформа данных (сертифицирована по ISO 27001 и HDS) www.ovhcloud.com/en-ie/public-cloud/data-platform/
Объектное хранилище Active Archive www.ovhcloud.com/en-ie/public-cloud/object-storage/classes/
Публичное облачное файловое хранилище (бета-версия) www.ovhcloud.com/en-ie/public-cloud/file-storage/

Новые возможности Nutanix на OVHcloud www.ovhcloud.com/en-ie/hosted-private-cloud/nutanix/packaged/
Облачная платформа SNC (бета-версия) labs.ovhcloud.com/en-ie/node/18520/
Новое оборудование для управляемого VMware vSphere www.ovhcloud.com/en-ie/hosted-private-cloud/vmware/
Новые диапазоны выделенных серверов для масштабируемых и высокопроизводительных решений www.ovhcloud.com/en-ie/bare-metal/prices/?display=list&range=scale%7Chighgrade
Управляемый кластер VMware Stretched Cluster (3 зоны доступности, альфа-версия) labs.ovhcloud.com/en-ie/node/18533/
Опыт разработчиков и малых и средних предприятий
Сделайте разработку вашей платформы проще и быстрее.
Управляемый ClickHouse
Функция автомасштабирования в AI www.ovhcloud.com/en-ie/public-cloud/ai-deploy/
Агент резервного копирования www.ovhcloud.com/en-ie/storage-solutions/backup-agent/
Управляемый WordPress для хостинга (бета-версия) www.ovhcloud.com/en-ie/node/18297/
Центр видеохостинга (бета-версия) www.ovhcloud.com/en-ie/node/19133/
VPS 2026 www.ovhcloud.com/en-ie/vps/
Пакеты доменных имен www.ovhcloud.com/en-ie/domains/tld/
Email ZIMBRA Pro www.ovhcloud.com/en-ie/emails/
Новый веб-сайт для Kimsufi www.kimsufi.com/fr/
SSD-хранилище и инфраструктура HA-NAS для веб-хостинга www.ovhcloud.com/en-ie/web-hosting/
Новый интерфейс для VoIP SIP-транка www.ovhcloud.com/en-ie/node/17707/

Добавили файловый менеджер для хранилища S3





Добавили файловый менеджер для работы с объектным хранилищем S3. Теперь управлять бакетами и файлами можно прямо в браузере, без установки клиентов, настройки CLI и перехода в сторонние сервисы.

Что умеет новый инструмент:
  • Управление бакетами – через файловый менеджер можно менять политики CORS и редактировать настройки публичности;
  • Мультипарт-загрузка — большие файлы загружаются быстро и надёжно, даже при нестабильном соединении;
  • Оптимизация нагрузки — система распределяет нагрузку при работе с тяжёлыми файлами, чтобы не перегружать сеть и ваш браузер;
  • Массовые операции — удобно управлять большим количеством файлов: доступно перемещение, удаление и копирование.

Как начать?
Просто авторизуйтесь в сервисе под нужным пользователем с использованием идентификатора ключа и секретного ключа, дополнительная настройка не требуется.
s3manager.clo.ru
clo.ru/help/s3/use/filemanager

Подтверждена совместимость платформы серверной виртуализации VMmanager 6 и систем хранения данных BAUM-Inform



Компания BAUM-Inform, российский производитель систем хранения данных, и ISPsystem (входит в «Группу Астра»), разработчик платформ для управления IT-инфраструктурой, подтверждают совместимость систем хранения данных BAUM-Inform и платформы виртуализации VMmanager 6 редакции Infrastructure. Результаты проведенных испытаний подтверждены сертификатом совместимости.

В ходе тестирования специалисты компаний проверили работу платформы виртуализации VMmanager 6 Infrastructure с системами хранения данных BAUM-Inform. Испытания проводились в соответствии с программой и методикой испытаний, учитывающей практические особенности работы СХД в инфраструктуре.

Системы хранения данных BAUM-Inform предназначены для хранения и обработки больших объёмов данных и применяются в корпоративных IT-инфраструктурах различного масштаба. Решения обеспечивают высокую производительность, гибкость и отказоустойчивость хранения.

VMmanager — это масштабируемая российская платформа для создания отказоустойчивой среды виртуализации. Решение подходит для управления аппаратной и контейнерной виртуализацией, обеспечивая изоляцию и абстрагирование виртуальной инфраструктуры от физической. Платформа объединяет физические серверы и сетевые хранилища в единый кластер, поддерживая SAN и Ceph. Высокий уровень надежности достигается за счет НА-кластера, встроенного резервного копирования и микросервисной архитектуры.

«Совместимость решений — это не только факт подключения, но и предсказуемая работа инфраструктуры в реальных условиях эксплуатации. Подтверждение совместимости с VMmanager 6 Infrastructure снижает риски при переходе на отечественные решения и даёт заказчикам уверенность в стабильной работе систем хранения в составе инфраструктуры», — отметил представитель ООО «БАУМ-Информ».

«Для нас важно, чтобы заказчики, выбирающие VMmanager для построения виртуальной инфраструктуры, имели возможность использовать проверенные и совместимые системы хранения данных. Совместные тесты с BAUM-Inform подтвердили корректную работу СХД под управлением VMmanager, что позволяет клиентам не беспокоиться о производительности и надёжности хранения данных при развёртывании виртуальных сред», — комментирует Алексей Калуга, владелец продукта VMmanager.

Эксперты BAUM-Inform и ISPsystem отмечают, что подтверждение совместимости решений расширяет возможности использования отечественных технологий при построении и развитии IT-инфраструктуры.

www.ispsystem.ru

Инференс ИИ: что происходит между запросом и ответом



Обучение модели может занимать недели и требовать суперкомпьютерных мощностей. Но ценность она создает только в один момент — когда отвечает на конкретный запрос пользователя.
Этот момент называется инференсом.

Инференс ИИ (от англ. inference — логический вывод) — это практическое применение навыков искусственного интеллекта, которые он усвоил в ходе обучения. Когда умная колонка включает свет по вашей просьбе или смартфон с помощью Face ID распознает лицо для разблокировки экрана — это и есть инференс модели в действии. Во всех подобных случаях локальное устройство или удаленный сервер выполняет операцию логического вывода.

Говоря языком определений, инференс — это процесс, при котором уже готовая, натренированная нейросеть получает новые входные данные, выполняет математическое вычисление, опираясь на каждый свой внутренний параметр, и выдает готовый результат. В этот момент обработка данных происходит «на лету», без изменения исходного кода или архитектуры алгоритма.

Инференс модели: как он связан с обучением
Невозможно запустить инференс, если предварительно не создать обученную модель.

Что такое обучение модели (training)
На этом этапе дата-инженеры заставляют алгоритм искать математические связи внутри огромных наборов данных. Модель выдает свой ответ, сравнивает его с правильным ответом, фиксирует ошибку и самостоятельно корректирует свои внутренние веса (параметры). Этот цикл повторяется миллионы раз, пока точность предсказаний не достигнет необходимого уровня.

Тренировка требует вычислительной мощности. Обычно для этого используются GPU. Когда целевой процент точности достигнут, корректировки останавливаются, а веса фиксируются. Алгоритм «замораживается», превращаясь в готовый продукт.

После этого можно приступать к инференсу.

Разница инференса и обучения
Если обучение — это долгое и ресурсоемкое создание «мозга», то инференс — это эксплуатация этого «мозга» в продакшене. Эти два процесса отличаются по целям, инфраструктуре и метрикам эффективности.


Как работает инференс искусственного интеллекта
Любая система искусственного интеллекта при обработке новых данных проходит строго определенный конвейер шагов. Скорость и точность этого процесса зависят от архитектуры обученной модели и характеристик используемого оборудования.

Принцип работы: от запроса до результата
Вне зависимости от того, генерирует ли нейросеть текст или анализирует изображение, процесс логического вывода (forward pass) включает три этапа:
  • Препроцессинг (Подготовка). Пользователь отправляет запрос через интерфейс или API. Поскольку алгоритмы работают исключительно с математическими абстракциями, входная информация (слова, пиксели, аудиоволны) конвертируется в многомерные массивы чисел — тензоры.
  • Прямой проход (Вычисление). Подготовленные данные проходят через слои нейросети. На этом этапе каждая математическая операция матричного умножения использует накопленные знания, чтобы преобразовать входной тензор.
  • Постпроцессинг (Выдача). Финальный числовой массив декодируется обратно в понятный человеку формат. Результатом работы становится сгенерированный текст, перерисованное изображение или координаты рамки, если система должна была найти конкретный объект на видео.

Аппаратная база и требования к железу
Инференс ИИ требует специфического подхода к оборудованию. Выбор железа — это всегда поиск баланса между тем, насколько быстрый нужен ответ, и какой вычислительный ресурс экономически целесообразно выделить под задачу.
  • Серверный инференс (cloud/on-premise). Выполняется на мощных серверах. Видеокарта идеально подходит для инференса благодаря тысячам вычислительных ядер, способным параллельно обрабатывать огромный массив чисел. Высокая производительная мощность помогает загрузить в память «тяжелые» модели и обслуживать сотни пользователей одновременно.
  • Edge-инференс (на устройстве). Вычисления переносятся непосредственно на конечное устройство: смартфон, IoT-датчик или умную камеру. Этот подход исключает этап передачи данных на удаленный сервер. Отсутствие сетевых запросов радикально снижает общую задержку, экономит пропускную способность сети и повышает приватность. Однако локальная вычислительная мощность и размер памяти устройства жестко ограничены, что требует использования компактных, сжатых версий нейросетей.

Инференс LLM (больших языковых моделей)
Большие языковые модели (LLM, Large Language Model), такие как GPT, Llama или Claude, построены на архитектуре трансформеров. Их базовая задача — разобраться в структуре языка, векторах смыслов и научиться предсказывать следующее слово (точнее, его фрагмент — токен) на основе всего предыдущего контекста.

Что такое LLM и как они генерируют текст
В контексте текстовых нейросетей инференс LLM работает по принципу авторегрессионной генерации. То есть модель не выдает весь ответ мгновенно. Процесс выглядит так:
  • Система анализирует входящий промпт и генерирует первый токен.
  • Этот сгенерированный токен добавляется в конец исходного запроса.
  • Модель анализирует обновленный запрос и генерирует следующий токен.
Цикл повторяется до тех пор, пока обученная модель не выдаст специальный токен остановки (stop-token) или не упрется в заложенный разработчиками лимит длины.

Особенности инференса LLM: токены, задержки и память
Главная проблема при работе с LLM — это скорость ответа и потребление оперативной памяти. В отличие от задач компьютерного зрения, где изображение обрабатывается за один проход, при генерации текста системе приходится заново прогонять данные через всю сеть для каждого нового слова.

Инженер, настраивающий инференс, всегда отслеживает два критических фактора производительности:
  • TTFT (Time To First Token) — время до появления первого сгенерированного слова. Этот показатель определяет, насколько быстро система обрабатывает исходный промпт (этап prefill).
  • TPOT (Time Per Output Token) — время генерации каждого последующего токена (этап decode).
Именно эта метрика определяет, с какой скоростью текст «печатается» на экране.
Чтобы не пересчитывать математические состояния предыдущих слов при генерации каждого нового токена, сервер сохраняет промежуточные результаты вычислений в специальный кэш контекста (КV-cache). У этого решения есть цена: по мере увеличения длины диалога объем, который занимает КV-cache в видеопамяти графического процессора, растет. При пиковой нагрузке видеопамять забивается кэшами прошлых запросов, поглощая свободный ресурс ускорителя и ограничивая число пользователей, которых сервис может обслуживать параллельно.

Где используется инференс (inference)
На практике инференс интегрирован в огромное количество IT-сервисов.

Компьютерное зрение
Инференс моделей компьютерного зрения работает с сетками пикселей в изображениях или видеопотоке. В отличие от языковых моделей, здесь данные обычно проходят через сверхточные сети или vision-трансформеры за один прямой проход.
  • Обнаружение объектов. Камера беспилотного автомобиля непрерывно передает кадры на бортовой компьютер (edge-устройство). Инференс ИИ каждую миллисекунду определяет границы пешеходов, знаков и других машин, формируя решение о продолжении движения или торможении.
  • Сегментация и классификация. Медицинские системы анализируют рентгеновские снимки, выделяя зоны с потенциальными патологиями.

Обработка естественного языка
Помимо генерации текста, инференс применяется для глубокого синтаксического и семантического анализа исходного запроса.
  • Машинный перевод. Преобразование текста из одного языкового пространства в другое с учетом контекста.
  • Анализ тональности и классификация. Спам-фильтры в почтовых клиентах или системы мониторинга бренда, которые за доли секунды определяют, является ли отзыв пользователя негативным или позитивным.

Рекомендательные системы
Стриминговые платформы и маркетплейсы используют инференс для персонализации выдачи. Когда пользователь заходит на главную страницу, система собирает его вектор истории поиска и прогоняет через обученную модель ранжирования. Результат работы — это отсортированный список товаров или фильмов, вероятность клика по которым математически наивысшая.

Голосовые помощники
Работа умной колонки — это каскадный инференс, состоящий из трех последовательных этапов:
  • Автоматическое распознавание речи конвертирует аудиоволну в текст.
  • Языковая модель анализирует текст и формирует ответ.
  • Синтез речи переводит текстовый результат обратно в голосовой формат.
Эта многосоставная операция должна уложиться в минимальный промежуток времени, чтобы диалог казался естественным.

Проблемы и ограничения инференса
Перенос обученной модели из лабораторной среды в продакшен неизбежно сталкивается с аппаратными и физическими пределами. Чем умнее и точнее искусственный интеллект, тем больше в нем параметров и тем сложнее обеспечить его быстрый и бесперебойный инференс.

Нехватка видеопамяти (VRAM Wall)
Чем больше размер модели, тем больше нужно видеопамяти. А это самый дорогой и ограниченный вычислительный ресурс.

Каждый параметр нейросети занимает конкретный объем физической памяти. Например, модель ИИ на 70 миллиардов параметров (например, Llama 3 70B) только для загрузки своих «накопленных знаний» в память потребует около 140 ГБ VRAM. Дополнительная память нужна для обработки самого запроса (тот самый KV-cache).

Задержки
Задержка — это время между отправкой запроса и получением результата. В некоторых системах критичен каждый такт процессора. Сама задержка складывается из двух факторов:
  • Сетевая задержка. Время передачи данных от клиента к серверу и обратно. Именно из-за этого фактора производители умных устройств стремятся перенести вычисления на Edge-уровень.
  • Вычислительная задержка. Время обработки математических матриц внутри GPU. Если модель слишком «тяжелая», прямой проход занимает недопустимо долгое время.

Сложности масштабирования под нагрузкой
Обслуживание одного запроса отличается от одновременного обслуживания тысяч пользователей. Когда популярный сервис сталкивается с пиковой нагрузкой, серверы начинают ставить входящие промпты в очередь.

Чтобы оптимизировать процесс, инженеры используют динамический батчинг (batching) — группировку нескольких запросов в один пакет для параллельного вычисления на видеокарте. Однако запросы имеют разную длину и генерируют ответы разного размера. Обработка неравномерных пакетов приводит к простою вычислительной мощности: одни ядра видеопроцессора уже закончили работу, а другие еще обрабатывают длинный текст. Управление этой нагрузкой — одна из главных инженерных проблем LLM-инференса на сегодняшний день.

Оптимизация инференса
Обслуживание больших нейросетей обходится компаниям очень дорого. Чтобы снизить инфраструктурные издержки и повысить общую производительность, инженеры применяют специальные технические решения, меняющие внутреннюю структуру алгоритмов или логику обработки запроса.

Главная задача здесь — найти баланс скорости инференса и качества: сделать так, чтобы система работала быстрее и потребляла меньше ресурсов ускорителя, но при этом исходная точность не деградировала.

Квантование
Это самый популярный метод — уместить тяжелую модель в ограниченный объем VRAM. Суть подхода заключается в изменении точности чисел, описывающих параметры нейросети.

Во время обучения веса модели обычно хранятся и вычисляются в 16-битном формате с плавающей запятой (FP16/BF16), где каждое число занимает 2 байта. Также существует возможность хранить их в 32-битном формате (FP32). Квантование позволяет математически округлить эти значения до менее вместительных форматов — 8-битных или 4-битных (INT8, FP8, INT4).

В результате размер обученной модели на диске и в оперативной памяти сокращается в 2–4 раза. Уменьшенная модель требует меньше тактов на чтение информации, скорость передачи данных по шине графического процессора кратно возрастает, а качество генерации падает незначительно.

Сжатие моделей
Еще один эффективный подход — физическое упрощение архитектуры алгоритма.
  • Прунинг, обрезка. После обучения в архитектуре сети остаются миллионы математических связей, вес которых близок к нулю. Они потребляют вычислительную мощность, но не влияют на итоговый результат. Инженеры выявляют такие «бесполезные» нейроны и удаляют их из графа вычислений, делая нейросеть легче и быстрее.
  • Дистилляция знаний. Процесс, при котором огромная, медленная обученная модель выступает в роли «учителя». На ее идеальных ответах тренируют маленькую, компактную модель-«ученика». Меньшая модель усваивает паттерны поведения большой и может работать автономно с высокой скоростью на слабом железе.

Ускорение: устранение простоев и умный батчинг
Для текстовых LLM критически важна работа с памятью и очередями. Если обрабатывать промпты по одному, дорогостоящий вычислительный ресурс будет простаивать в ожидании новых токенов.

Чтобы избежать простоев, применяется метод непрерывного батчинга. Процесс строится динамически: система не ждет, пока графический чип допишет весь длинный текст для одного пользователя. Как только в пакете вычислений освобождается место (кто-то получил свой финальный токен), сервер тут же подмешивает туда новый запрос от другого клиента.

Чтобы оперативная память не фрагментировалась из-за разной длины ответов, кэш контекста нарезают на одинаковые страницы (блоки). Это работает аналогично управлению памятью в современных операционных системах и позволяет увеличить пропускную способность сервера в несколько раз.

Часто задаваемые вопросы (FAQ)
Что такое инференс простыми словами?
Это процесс работы уже готового (натренированного) искусственного интеллекта. Когда вы отправляете фото в приложение, чтобы наложить фильтр, или пишите вопрос в чат-бот, система применяет свои накопленные знания к вашим новым данным, чтобы мгновенно выдать результат. Выполнение этой задачи — и есть инференс.

Что такое инференс модели?
Это этап жизненного цикла модели глубокого обучения, следующий после тренировки (training). На этапе инференса внутренние параметры нейросети «заморожены». Модель не учится ничему новому, она используется исключительно в режиме чтения для выполнения предсказаний, классификации или генерации контента.

Как работает инференс LLM?
Инференс больших языковых моделей работает по принципу авторегрессии. Нейросеть генерирует ответ не целиком, а последовательно — один токен (часть слова) за другим. Каждый новый сгенерированный токен добавляется к вашему исходному контексту, и алгоритм заново оценивает весь текст, чтобы предсказать следующую часть слова, пока не дойдет до логического конца.

Можно ли запустить инференс на обычном процессоре (CPU)?
Да, можно. Процесс логического вывода на центральном процессоре отлично подходит для компактных нейросетей, небольших объемов данных и Edge-инференса. Однако вычисление тяжелых моделей (например, генерация изображений или локальный запуск LLM) на CPU будет происходить крайне медленно из-за недостатка параллельных ядер, в отличие от видеокарт (GPU).

Чем Edge-инференс отличается от облачного?
Облачный инференс работает на удаленных мощных серверах — он быстрый, но требует постоянного подключения к интернету, что создает сетевую задержку. Edge-инференс выполняется локально, прямо на вашем устройстве. Он полностью приватен, не тратит время на передачу данных по сети и работает без связи, но ограничен вычислительной мощностью чипа в устройстве.

Почему популярные чат-боты иногда печатают ответ с паузами или задержками?
Это связано с метриками TTFT (время до первого токена) и вычислительной задержкой внутри серверов компании. Если сервис находится под высокой нагрузкой от тысяч пользователей одновременно, ваш запрос встает в очередь, а мощностей GPU не хватает для мгновенной генерации текста в режиме реального времени.

Сколько памяти нужно, чтобы запустить AI на своем ПК или сервере?
Для грубого расчета используйте формулу: «Число параметров × количество байт формата точности». Если модель имеет 8 миллиардов параметров и квантована в 4-битный формат (0.5 байта на параметр), для ее базовой загрузки потребуется около 4 ГБ видеопамяти. Плюс еще 1–2 ГБ потребуется выделить для кэша контекста во время самой генерации текста.

В чем разница между инференсом и промпт-инжинирингом?
Инференс — это аппаратный и математический процесс вычисления внутри компьютера. Промпт-инжиниринг — это пользовательский навык составления правильных, точных текстовых запросов (промптов), чтобы в ходе инференса нейросеть поняла задачу максимально верно и выдала ожидаемый результат.

servercore.com

Топ-5 выделенных серверов для AI - арендуй на ABCD.HOST



Собрали короткую подборку выделенных GPU-серверов в Европе и РФ, которые можно арендовать и использовать под AI-задачи: inference, LLM, RAG, embeddings, ботов, API, ML-тесты и локальные нейросетевые сервисы.

В топ вошли разные варианты — от бюджетного входа на Tesla T4 до мощных конфигураций с RTX 6000 Ada 48GB и RTX PRO 6000 Blackwell Max-Q 96GB.

Кратко по актуальным конфигурациям:
1. SAGPU-128 — RTX 6000 Ada 48GB, 128 GB RAM, 2×1.92 TB NVMe — €960/мес, установка бесплатно
2. GEX131 — RTX PRO 6000 Blackwell Max-Q 96GB, 256 GB RAM, 2×960 GB NVMe — €1319/мес, установка €1555
3. GEX44 — RTX 4000 SFF Ada 20GB, 64 GB RAM, 2×1.92 TB NVMe — €343/мес, установка €264
4. CL26G-NVMe — Tesla T4 16GB, 32 GB RAM, 2×1000 GB NVMe — €220/мес, установка бесплатно
5. CL23G-NVMe — RTX 2080 Ti 11GB, 32 GB RAM, 2×1000 GB NVMe — €275/мес, установка бесплатно

Не стали включать в основной AI-топ серверы только со встроенной графикой — для нейросетей всё-таки критичны видеопамять и класс GPU.

Полный разбор с конфигурациями и сценариями использования опубликовали в блоге ABCD.HOST:
blog.abcd.host/abcd-host-bare-metal-radar-top-5-vydelennyh-serverov-dlja-ai/

Если нужна помощь с подбором сервера под конкретную модель, RAG, inference API или AI-бота — можно написать нам в поддержку, подскажем по конфигурации либо арендуйте выделенные серверы с GPU по следующей ссылке abcd.host/dedicated

Спасибо, что остаетесь с нами!
ABCD.HOST

RUVDS запустил площадку с вычислительными мощностями в Самаре



Хостинг-провайдер VDS серверов RUVDS ввел в работу площадку с вычислительными мощностями в Самаре. Оборудование развернуто и введено в строй на базе ЦОД «СМАРТС». Возможность заказать VPS в новой, 22-й по счёту, локации компании уже доступна всем желающим.

«Открытие этой площадки для нас – не просто выход в новый регион, а серьёзный стратегический шаг: находясь между европейской частью России и Сибирью с Дальним Востоком, Самара являются важным узлом магистральных оптоволоконных линий, входя в число наиболее развитых регионов по показателю внедрения электронных технологий. В свете тренда на перенос инфраструктуры из Москвы вглубь страны, развития edge-вычислений, а также наличия стабильной энергетической базы для дата-центров, мы уверены, что новая локация станет одной из ключевых в портфолио нашей компании», – отметил гендиректор хостинг-провайдера VPS серверов RUVDS Никита Цаплин.

ЦОД «СМАРТС» предлагает своим клиентам бесперебойное питание 1-й категории надежности; автоматический ввод резерва электропитания; оборудован дизель-генераторной установкой большой мощности. В ЦОД установлены современная охранно-пожарная сигнализация и система газового пожаротушения.

RUVDS на регулярной основе расширяет число опций, доступных клиентам компании. Так, в 2026 году компания запустила площадку с вычислительными мощностями в Минске, а в прошлом – открыла локации в Ереване, Краснодаре, Мурманске, Омске и Уфе.

ruvds.com/ru-rub

Облачный провайдер Beget объявляет о запуске бета-версии Kubernetes в облаке



Российский облачный провайдер ИТ-инфраструктуры Beget объявляет о запуске бета-версии сервиса на базе Kubernetes. Новое решение позволит пользователям упростить управление инфраструктурой, автоматизировать процессы и повысить стабильность работы приложений.
Сервис берет на себя выполнение ключевых рутинных задач: автоматически восстанавливает недоступные сервисы, распределяет нагрузку и обеспечивает стабильную работу приложений без постоянного ручного контроля.

Managed Kubernetes от Beget призван дать возможность нашим пользователям получать все преимущества платформы Kubernetes: масштабирование, отказоустойчивость, мониторинг без существенных расходов на поддержку и обслуживание платформы. Видим своей задачей сделать Kubernetes доступным и понятным не только крупным командам, но и индивидуальным разработчикам, малому и среднему бизнесу.
Владислав Колесников, Chief Product Officer

Инструмент для современной разработки
Решение ориентировано на команды, работающие с микросервисной архитектурой и высоконагруженными сервисами. С его помощью пользователи могут:
  • разворачивать и масштабировать микросервисную архитектуру;
  • поддерживать высокую доступность и отказоустойчивость приложений;
  • упрощать CI/CD (непрерывная интеграция / непрерывная доставка);

Ключевые преимущества платформы:
  • Стабильная и безопасная инфраструктура. Изолированные кластеры, приватные сети и контроль доступа на уровне проекта обеспечивают полную безопасность и надежность.
  • Единая экосистема инструментов. Благодаря широкой поддержке плагинов, операторов и интеграций Kubernetes позволяет создавать гибкую инфраструктуру под любые задачи.
  • Прозрачная модель использования. Сервис реализован с понятной и гибкой моделью тарификации. Пользователи оплачивают управляющий контур кластера и ресурсы инфраструктуры отдельно, что позволяет точно контролировать расходы и адаптировать конфигурацию под текущие задачи.
  • Доступны различные варианты конфигурации — от базовых решений для разработки до отказоустойчивых кластеров.

Доступность и дальнейшее развитие
Бета-версия Kubernetes уже доступна пользователям Beget — создать кластер можно через панель управления облачной платформы. Для быстрого старта подготовлено подробное руководство.
Beget приглашает пользователей протестировать Kubernetes в облаке и оценить преимущества автоматизированного управления инфраструктурой.

beget.com/ru/
beget.com/ru/kb/manual/managed-kubernetes

Безопасность, которой вы можете доверять



Наша сертификация C5 Type 2 подтверждает, что наши продукты и услуги прошли независимую проверку и соответствуют высоким стандартам безопасности.

Аудит, основанный на системе C5, разработанной Федеральным управлением информационной безопасности Германии (BSI), охватывает ключевые области, такие как информационная безопасность, управление, прозрачность и соответствие требованиям.

В конечном итоге, все это направлено на обеспечение нашим клиентам прочной основы для безопасной и надежной инфраструктуры