Инференс ИИ: что происходит между запросом и ответом



Обучение модели может занимать недели и требовать суперкомпьютерных мощностей. Но ценность она создает только в один момент — когда отвечает на конкретный запрос пользователя.
Этот момент называется инференсом.

Инференс ИИ (от англ. inference — логический вывод) — это практическое применение навыков искусственного интеллекта, которые он усвоил в ходе обучения. Когда умная колонка включает свет по вашей просьбе или смартфон с помощью Face ID распознает лицо для разблокировки экрана — это и есть инференс модели в действии. Во всех подобных случаях локальное устройство или удаленный сервер выполняет операцию логического вывода.

Говоря языком определений, инференс — это процесс, при котором уже готовая, натренированная нейросеть получает новые входные данные, выполняет математическое вычисление, опираясь на каждый свой внутренний параметр, и выдает готовый результат. В этот момент обработка данных происходит «на лету», без изменения исходного кода или архитектуры алгоритма.

Инференс модели: как он связан с обучением
Невозможно запустить инференс, если предварительно не создать обученную модель.

Что такое обучение модели (training)
На этом этапе дата-инженеры заставляют алгоритм искать математические связи внутри огромных наборов данных. Модель выдает свой ответ, сравнивает его с правильным ответом, фиксирует ошибку и самостоятельно корректирует свои внутренние веса (параметры). Этот цикл повторяется миллионы раз, пока точность предсказаний не достигнет необходимого уровня.

Тренировка требует вычислительной мощности. Обычно для этого используются GPU. Когда целевой процент точности достигнут, корректировки останавливаются, а веса фиксируются. Алгоритм «замораживается», превращаясь в готовый продукт.

После этого можно приступать к инференсу.

Разница инференса и обучения
Если обучение — это долгое и ресурсоемкое создание «мозга», то инференс — это эксплуатация этого «мозга» в продакшене. Эти два процесса отличаются по целям, инфраструктуре и метрикам эффективности.


Как работает инференс искусственного интеллекта
Любая система искусственного интеллекта при обработке новых данных проходит строго определенный конвейер шагов. Скорость и точность этого процесса зависят от архитектуры обученной модели и характеристик используемого оборудования.

Принцип работы: от запроса до результата
Вне зависимости от того, генерирует ли нейросеть текст или анализирует изображение, процесс логического вывода (forward pass) включает три этапа:
  • Препроцессинг (Подготовка). Пользователь отправляет запрос через интерфейс или API. Поскольку алгоритмы работают исключительно с математическими абстракциями, входная информация (слова, пиксели, аудиоволны) конвертируется в многомерные массивы чисел — тензоры.
  • Прямой проход (Вычисление). Подготовленные данные проходят через слои нейросети. На этом этапе каждая математическая операция матричного умножения использует накопленные знания, чтобы преобразовать входной тензор.
  • Постпроцессинг (Выдача). Финальный числовой массив декодируется обратно в понятный человеку формат. Результатом работы становится сгенерированный текст, перерисованное изображение или координаты рамки, если система должна была найти конкретный объект на видео.

Аппаратная база и требования к железу
Инференс ИИ требует специфического подхода к оборудованию. Выбор железа — это всегда поиск баланса между тем, насколько быстрый нужен ответ, и какой вычислительный ресурс экономически целесообразно выделить под задачу.
  • Серверный инференс (cloud/on-premise). Выполняется на мощных серверах. Видеокарта идеально подходит для инференса благодаря тысячам вычислительных ядер, способным параллельно обрабатывать огромный массив чисел. Высокая производительная мощность помогает загрузить в память «тяжелые» модели и обслуживать сотни пользователей одновременно.
  • Edge-инференс (на устройстве). Вычисления переносятся непосредственно на конечное устройство: смартфон, IoT-датчик или умную камеру. Этот подход исключает этап передачи данных на удаленный сервер. Отсутствие сетевых запросов радикально снижает общую задержку, экономит пропускную способность сети и повышает приватность. Однако локальная вычислительная мощность и размер памяти устройства жестко ограничены, что требует использования компактных, сжатых версий нейросетей.

Инференс LLM (больших языковых моделей)
Большие языковые модели (LLM, Large Language Model), такие как GPT, Llama или Claude, построены на архитектуре трансформеров. Их базовая задача — разобраться в структуре языка, векторах смыслов и научиться предсказывать следующее слово (точнее, его фрагмент — токен) на основе всего предыдущего контекста.

Что такое LLM и как они генерируют текст
В контексте текстовых нейросетей инференс LLM работает по принципу авторегрессионной генерации. То есть модель не выдает весь ответ мгновенно. Процесс выглядит так:
  • Система анализирует входящий промпт и генерирует первый токен.
  • Этот сгенерированный токен добавляется в конец исходного запроса.
  • Модель анализирует обновленный запрос и генерирует следующий токен.
Цикл повторяется до тех пор, пока обученная модель не выдаст специальный токен остановки (stop-token) или не упрется в заложенный разработчиками лимит длины.

Особенности инференса LLM: токены, задержки и память
Главная проблема при работе с LLM — это скорость ответа и потребление оперативной памяти. В отличие от задач компьютерного зрения, где изображение обрабатывается за один проход, при генерации текста системе приходится заново прогонять данные через всю сеть для каждого нового слова.

Инженер, настраивающий инференс, всегда отслеживает два критических фактора производительности:
  • TTFT (Time To First Token) — время до появления первого сгенерированного слова. Этот показатель определяет, насколько быстро система обрабатывает исходный промпт (этап prefill).
  • TPOT (Time Per Output Token) — время генерации каждого последующего токена (этап decode).
Именно эта метрика определяет, с какой скоростью текст «печатается» на экране.
Чтобы не пересчитывать математические состояния предыдущих слов при генерации каждого нового токена, сервер сохраняет промежуточные результаты вычислений в специальный кэш контекста (КV-cache). У этого решения есть цена: по мере увеличения длины диалога объем, который занимает КV-cache в видеопамяти графического процессора, растет. При пиковой нагрузке видеопамять забивается кэшами прошлых запросов, поглощая свободный ресурс ускорителя и ограничивая число пользователей, которых сервис может обслуживать параллельно.

Где используется инференс (inference)
На практике инференс интегрирован в огромное количество IT-сервисов.

Компьютерное зрение
Инференс моделей компьютерного зрения работает с сетками пикселей в изображениях или видеопотоке. В отличие от языковых моделей, здесь данные обычно проходят через сверхточные сети или vision-трансформеры за один прямой проход.
  • Обнаружение объектов. Камера беспилотного автомобиля непрерывно передает кадры на бортовой компьютер (edge-устройство). Инференс ИИ каждую миллисекунду определяет границы пешеходов, знаков и других машин, формируя решение о продолжении движения или торможении.
  • Сегментация и классификация. Медицинские системы анализируют рентгеновские снимки, выделяя зоны с потенциальными патологиями.

Обработка естественного языка
Помимо генерации текста, инференс применяется для глубокого синтаксического и семантического анализа исходного запроса.
  • Машинный перевод. Преобразование текста из одного языкового пространства в другое с учетом контекста.
  • Анализ тональности и классификация. Спам-фильтры в почтовых клиентах или системы мониторинга бренда, которые за доли секунды определяют, является ли отзыв пользователя негативным или позитивным.

Рекомендательные системы
Стриминговые платформы и маркетплейсы используют инференс для персонализации выдачи. Когда пользователь заходит на главную страницу, система собирает его вектор истории поиска и прогоняет через обученную модель ранжирования. Результат работы — это отсортированный список товаров или фильмов, вероятность клика по которым математически наивысшая.

Голосовые помощники
Работа умной колонки — это каскадный инференс, состоящий из трех последовательных этапов:
  • Автоматическое распознавание речи конвертирует аудиоволну в текст.
  • Языковая модель анализирует текст и формирует ответ.
  • Синтез речи переводит текстовый результат обратно в голосовой формат.
Эта многосоставная операция должна уложиться в минимальный промежуток времени, чтобы диалог казался естественным.

Проблемы и ограничения инференса
Перенос обученной модели из лабораторной среды в продакшен неизбежно сталкивается с аппаратными и физическими пределами. Чем умнее и точнее искусственный интеллект, тем больше в нем параметров и тем сложнее обеспечить его быстрый и бесперебойный инференс.

Нехватка видеопамяти (VRAM Wall)
Чем больше размер модели, тем больше нужно видеопамяти. А это самый дорогой и ограниченный вычислительный ресурс.

Каждый параметр нейросети занимает конкретный объем физической памяти. Например, модель ИИ на 70 миллиардов параметров (например, Llama 3 70B) только для загрузки своих «накопленных знаний» в память потребует около 140 ГБ VRAM. Дополнительная память нужна для обработки самого запроса (тот самый KV-cache).

Задержки
Задержка — это время между отправкой запроса и получением результата. В некоторых системах критичен каждый такт процессора. Сама задержка складывается из двух факторов:
  • Сетевая задержка. Время передачи данных от клиента к серверу и обратно. Именно из-за этого фактора производители умных устройств стремятся перенести вычисления на Edge-уровень.
  • Вычислительная задержка. Время обработки математических матриц внутри GPU. Если модель слишком «тяжелая», прямой проход занимает недопустимо долгое время.

Сложности масштабирования под нагрузкой
Обслуживание одного запроса отличается от одновременного обслуживания тысяч пользователей. Когда популярный сервис сталкивается с пиковой нагрузкой, серверы начинают ставить входящие промпты в очередь.

Чтобы оптимизировать процесс, инженеры используют динамический батчинг (batching) — группировку нескольких запросов в один пакет для параллельного вычисления на видеокарте. Однако запросы имеют разную длину и генерируют ответы разного размера. Обработка неравномерных пакетов приводит к простою вычислительной мощности: одни ядра видеопроцессора уже закончили работу, а другие еще обрабатывают длинный текст. Управление этой нагрузкой — одна из главных инженерных проблем LLM-инференса на сегодняшний день.

Оптимизация инференса
Обслуживание больших нейросетей обходится компаниям очень дорого. Чтобы снизить инфраструктурные издержки и повысить общую производительность, инженеры применяют специальные технические решения, меняющие внутреннюю структуру алгоритмов или логику обработки запроса.

Главная задача здесь — найти баланс скорости инференса и качества: сделать так, чтобы система работала быстрее и потребляла меньше ресурсов ускорителя, но при этом исходная точность не деградировала.

Квантование
Это самый популярный метод — уместить тяжелую модель в ограниченный объем VRAM. Суть подхода заключается в изменении точности чисел, описывающих параметры нейросети.

Во время обучения веса модели обычно хранятся и вычисляются в 16-битном формате с плавающей запятой (FP16/BF16), где каждое число занимает 2 байта. Также существует возможность хранить их в 32-битном формате (FP32). Квантование позволяет математически округлить эти значения до менее вместительных форматов — 8-битных или 4-битных (INT8, FP8, INT4).

В результате размер обученной модели на диске и в оперативной памяти сокращается в 2–4 раза. Уменьшенная модель требует меньше тактов на чтение информации, скорость передачи данных по шине графического процессора кратно возрастает, а качество генерации падает незначительно.

Сжатие моделей
Еще один эффективный подход — физическое упрощение архитектуры алгоритма.
  • Прунинг, обрезка. После обучения в архитектуре сети остаются миллионы математических связей, вес которых близок к нулю. Они потребляют вычислительную мощность, но не влияют на итоговый результат. Инженеры выявляют такие «бесполезные» нейроны и удаляют их из графа вычислений, делая нейросеть легче и быстрее.
  • Дистилляция знаний. Процесс, при котором огромная, медленная обученная модель выступает в роли «учителя». На ее идеальных ответах тренируют маленькую, компактную модель-«ученика». Меньшая модель усваивает паттерны поведения большой и может работать автономно с высокой скоростью на слабом железе.

Ускорение: устранение простоев и умный батчинг
Для текстовых LLM критически важна работа с памятью и очередями. Если обрабатывать промпты по одному, дорогостоящий вычислительный ресурс будет простаивать в ожидании новых токенов.

Чтобы избежать простоев, применяется метод непрерывного батчинга. Процесс строится динамически: система не ждет, пока графический чип допишет весь длинный текст для одного пользователя. Как только в пакете вычислений освобождается место (кто-то получил свой финальный токен), сервер тут же подмешивает туда новый запрос от другого клиента.

Чтобы оперативная память не фрагментировалась из-за разной длины ответов, кэш контекста нарезают на одинаковые страницы (блоки). Это работает аналогично управлению памятью в современных операционных системах и позволяет увеличить пропускную способность сервера в несколько раз.

Часто задаваемые вопросы (FAQ)
Что такое инференс простыми словами?
Это процесс работы уже готового (натренированного) искусственного интеллекта. Когда вы отправляете фото в приложение, чтобы наложить фильтр, или пишите вопрос в чат-бот, система применяет свои накопленные знания к вашим новым данным, чтобы мгновенно выдать результат. Выполнение этой задачи — и есть инференс.

Что такое инференс модели?
Это этап жизненного цикла модели глубокого обучения, следующий после тренировки (training). На этапе инференса внутренние параметры нейросети «заморожены». Модель не учится ничему новому, она используется исключительно в режиме чтения для выполнения предсказаний, классификации или генерации контента.

Как работает инференс LLM?
Инференс больших языковых моделей работает по принципу авторегрессии. Нейросеть генерирует ответ не целиком, а последовательно — один токен (часть слова) за другим. Каждый новый сгенерированный токен добавляется к вашему исходному контексту, и алгоритм заново оценивает весь текст, чтобы предсказать следующую часть слова, пока не дойдет до логического конца.

Можно ли запустить инференс на обычном процессоре (CPU)?
Да, можно. Процесс логического вывода на центральном процессоре отлично подходит для компактных нейросетей, небольших объемов данных и Edge-инференса. Однако вычисление тяжелых моделей (например, генерация изображений или локальный запуск LLM) на CPU будет происходить крайне медленно из-за недостатка параллельных ядер, в отличие от видеокарт (GPU).

Чем Edge-инференс отличается от облачного?
Облачный инференс работает на удаленных мощных серверах — он быстрый, но требует постоянного подключения к интернету, что создает сетевую задержку. Edge-инференс выполняется локально, прямо на вашем устройстве. Он полностью приватен, не тратит время на передачу данных по сети и работает без связи, но ограничен вычислительной мощностью чипа в устройстве.

Почему популярные чат-боты иногда печатают ответ с паузами или задержками?
Это связано с метриками TTFT (время до первого токена) и вычислительной задержкой внутри серверов компании. Если сервис находится под высокой нагрузкой от тысяч пользователей одновременно, ваш запрос встает в очередь, а мощностей GPU не хватает для мгновенной генерации текста в режиме реального времени.

Сколько памяти нужно, чтобы запустить AI на своем ПК или сервере?
Для грубого расчета используйте формулу: «Число параметров × количество байт формата точности». Если модель имеет 8 миллиардов параметров и квантована в 4-битный формат (0.5 байта на параметр), для ее базовой загрузки потребуется около 4 ГБ видеопамяти. Плюс еще 1–2 ГБ потребуется выделить для кэша контекста во время самой генерации текста.

В чем разница между инференсом и промпт-инжинирингом?
Инференс — это аппаратный и математический процесс вычисления внутри компьютера. Промпт-инжиниринг — это пользовательский навык составления правильных, точных текстовых запросов (промптов), чтобы в ходе инференса нейросеть поняла задачу максимально верно и выдала ожидаемый результат.

servercore.com

Топ-5 выделенных серверов для AI - арендуй на ABCD.HOST



Собрали короткую подборку выделенных GPU-серверов в Европе и РФ, которые можно арендовать и использовать под AI-задачи: inference, LLM, RAG, embeddings, ботов, API, ML-тесты и локальные нейросетевые сервисы.

В топ вошли разные варианты — от бюджетного входа на Tesla T4 до мощных конфигураций с RTX 6000 Ada 48GB и RTX PRO 6000 Blackwell Max-Q 96GB.

Кратко по актуальным конфигурациям:
1. SAGPU-128 — RTX 6000 Ada 48GB, 128 GB RAM, 2×1.92 TB NVMe — €960/мес, установка бесплатно
2. GEX131 — RTX PRO 6000 Blackwell Max-Q 96GB, 256 GB RAM, 2×960 GB NVMe — €1319/мес, установка €1555
3. GEX44 — RTX 4000 SFF Ada 20GB, 64 GB RAM, 2×1.92 TB NVMe — €343/мес, установка €264
4. CL26G-NVMe — Tesla T4 16GB, 32 GB RAM, 2×1000 GB NVMe — €220/мес, установка бесплатно
5. CL23G-NVMe — RTX 2080 Ti 11GB, 32 GB RAM, 2×1000 GB NVMe — €275/мес, установка бесплатно

Не стали включать в основной AI-топ серверы только со встроенной графикой — для нейросетей всё-таки критичны видеопамять и класс GPU.

Полный разбор с конфигурациями и сценариями использования опубликовали в блоге ABCD.HOST:
blog.abcd.host/abcd-host-bare-metal-radar-top-5-vydelennyh-serverov-dlja-ai/

Если нужна помощь с подбором сервера под конкретную модель, RAG, inference API или AI-бота — можно написать нам в поддержку, подскажем по конфигурации либо арендуйте выделенные серверы с GPU по следующей ссылке abcd.host/dedicated

Спасибо, что остаетесь с нами!
ABCD.HOST

RUVDS запустил площадку с вычислительными мощностями в Самаре



Хостинг-провайдер VDS серверов RUVDS ввел в работу площадку с вычислительными мощностями в Самаре. Оборудование развернуто и введено в строй на базе ЦОД «СМАРТС». Возможность заказать VPS в новой, 22-й по счёту, локации компании уже доступна всем желающим.

«Открытие этой площадки для нас – не просто выход в новый регион, а серьёзный стратегический шаг: находясь между европейской частью России и Сибирью с Дальним Востоком, Самара являются важным узлом магистральных оптоволоконных линий, входя в число наиболее развитых регионов по показателю внедрения электронных технологий. В свете тренда на перенос инфраструктуры из Москвы вглубь страны, развития edge-вычислений, а также наличия стабильной энергетической базы для дата-центров, мы уверены, что новая локация станет одной из ключевых в портфолио нашей компании», – отметил гендиректор хостинг-провайдера VPS серверов RUVDS Никита Цаплин.

ЦОД «СМАРТС» предлагает своим клиентам бесперебойное питание 1-й категории надежности; автоматический ввод резерва электропитания; оборудован дизель-генераторной установкой большой мощности. В ЦОД установлены современная охранно-пожарная сигнализация и система газового пожаротушения.

RUVDS на регулярной основе расширяет число опций, доступных клиентам компании. Так, в 2026 году компания запустила площадку с вычислительными мощностями в Минске, а в прошлом – открыла локации в Ереване, Краснодаре, Мурманске, Омске и Уфе.

ruvds.com/ru-rub

Облачный провайдер Beget объявляет о запуске бета-версии Kubernetes в облаке



Российский облачный провайдер ИТ-инфраструктуры Beget объявляет о запуске бета-версии сервиса на базе Kubernetes. Новое решение позволит пользователям упростить управление инфраструктурой, автоматизировать процессы и повысить стабильность работы приложений.
Сервис берет на себя выполнение ключевых рутинных задач: автоматически восстанавливает недоступные сервисы, распределяет нагрузку и обеспечивает стабильную работу приложений без постоянного ручного контроля.

Managed Kubernetes от Beget призван дать возможность нашим пользователям получать все преимущества платформы Kubernetes: масштабирование, отказоустойчивость, мониторинг без существенных расходов на поддержку и обслуживание платформы. Видим своей задачей сделать Kubernetes доступным и понятным не только крупным командам, но и индивидуальным разработчикам, малому и среднему бизнесу.
Владислав Колесников, Chief Product Officer

Инструмент для современной разработки
Решение ориентировано на команды, работающие с микросервисной архитектурой и высоконагруженными сервисами. С его помощью пользователи могут:
  • разворачивать и масштабировать микросервисную архитектуру;
  • поддерживать высокую доступность и отказоустойчивость приложений;
  • упрощать CI/CD (непрерывная интеграция / непрерывная доставка);

Ключевые преимущества платформы:
  • Стабильная и безопасная инфраструктура. Изолированные кластеры, приватные сети и контроль доступа на уровне проекта обеспечивают полную безопасность и надежность.
  • Единая экосистема инструментов. Благодаря широкой поддержке плагинов, операторов и интеграций Kubernetes позволяет создавать гибкую инфраструктуру под любые задачи.
  • Прозрачная модель использования. Сервис реализован с понятной и гибкой моделью тарификации. Пользователи оплачивают управляющий контур кластера и ресурсы инфраструктуры отдельно, что позволяет точно контролировать расходы и адаптировать конфигурацию под текущие задачи.
  • Доступны различные варианты конфигурации — от базовых решений для разработки до отказоустойчивых кластеров.

Доступность и дальнейшее развитие
Бета-версия Kubernetes уже доступна пользователям Beget — создать кластер можно через панель управления облачной платформы. Для быстрого старта подготовлено подробное руководство.
Beget приглашает пользователей протестировать Kubernetes в облаке и оценить преимущества автоматизированного управления инфраструктурой.

beget.com/ru/
beget.com/ru/kb/manual/managed-kubernetes

Безопасность, которой вы можете доверять

Наша сертификация C5 Type 2 подтверждает, что наши продукты и услуги прошли независимую проверку и соответствуют высоким стандартам безопасности.

Аудит, основанный на системе C5, разработанной Федеральным управлением информационной безопасности Германии (BSI), охватывает ключевые области, такие как информационная безопасность, управление, прозрачность и соответствие требованиям.

В конечном итоге, все это направлено на обеспечение нашим клиентам прочной основы для безопасной и надежной инфраструктуры

Компания «Рег.ру» и национальное агентство «Мой бизнес» заключили соглашение о сотрудничестве



Подписание соглашения о сотрудничестве между сторонами прошло в рамках VI Всероссийского форума «Мой бизнес», который проходил в эти дни в Ленинградской области. Главная цель документа – поддержка малого и среднего бизнеса.

«Рег.ру» – российская технологическая компания, предлагающая продукты и сервисы для ведения бизнеса в онлайне. В рамках партнерской программы с Национальным агентством «Мой бизнес» специалисты будут оказывать информационную и консультационную поддержку, участвовать в совместных мероприятиях и предоставлять для предпринимателей особые условия на линейку продуктов для онлайн-продвижения малого бизнеса «Рег.решения». Документ о сотрудничестве подписали исполнительный директор Национального агентства «Мой бизнес» Максим Огладков и генеральный директор компании «Рег.ру» Андрей Кузьмичев.

«Предприниматели приходят в Центры «Мой бизнес» за реальной помощью, приносят свои вопросы и проблемы. И онлайн — очень частая беда на старте: как сделать сайт, где разместить информацию, как начать продвижение. Разобраться в этом непросто. Поэтому наши «Рег.решения» логично дополнят линейку партнерских предложений в Центрах «Мой бизнес» — чтобы на понятном и доступном месте у предпринимателя был готовый инструмент для продвижения онлайн», – сообщил генеральный директор «Рег. ру» Андрей Кузьмичев.
В 2026 году Национальное агентство «Мой бизнес» планирует реализовать порядка 10 партнерских программ.

«Продвижение бизнеса – актуальный вопрос для предпринимателей. Но в нынешней ситуации он становится еще более насущным. Сервисами «Рег.ру» уже воспользовались более миллиона предпринимателей, что показывает востребованность инструментов у малого и среднего бизнеса. Наша совместная партнерская программа позволит повысить их доступность, увеличит охват, избежать типичных ошибок и применять инструменты сервиса более эффективно для бизнеса», – поясняет исполнительный директор Национального агентства «Мой бизнес» Максим Огладков.

В рамках мероприятия специалисты компании «Рег.ру» смогли презентовать возможности своих сервисов для предпринимателей региональным командам Центров «Мой бизнес». VI Всероссийский форум «Мой бизнес» объединил на одной площадке представителей федеральных и региональных органов власти, инфраструктуры поддержки МСП, крупного бизнеса, банковской системы. Всего в мероприятии приняли участие 200 человек из 84 регионов России.

ambrf.ru
xn--90aifddrld7a.xn--p1ai

Hetzner прекращает свою реферальную программу



Большое спасибо за то, что поделились своим восторгом от наших услуг, будучи довольным клиентом, и за активное участие в нашей реферальной программе console.hetzner.com/referrals

Однако мы хотели бы сообщить вам, что прекращаем действие этой программы в ее нынешнем виде. Это решение является частью стратегической реорганизации, в рамках которой мы упрощаем наши предложения и в будущем будем уделять больше внимания централизованным кампаниям по продвижению промокодов.

Что это значит конкретно для вас?
Ваши существующие индивидуальные реферальные ссылки останутся действительными до 15 июня 2026 года. После этого эти ссылки будут перенаправлять на общий промокод на сумму 20 евро для новых клиентов.

Таким образом, реферальные бонусы могут быть начислены только до 31 августа 2026 года. Вы можете продолжать использовать уже полученные бонусы до 31 декабря 2027 года.

Мы искренне благодарим вас за доверие и сотрудничество, а также за понимание в связи с этими изменениями.

Если у вас возникнут какие-либо вопросы, пожалуйста, не стесняйтесь обращаться к нам. Для этого воспользуйтесь формой обратной связи в административном интерфейсе в разделе «Поддержка».

С наилучшими пожеланиями,
Hetzner Online

Полисинг полосы пропускания глобального роутера с 27 мая 2026



Здравствуйте!
С 27 мая вводится полисинг (лимиты) полосы пропускания сервиса «Глобальный роутер» для гарантированного качества и стабильности работы сервиса.

Лимиты полосы на каждый глобальный роутер по умолчанию составят:
  • до 1 Гбит/с — межрегиональный трафик,
  • до 25 Гбит/с — в пределах региона.
По данным нашего мониторинга, изменения не повлияют на работу вашей инфраструктуры при текущем профиле нагрузки.

Потребление полосы остается бесплатным, если суммарно на аккаунт оно не превышает 25 Гбит/с внутри региона и 1 Гбит/с между регионами.

Если у вас остались вопросы или вы планируете рост трафика, обратитесь в службу поддержки — будем рады помочь. Тарифы доступны на сайте Selectel — мы снизили цены на самые востребованные из них.

С уважением,
Команда Selectel

https://selectel.ru

Начните свой проект с ISPsystem



Хороший хостинг — это тот, о котором вам не нужно думать, потому что он просто работает.

Мы предлагаем вам гарантию стабильной работы вашего бизнеса на 2 года.
и предсказуемые результаты с продуктами ISPsystem.

Приобретите годовую лицензию на VMmanager 6 Hosting, DCImanager 6 Hosting и/или BILLmanager 6 Hosting&Cloud и получите еще один год бесплатно, используя промокод:
TAXFREE2Y

Как это работает:
  • Если у вас нет действующей годовой лицензии, сначала приобретите её, а затем при продлении используйте промокод TAXFREE2Y
  • Промокод действителен до 28 мая и применяется только к базовой стоимости лицензии.
eu.ispsystem.com/billmgr

Ваш домен будет заблокирован




Ваш домен может быть заблокирован
С 1 сентября для всех владельцев доменов .ru/.рф/.su станет обязательной верификация на Госуслугах (ЕСИА) — по Закону.

Что будет, если не пройти её вовремя
  • Нельзя продлить домен
  • Нельзя зарегистрировать новый домен
  • Нельзя сменить администратора
  • Домен будет удален

Верифицируйтесь сейчас — это быстро и безопасно
Пройдите идентификацию в личном кабинете Рег.ру, чтобы сохранить свой домен.
help.reg.ru/support/lichnyy-kabinet/registratsiya-i-kontaktnyye-dannyye/kak-projti-identifikaciyu-administratoram-domenov-ru-i-rf