Аттестация информационных систем



Аттестация инфраструктуры — то, о чем вас наверняка спросят самые крупные B2B- и B2G-клиенты.

Кому нужна аттестация
  • Разработчикам ГИС, приложений и сайтов для бизнеса;
  • Медицинским, финансовым, страховым компаниям;
  • Государственным учреждениям;
  • B2G- и коммерческим компаниям.

Что может потребоваться для аттестации? Все зависит от конкретных задач и предъявляемых требований. В Selectel мы предлагаем серверы в Аттестованном сегменте ЦОД, Аттестованное облако, всё необходимое сертифицированное ПО для защиты информации и другие услуги, чтобы ваши системы соответствовали российскому законодательству, а данные ваших клиентов были защищены.
selectel.ru/services/is/is-attestation/

Распродажа ко Дню тестировщика — скидки на VDS до 50%



Распродажа ко Дню тестировщика — скидки на VDS до 50%!
Сегодня мы поздравляем тех, кто делает цифровой мир надёжнее — специалистов по тестированию. В честь праздника мы дарим скидки до 50% на VDS и виртуальный хостинг.
Надёжный хостинг — это сервис без багов. Убедитесь сами: выбирайте VDS, выделенные серверы или виртуальный хостинг, и работайте стабильно каждый день.
friendhosting.net/ru/vps.php

Для новых заказов
Не упустите свой шанс заказать Progressive SSD VDS, High CPU VDS, Storage HDD VDS или виртуальный хостинг со скидкой 50%.
Для получения скидки во время заказа используйте промо-код qaday25
Обратите внимание, что скидка активируется исключительно для первого периода оплаты, поэтому для получения максимальной выгоды рекомендуем совершить заказ на максимальный период действия промо-кода, который составляет 3 месяца.

Для существующих заказов
Если у вас уже есть активный заказ, то вы также можете получить скидки при его продлении. Продлевая vds или виртуальный хостинг на длительный период — 3, 6 или 12 месяцев, вы получаете скидку 3%, 5% или 10%, которая суммируется с вашей скидкой по программе лояльности до 25% (Подробнее о том как формируется скидка по программе лояльности читайте тут). Скидки применяются автоматически на последнем шаге оплаты без обращения в финансовый отдел.
Акция проходит с 09.09.2025 по 31.10.2025 года включительно.

Добавили возможность загружать ваш собственный образ на VPS-сервер



Спешим поделиться обновлением в облаке – теперь вы можете установить из вашего файла-образа любую операционную систему на базе Linux.

Загрузка собственного образа на VPS позволяет:
  • Экономить время – благодаря сокращению трудозатрат на настройку.
  • Кастомизировать ОС – в собственный образ можно включить лишь то, что вам нужно.
  • Легко мигрировать – возможность загрузить собственный образ Linux-сервера позволяет перенести в облако уже настроенный проект, со всеми приложениями, файлами, конфигурациями и т. д., кроме того, при необходимости, вы также можете создать образ на основе уже существующего виртуального сервера и развернуть его в другой локации.

Что важно учесть, если вы хотите развернуть образ на сервере:
  • Хранение образа оплачивается по тарифу 3 руб. за 1 Гб, после развертывания VPS образ можно удалить.
  • На данный момент поддерживаются образы только операционных систем на базе Linux, поддержку ОС на Windows мы планируем внедрить в будущем.
Для вашего удобства мы подготовили подробную статью с техническими требованиями и инструкцией, как создать и загрузить собственный образ на VPS-сервер.
beget.com/ru/kb/faq/cloud/sozdanie-servera-iz-svoego-obraza

beget.com/ru/

Кто будет за это отвечать?



Selectel предоставляет по моделям IaaS и PaaS услуги, которые соответствуют российским и международным стандартам безопасности. Однако часть ответственности все равно ложится и на плечи клиента.



Выполнить меры безопасности в своей зоне ответственности вам помогут более 25 сервисов ИБ Selectel. Собрали на одной странице информацию о том, как обеспечиваем безопасность в дата-центрах, сетях, продуктах, приложениях и внутри компании. А также наглядно показали, где именно проходит та самая граница зон ответственности.

selectel.ru/services/is/

Вечный сервер в Москве за 10 000 руб



Цена на вечные серверы снижена в 2 раза!

Количество вечных серверов по специальной цене ограничено.

Параметры сервера зафиксированы навсегда и никогда не будут меняться.

Вечный сервер в Москве vdsina.ru/pricing/eternal-server
  • 1 core / 1 Gb RAM / 30 Gb NVMe / 32 Tb трафика в месяц — 10 000 руб
  • 2 core / 2 Gb RAM / 40 Gb NVMe / 32 Tb трафика в месяц — 15 000 руб
  • 4 core / 8 Gb RAM / 80 Gb NVMe / 32 Tb трафика в месяц — 50 000 руб

Наш чат в Телеграме t.me/vdsina

С уважением,
VDSina.ru

vdsina.ru/?partner=bqadmsefvs
vdsina.com/?partner=562f641s99

SiliconANGLE награждает Backblaze B2 Overdrive за инновации



Мы рады сообщить, что Backblaze B2 Overdrive был назван победителем премии SiliconANGLE TechForward Awards 2025 в категории «Облачные технологии — Облачные сети».

B2 Overdrive — это высокопроизводительное облачное решение для хранения объектов, обеспечивающее лучшее в отрасли соотношение цены и производительности.

Почему это важно: Премия TechForward Awards — это не просто признание в отрасли, она служит надежным руководством для лиц, принимающих решения в компаниях, предоставляя тщательно отобранные сведения о новейших технологиях, решающих самые насущные бизнес-задачи современности.

Эти решения не просто продвигают свои категории, они определяют возможности, которые открываются, когда передовые инженерные решения встречаются с реальными бизнес-задачами. Каждый победитель доказал свою способность обеспечивать революционные результаты
Дэйв Велланте, соучредитель и содиректор SiliconANGLE Media

Сэкономьте 25% на новом контракте VPS



Мы знаем, что создание великих дел требует долгосрочного планирования, в том числе и хостинга. Именно поэтому мы помогаем вам сосредоточиться на самом важном: предлагаем значительные скидки на новые долгосрочные контракты на VPS. Чем дольше вы пользуетесь нашими услугами, тем больше экономите.

  • Скидка 25% на новые 12-месячные планы VPS — лучшее предложение, если вы готовы обосноваться и начать развивать свой бизнес.
  • Скидка 10% на новые 6-месячные планы VPS — отличный способ получить существенную экономию и большую гибкость.

Больше, чем просто скидка
Долгосрочные обязательства — это партнер, которому можно доверять. С Contabo вы не просто экономите деньги — вы получаете:
  • Выгодное предложение: получите большой объем трафика, оперативной памяти и хранилища по разумной цене.
  • Глобальное размещение: разместите свой сервер в 9 регионах по всему миру для минимальной задержки.
  • Надежная безопасность: от защиты от DDoS-атак до наших защищенных центров обработки данных.
  • Надежная поддержка: когда бы вам ни потребовалась помощь, вы получите ее от экспертов.
  • Давайте строить на долгосрочную перспективу

Ваша команда Contabo
contabo.com/en/vps/

Оповещение о сбое: AMS1 & AMS3 & Амстердам - зона 1-4, DDoS - 6 сентября 2025 - восстановлено

Уважаемый клиент, сегодня в 00:29 (МСК) мы зафиксировали интенсивную DDoS-атаку на наши IP-адреса в локациях AMS1 и AMS3 (Амстердам, Нидерланды) и в облачных регионах Амстердам — зона 1-4. Атака повлияла на работу публичной сети в регионе. Во время атаки вы могли наблюдать увеличение задержек и потерю пакетов по публичной сети вплоть до 100%.

Мы устранили влияние атаки, и сейчас публичная сеть работает в штатном режиме.

Детали:
Время начала первой атаки: 6 сентября 2025, 00:29 (МСК)
Время восстановления работы сети: 6 сентября 2025, 00:30 (МСК)
Время начала второй атаки: 6 сентября 2025, 00:50 (МСК)
Время восстановления работы сети: 6 сентября 2025, 00:52 (МСК)
Время начала третьей атаки: 6 сентября 2025, 01:03 (МСК)
Время восстановления работы сети: 6 сентября 2025, 01:13 (МСК)
Общий период ограничений: 13 минут
Облачное хранилище в регионе Амстердам

Приносим свои извинения за доставленные неудобства.

С уважением,
команда поддержки Servers.ru

HSTQ: хостинг от $0.99, VDS от $1, cерверы от $29.99! Акции на серверы, VDS и IP! Заходи!

услуги хостинг провайдера hstq
HSTQ — это собственное «железо», проверенные дата-центры в Европе, Азии и США и инженеры 24/7, которые доводят запуск до результата. Мы берём на себя перенос и настройку, даём IPMI/KVM, включаем DDoS-защиту и помогаем с ISO — вы сосредотачиваетесь на продукте, а не на инфраструктуре.

Если что-то пойдёт не так — действует гарантия возврата в течение 30 дней. Выберите тариф ниже, расскажите о проекте — мы подготовим серверы, проверим производительность и останемся рядом, пока всё стабильно не заработает.

Промо — hstq.net/promo.html

Вирт. хостинг — $0.99/мес
VDS — $1/мес
Выделенный сервер — $29.99/мес

VPS / VDS NVMe. Локации: NL/DE/RU/UK/USA — hstq.net/vps.html

Spark — 2 vCPU / 2 GB / 40 GB NVMe / 10 Gb/s — $9.99/мес
Thrust — 4 vCPU / 6 GB / 80 GB NVMe / 10 Gb/s — $19.99/мес
Velocity — 8 vCPU / 12 GB / 160 GB NVMe / 10 Gb/s — $39.99/мес
Overdrive — 12 vCPU / 24 GB / 320 GB NVMe / 10 Gb/s — $59.99/мес

Выделенные серверы (Dedicated) — hstq.net/servers.html

Xeon E-2186G / 32 GB / 480 GB SSD / 1 Gbit/s / NL — $99/мес
Xeon E-2356G / 64 GB / 1 TB NVMe / 1 Gbit/s / SG — $119/мес
2× Xeon E5-2650v2 / 128 GB / 2×1 TB SSD / 10 Gbit/s / NL — $349/мес
Xeon Gold 5218R / 128 GB / 2×1 TB NVMe / 10 Gbit/s / NL/US — $399/мес
AMD EPYC 7702P / 128 GB / 2×2 TB NVMe / 25 Gbit/s / NL — $599/мес
AMD EPYC 7702P / 128 GB / 2×2 TB NVMe / 40 Gbit/s / NL — $799/мес

Аренда IPv4 (подсети):

/27 (32 IP) — $49/мес
/26 (64 IP) — $79/мес
/25 (128 IP) — $99/мес
/24 (256 IP) — $169/мес (LoA, WHOIS/PTR, анонс в другой ДЦ)
/23 (512 IP) — $299/мес (LoA/WHOIS/PTR, анонс)
/22 (1024 IP) — $499/мес (LoA/WHOIS/PTR, анонс)

Администрирование (Linux):

Эконом — $99/мес (4 ч/мес: обновления, базовая защита, бекапы, 24/7 мониторинг)
Стандарт — $199/мес (12 ч/мес: +тюнинг, настройка ПО/фаервола, задачи/скрипты, 24/7 мониторинг)
Премиум — $399/мес (30 ч/мес: +архитектура, HA, балансировка, DevOps, аудит безопасности, проактивный 24/7)

Администрирование (Windows):

Эконом — $199/мес (4 ч/мес, базовые работы и мониторинг)
Стандарт — $299/мес (12 ч/мес, тюнинг IIS/ASP.NET, службы, триггеры мониторинга)
Премиум — $499/мес (30 ч/мес, архитектура/HA, проактивный 24/7 SRE)
Премиум (для любой ОС): шифрование дисков, администрирование хранилищ, геораспределённые сервисы, VPN/прокси.

LIR / IP-ресурсы / ASN:

Поддержка rDNS вашей сети (любой размер) — $50/мес (собственный DNS-парк)
Помощь в получении /24 и регистрации LIR — $500 разово (членские взносы оплачиваются отдельно)
Регистрация ASN — $399 разово
Поддержка ASN — $199/год (взносы включены)
PI /24 (покупка у нас) — $12 500 разово
Бонус: при поддержке + регистрации ASN — IPv6 /32 бесплатно, пока активна поддержка ASN.

Почему нам доверяют с первого заказа:

— Быстрый старт: активация за минуты/часы и понятные SLA.
— Прозрачные цены без скрытых условий + гарантия возврата 30 дней.
— Поддержка, которая решает, а не «заводит тикет».
— Оформление без KYC — быстрее и удобнее, но строго в рамках закона и AUP.

Мы не требуем KYC при оформлении, потому что делаем услугу удобной и быстрой. Это не означает «серый» хостинг: мы соблюдаем законы юрисдикций, реагируем на abuse, поддерживаем best-practice (RPKI/IRR, фильтры) и не размещаем запрещённый контент. Наша задача — ускорить запуск, а не нарушать правила.

Готовы начать сегодня? Выберите тариф ниже и опишите задачу — подберём конфигурацию, подготовим серверы и поможем с переносом. Если удобнее, напишите нам в Telegram: @hstq_hosting или в чат на сайте.

Реквизиты и контакты:

Юридическое лицо: BVI HSTQ Hosting quality service
Reg. No.: 6949321
Registered Agent: Offshore Incorporations Limited
Адрес: 18 Pasea Estate Road, Road Town, Tortola, VG1110, British Virgin Islands
Телефон: +1 282-222-8282
E-mail: support@hstq.net, sales@hstq.net
Telegram: @hstq_hosting, @hstq_official (новости)
Тикет-система: cp.hstq.net → «Поддержка» → «Новый тикет»
Сайт: hstq.net

Руководство по графическому процессору для вывода LLM



Несколько дней назад мы обсуждали стратегию использования графических процессоров для ИИ в OVHcloud. После нескольких часов звонков я понял, что нашим финансовым коллегам всё ещё сложно разобраться в технических аспектах этой темы, поэтому я решил написать для них руководство. Потом кто-то пошутил, что многие наши клиенты тоже были в замешательстве, поэтому руководство теперь оформлено в виде поста в блоге.

Это руководство посвящено графическому процессору для вывода больших языковых моделей (LLM). Под «производительностью» мы подразумеваем количество токенов в секунду. Это руководство не претендует на техническое погружение, но оно поможет вам выбрать правильную конфигурацию графического процессора для вашего сценария использования. Многие детали были упрощены для удобства и доступности информации.

TL:DR – Лучшие варианты вывода LLM в OVHcloud (по состоянию на июль 2025)
Это лучшие варианты развертывания, доступные на данный момент в OVHcloud для LLM-инференса. Предложение будет развиваться по мере выпуска новых графических процессоров.


1 — Определите область своих требований
Прежде чем двигаться дальше, попробуйте определить свои требования (ответы на следующие вопросы помогут вам выбрать наилучшее решение).
  • Какую модель вы хотите развернуть? (Например, Llama3 70B)
  • Сколько у него параметров? (например, 7B, 70B, 120B)
  • Какая длина контекста вам нужна? (например, 32 КБ, 128 КБ)
  • Какой уровень точности или квантования? (FP16, FP8 и т. д.)
  • Сколько пользователей одновременно? (Один пользователь? 10? 500? 10000 ?)
  • Какой сервер вывода? (например, LLM, TensorRT, Ollama…)
  • Необходимая пропускная способность? (например, задержка на пользователя, общее количество транзакций в секунду)
  • Использование стабильное или нестабильное? Предсказуемое или нет?

2 – Выбор модели графического процессора – Дискриминантный критерий
а) Поддержка квантования/точности
Что такое квантование? Идея заключается в снижении точности весовых коэффициентов модели для уменьшения объёма памяти и вычислительных затрат ценой небольшого снижения качества модели. Квантование снижает затраты памяти и вычислительных затрат за счёт снижения точности (например, FP16 → FP8 → FP4), как правило, в ущерб качеству модели. Это компромисс.

В настоящее время модели LLM чаще всего публикуются в FP16, но часто развертываются в FP8, поскольку выигрыш в скорости значительно перевешивает потерю качества.

Поддержка квантования GPU


Большинство графических процессоров поддерживают не все типы точности/квантования, поэтому это дискриминантный критерий. Выберите графический процессор, поддерживающий нужный вам формат квантования.

б) Минимальное количество графических процессоров для запуска вашей модели
Для вывода необходимо загрузить все веса модели (**) в память (память видеокарты, а не ОЗУ) и оставить место для контекста/кэша. Либо памяти достаточно, либо это просто не сработает.

Вот практическое правило расчета необходимого объема памяти GPU для LLM:
Total GPU memory = (Parameters × Precision Factor) + (Context Size × 0.0005)




Пример: Llama 3.3 70B с контекстом 128 КБ в FP8 потребует 70 ГБ для весов модели + 62,5 ГБ для контекста.

Если мы применим эту формулу к нескольким стандартным размерам/контекстам LLM, то получим следующее:


Теперь применим это к самому распространенному графическому процессору, который вы сможете найти, чтобы получить минимально необходимое вам количество графических процессоров:



Color Legend, учитывая, что серверы обычно поставляются с 4 или 8 GPU (скоро 16 GPU)

См. также 2 распространенных метода точной настройки:


Примечание: возможно запустить (небольшой) вывод LLM на ЦП (см. Llama.cpp ), но только для небольших моделей (или высоких уровней квантования с более низким качеством).

Примечание: можно сократить потребность в памяти, «выгрузив» часть слоев модели из ОЗУ, но я не буду об этом рассказывать (посмотрите Reddit-подписку LocalLlama — некоторые делают из этого вид спорта), так как производительность низкая, и я думаю, что если вы переходите в облако, то это ради реальных впечатлений

c) Совместимость с оборудованием
Последним критерием выбора графического процессора является аппаратная совместимость с некоторыми функциями серверов вывода.

Серверы вывода (программное обеспечение, на котором работает модель) могут иметь функции, несовместимые с определенными графическими процессорами (марки или поколения).

Они часто меняются, поэтому я не буду их перечислять, но вот пример для VLLM: docs.vllm.ai/en/latest/features/compatibility_matrix.html#feature-x-hardware_1

Самый распространенный пример, который мы видим, — это то, что механизм «Flash Attention» не поддерживается на видеокартах Nvidia поколения Tesla, таких как V100 и V100S

3 – Выбор конфигурации и развертывания графического процессора – Критерий производительности
а) Что влияет на производительность вывода?
Обзор
На общую производительность (т. е. количество токенов в секунду) влияют несколько элементов, приблизительный порядок важности которых следующий:
  • 1 – Производительность графического процессора
  • 2 – Производительность сети (между графическими процессорами и между серверами)
  • 3 – Программное обеспечение (сервер вывода, драйверы, ОС)

Ниже приведено описание каждого из вариантов и варианты, которые можно выбрать.

Производительность графического процессора
В основном это связано с вычислительной мощностью («флопсами») графического процессора и пропускной способностью его памяти (в зависимости от поколения).

Ознакомьтесь с теоретическими характеристиками (заявленными Nvidia и AMD), перечисленными ниже:


Производительность сети
При выполнении вывода ваши данные распространяются несколькими способами:
  • Видеокарта — материнская плата: скорость зависит от типа и версии подключения. Обычно это PCIE или SXM (фирменное подключение Nvidia).
В двух словах: в целом SXM > PCIE, и чем выше версия, тем лучше.
  • Видеокарта-видеокарта: связь осуществляется либо через материнскую плату (PCIE/SXM), либо через прямое соединение с видеокартой. Nvlink — это решение от Nvidia.
В двух словах: если вы используете несколько графических процессоров Nvidia, выбирайте серверы с Nvlink.
  • Сеть между серверами (при использовании нескольких серверов): Ethernet, Infiniband
В двух словах: если вы распределяете свои данные по нескольким серверам, выбирайте Infiniband по Ethernet.

Производительность программного обеспечения (сервер вывода, драйверы)
Производительность будет значительно варьироваться в зависимости от сервера вывода (VLLM, Ollama, TensorRT…), используемых базовых библиотек (Pytorch…) и базовых драйверов (Cuda, RocM).
В двух словах: используйте последние версии!
Не все серверы вывода обеспечивают одинаковую производительность и одинаковый набор функций. Я не буду вдаваться в подробности, но вот несколько советов:
  • Ollama: Простота настройки и использования. Лучший вариант для одного пользователя.
  • VLLM: Лучше всего подходит для быстрого получения последних моделей и функций, но сложно настроить.
  • TensorRT: Лучшая пропускная способность, но есть задержка в поддержке новых моделей/функций и работает только на графических процессорах Nvidia.

а) Различные варианты развертывания
Теперь, когда вы знаете, какой графический процессор и сервер выбрать, у вас также есть несколько вариантов настройки архитектуры.


Вариант A — Один графический процессор
Если модель достаточно мала, чтобы поместиться в один графический процессор, то это лучший вариант!

Вариант B и C — один экземпляр, несколько графических процессоров (с межсоединени ем или без него)
Если для одного GPU это слишком много, то лучшим вариантом будет один сервер с несколькими GPU. Либо с Nvlink ( вариант C ), либо без него ( вариант B ). В этих двух случаях веса моделей распределяются по разным GPU, но за это приходится платить: производительность не будет в два раза выше, чем у одного GPU!

Вариант D — один экземпляр, несколько реплик с балансировкой нагрузки
Если модель помещается на 1 сервере (1+ GPU), но производительности недостаточно или вам необходимо динамическое масштабирование в зависимости от текущих потребностей, то лучшим вариантом будет использование нескольких реплик и добавление балансировщика нагрузки ( вариант D ) — это то, что AI Deploy предоставляет по умолчанию.

Вариант E — Распределенный вывод по нескольким серверам
Если модель слишком велика для размещения на одном сервере, необходимо распределить вывод по нескольким серверам ( вариант E ). Это самый сложный вариант (необходимо настроить сеть и программное обеспечение для кластеризации) и приводит к наибольшей потере производительности (из-за узких мест в межсерверной сети, а также из-за взаимодействия графических процессоров).

в) Какой продукт OVHcloud использовать?
Для вывода у вас сегодня есть шесть вариантов на выбор:

endpoints.ai.cloud.ovh.net/
www.ovhcloud.com/en/public-cloud/ai-deploy/
www.ovhcloud.com/en-ie/public-cloud/compute/
www.ovhcloud.com/en/public-cloud/kubernetes/
www.ovhcloud.com/en-ie/bare-metal/prices/
www.ovhcloud.com/en/dc-as-a-service/

Если вам нужен полностью управляемый вывод, то AI Endpoints — определённо лучший вариант: это бессерверный сервис, где вы платите за количество использованных токенов. Вам не нужно развертывать модель или управлять ею.
Важно отметить, что вам нужно выбрать одну из предлагаемых нами моделей (вы не можете добавить свою). Тем не менее, мы приглашаем вас запрашивать новые модели на нашем Discord!
discord.com/invite/ovhcloud

AI Deploy — это продукт, специально разработанный для запуска серверов вывода, обладающий несколькими ключевыми функциями:
  • Это контейнер как услуга: вы привозите свой собственный контейнер, мы им управляем.
  • Простая конфигурация: вы можете запускать контейнер несколько раз с помощью одной командной строки и изменять параметры непосредственно через эту командную строку.
  • Масштабируемость заложена в конструкцию: в любой момент вы можете добавить реплики, и мы управимся балансировкой нагрузки.
  • Автомасштабирование: вы можете настроить автомасштабирование на основе пороговых значений ЦП/ОЗУ, а вскоре вы также сможете использовать пользовательские метрики (например, задержку вывода).
  • Масштабирование до 0: Скоро вы сможете масштабироваться до 0. Если в течение некоторого времени на ваш сервер не отправляется ни одного запроса, мы останавливаем машину.
  • Оплата поминутно, без обязательств.