Архив новостей



VPS (Virtual Private Server), также известный как VDS (Virtual Dedicated Server), – виртуальный выделенный сервер, современная технология хостинга, которая полностью эмулирует работу отдельного физического сервера. Мы предлагаем вам лучшие VPS в 47 странах мира.
astrahosting.ru/vps-servers/

Выделенный сервер в разных странах
astrahosting.ru/dedicaed/

Как включить двухфакторную аутентификацию (2FA) с помощью TOTP



Мы усилили безопасность учетных записей – и уже сейчас вы можете подключить двухфакторную аутентификацию с помощью TOTP.

Теперь – немного подробнее о том, что такое подключение 2FA с помощью TOTP и как его настроить.

TOTP (от англ. Time-based One-Time Password – одноразовый пароль на основе времени) – это метод аутентификации, при котором пользователь получает временный одноразовый пароль, генерируемый с помощью TOTP-приложения (Яндекс Ключ, Google Authenticator, Microsoft Authenticator или др.) на основе текущего времени.

Таким образом, можно обеспечить дополнительный слой защиты и снизить риск несанкционированного доступа – даже если основной пароль будет украден или взломан, злоумышленник не сможет войти в аккаунт без одноразового TOTP-кода.

Как включить двухфакторную аутентификацию с помощью TOTP
  • Перейдите в панель управления и выберите во вкладке “Безопасность и вход” двухфакторную аутентификацию с помощью TOTP.

Подключите одно из приложений-аутентификаторов – Яндекс Ключ, Google Authenticator и Microsoft Authenticator доступны в Google Play, App Store и других магазинах приложений, а чтобы весь процесс настройки не вызвал затруднений, мы специально подготовили пошаговые инструкции.
Чтобы подтвердить вход с помощью TOTP, отсканируйте QR-код внутри приложения и введите сгенерированный код в панели управления, в поле “2”:

Введите пароль от аккаунта и после успешного подключения приложения вам будут предоставлены одноразовые коды восстановления.

Скачайте и сохраните одноразовые коды восстановления в надежном месте – они понадобятся, если вы потеряете доступ к приложению для генерации кодов.

Обратите внимание!
Коды генерируются заново при каждом включении TOTP.
На этом подключение аутентификации с помощью TOTP завершено. Теперь при входе в панель управления, помимо пароля, наряду с кодом из SMS или email-письма, может также запрашиваться код из приложения-аутентификатора, а ваш аккаунт стал еще защищеннее. Более подробную информацию о настройке аккаунта в Beget вы можете найти здесь.

REG.ru Cloud changelog 2025



27 июня 2025 DBaaS: Увеличили лимит на БД до 1000!
Расширили возможности системы для повышения гибкости и масштабируемости проектов. Доступно в кластерах баз данных PostgreSQL и MySQL.
Этот релиз — результат обратной связи от наших клиентов. Если у вас есть пожелания или предложения по работе наших облачных сервисов, пожалуйста, отправляйте их в техническую поддержку или на cloudvps@reg.ru. Все запросы передаются в отдел управления продуктами и влияют на наш roadmap.

25 июня 2025 Новые видеокарты в Cloud GPU
Теперь для заказа доступны облачные серверы с видеокартами NVIDIA A4000. Они подойдут для 3D моделирования, работы в CAD программах, сложных вычислений и обучения ИИ-моделей.

23 июня 2025 NextCloud + ONLYOFFICE на OpenStack
Добавили в образ NextCloud пакет ONLYOFFICE для совместной работы с файлами. Теперь приложение доступно для заказа на облачных серверах во всех локациях.

26 мая 2025 Бэкапы облачных серверов
Добавили возможность резервного копирования и управления копиями для облачных серверов на OpenStack. Доступно создание бэкапов по расписанию и вручную однократно, настройка хранения резервных копий, восстановление удаленных серверов, откат состояния сервера до указанной версии резервной копии, удаление резервной копии.

19 мая 2025 Акция на Cloud GPU!
С 19 мая по 19 июня запускаем скидки на видеокарты в составе наших облачных серверов: -30% на A100 и -50% на А5000 — успевайте заказать! Подробные правила проведения акции доступны по ссылке

13 мая 2025 Ispmanager на Ubuntu 24.04 LTS
Теперь облачный сервер с ispmanager доступен для заказа на Ubuntu 24.04 LTS. Версию на Ubuntu 20.04 отключили.

28 апреля 2025 Дополнительный плавающий IP
Добавили возможность привязки дополнительных свободных IP-адресов к виртуальным машинам, у которых уже есть IP-адреса.

22 апреля 2025 Fedora Linux: Новый образ
Теперь для заказа доступен образ Fedora Linux 42.

11 апреля 2025 DBaaS: расширение тарифов
Добавили новые расширенные конфигурации тарифов управляемых PostgreSQL и MySQL. Теперь доступны для заказа кластеры до 32 ядер vCPU, 128 RAM, 960 ГБ SSD.

10 апреля 2025 Улучшили гибкость настройки конфигураций IaaS
Для всех линеек облачных серверов расширены возможности выбора vCPU, RAM и объема диска. Исключение составляет линейка производительных серверов с GPU.

7 апреля 2025 Ispmanager
Добавили образ ispmanager на платформу OpenStack. Теперь приложение доступно для заказа на облачных серверах во всех локациях и расширена линейка поддерживаемых операционных систем.

История:

https://www.reg.ru

Напоминаем что у нас есть реферальная программа и Billmanager позволяет делать импорт тарифа



С рефералки мы платим аж целых 50%



С учетом того что мы запустили Selectel MSK + SPB
А у selectel — ресурсы неограниченны, то можно смело толкать эти виртуалки через рефералку на форумах.
Либо самим купить Billmanager и добавить наши тарифы через импорт и перепродавать.

Перейти в биллинг
bill.yacolo.net

Почувствуйте свободу от сборов за местоположение 4 июля!



В этот День независимости мы празднуем нечто особенное — четыре года поддержки бесперебойной работы ваших проектов в наших центрах обработки данных на востоке и западе США. Это четыре года соединений с низкой задержкой, надежного безотказного режима работы и приближения ваших приложений к американским пользователям.

Чтобы отметить это событие, мы приготовили кое-что получше фейерверка: в течение ограниченного времени во всех трех наших филиалах в США не взимается плата за размещение.
contabo.com/en/vps/

Ваша свобода выбора идеального места в США
Независимо от того, ориентируетесь ли вы на финансовые рынки Восточного побережья, производственные центры Среднего Запада или технологическую сферу Западного побережья, у вас есть варианты:
  • Восток США (Нью-Йорк) — идеально подходит для обслуживания северо-восточного коридора, финансовых приложений и всех, кто ищет клиентов с большим населением Восточного побережья.
  • Центральная часть США (Сент-Луис) — в самом сердце Америки, идеально подходит для приложений, обслуживающих всю континентальную часть США со сбалансированной задержкой от побережья до побережья.
  • Запад США (Сиэтл) — сверхбыстрое соединение с Тихоокеанским северо-западом, Калифорнией и всеми, кто строит для высокотехнологичного рынка Западного побережья.

ВПС
Ваш VPS- хостинг справится со всем: от сайтов электронной коммерции, обслуживающих трафик Черной пятницы, до сред разработки для следующего крупного стартапа.

ВДС
Экземпляры VDS предоставляют вам выделенные ресурсы для ресурсоемких приложений, таких как аналитика в реальном времени или веб-приложения с высоким трафиком.

Выделенные серверы
Для обеспечения максимальной производительности наши выделенные серверы обеспечивают вычислительную мощность, необходимую для рабочих нагрузок искусственного интеллекта, приложений криптовалюты или инфраструктуры хостинг-провайдера — все это оптимизировано для американских рабочих часов и моделей использования.

Четыре года американского совершенства
Когда мы запустили US East и US West в 2021 году, мы не просто добавляли локации — мы взяли на себя обязательства перед американскими компаниями и разработчиками, которым нужен был надежный и доступный хостинг без компромиссов. Четыре года спустя тысячи проектов ежедневно зависят от этих центров обработки данных.

Недавно к нам присоединилась компания US Central, которая завершила покрытие от побережья до побережья и предоставила вам идеальный промежуточный вариант для применения по всей стране.

Как и все хорошие праздники, эта сделка не будет длиться вечно. Сборы за размещение скоро вернутся, так что не ждите слишком долго, чтобы сделать свой ход.

Готовы к развертыванию там, где находятся ваши пользователи? Ваши приложения заслуживают преимущества домашнего поля.
Давайте строить больше, лучше и ближе к дому.

Ваша команда Contabo

Казалось бы, 2025 год на дворе, какие могут быть сложности с интернетом?




Казалось бы, 2025 год на дворе, какие могут быть сложности с интернетом?

А вот и могут! Нам в Александрове понадобился 10-гигабитный канал. Прикол в том, что запроса на такие скорости на рынке пока практически нет — мы, можно сказать, пионеры.

Рынок Александрова не очень требователен к скорости соединения, да. Некоторых до сих пор устраивает железнодорожный рельс. Он широкий и стабильный.

Из всех провайдеров, кого мы трясли, нашлось только два: Ростелеком и VIP-Телеком-Сервис.

Местный Трайтек вообще предлагал 100 000 ₽ за гигабит — то есть миллион в месяц за десятку. Не, спасибо.

С Ростелекомом мы начали мучения ещё в декабре. Долгие согласования, заминки на ровном месте. Например, один из затыков — отсутствие 10G-трансиверов. Серьёзно?! Это расходник, который стоит 1–2 тысячи рублей, у нас на столе таких коробок куча. Но у Ростелекома не было. Наши со стола они брать тоже не хотели.

Предложили подождать месяц-другой. В итоге договор подписали только в июне. А приведение всего в рабочее состояние займёт ещё 5 месяцев. Ну вы поняли. Ростелеком.

Параллельно работали с VIP-Телеком-Сервис. Они пришли по рекомендации и с ходу зарядили: «Мы вам построим точку на M9 и в Александрове за 20–25 дней». И знаете что? Построили!

Канал уже запущен и работает. Пока мы используем его для внутренних сервисов и тестирования, но это наш первый глоток 10G.

Почему же мы всё равно ждали Ростелеком, если VIP такие шустрые? Потому что облачный бизнес — это не про один канал. Нужны минимум два независимых! Сейчас один интернет есть (VIP), второй будет от Ростелекома. Плюс строим отдельное тёмное волокно.

В итоге будет:
— 10G от VIP.
— 10G от Ростелекома.
— Тёмное волокно наше, домашней выпечки.

Если с одним из провайдеров что-то происходит — всё не полетит к чертям.

Кстати, на «девятке» самые долгие истории — это не кабели и не документы. Это сетевые перемычки. Именно они тормозят всё сильнее всего.

h3llo.cloud/ru

Мы получили статус LIR, подсеть /29 IPv6 и встали в очередь на подсеть /24 IPv4!




Мы получили статус LIR, подсеть /29 IPv6 и встали в очередь на подсеть /24 IPv4!
www.ripe.net/membership/member-support/list-of-members/ru/h3llo-cloud/

Если что, RIPE NCC — даёт айпишники и автономные системы в Европе, Азии и России. LIR-статус — это возможность творить в своём блоке IP-адресов что угодно. Например, использовать. Раньше мы получали IP-адреса от другого LIR, то есть цепочка была чуть длиннее.

У нас уже давно (со старта) своя автономная система, и мы анонсируемся по BGP. Получить свою AS и поднять BGP-пиринг — квест недетский, но мы на старте его прошли. Теперь вот уполномочены сами выдавать AS своим клиентам.

В очереди на IPv4-блок мы под номером 954. Кажется, это никогда. Поэтому мы продолжаем закупать айпишники у поставщиков, как обычно и делается. Но фишка не в этом. Со статусом LIR мы можем покупать сети напрямую у других владельцев, а не через цепочку вышестоящих LIR. Так получается серьёзно дешевле.

/29 в IPv6 — это первые 29 бит адреса фиксированы для нашей сети. 128 — 29 — остаётся 99 бит для адресации. Если долго возводить в степень, то получится 512000 сетей /48. А сеть /48 — это 65536 сетей /64. В сети /64 целых 2^64 хостов (примерно 1.8 x 10^19). Короче, это очень дохрена. Адресов должно хватить каждому. Это нужно на достаточно большие сети для новых крупных клиентов. А они уже заезжают.

h3llo.cloud/ru

Публичное облако / Хранилище / Объектное хранилище



Мы работаем над улучшениями существующих сервисов для ускорения IOPS / BP / задержки. Мы переписали некоторые части программного обеспечения (OpenIO). Новая версия будет в 10 раз быстрее на маленьких файлах и в 3 раза быстрее на больших файлах. Мы завершаем разработку, стабилизируем и затем обновляем все наши кластеры S3.

1K — параллелизм: 600
На PoC:
Отчет: GET. Параллелизм: 300. Выполнение: 27 с
  • Среднее: 2,81 МБ/с, 2873,68 об/с
  • Требования: Среднее: 22,3 мс, 50%: 21,7 мс, 90%: 25,4 мс, 99%: 35,5 мс, Самый быстрый: 15,1 мс, Самый медленный: 1029,6 мс, StdDev: 4,4 мс
  • TTFB: Среднее: 22 мс, Лучший: 15 мс, 25-й: 20 мс, Медиана: 22 мс, 75-й: 23 мс, 90-й: 25 мс, 99-й: 35 мс, Худший: 1,03 с StdDev: 4 мс

Отчет: Всего. Параллелизм: 300. Пробег: 27 с
  • Среднее: 4,91 МБ/с, 7183,84 об/с

Пропускная способность, разделенная на 27 x 1 с:
  • Самый быстрый: 5,2 МБ/с, 7584,88 об/с
  • 50% Медиана: 5,0 МБ/с, 7238,98 об/с
  • Самый медленный: 4,4 МБ/с, 6441,92 об/с

На HighPerf (prod):
Отчет: GET. Параллелизм: 300. Выполнение: 27 с
  • Среднее: 0,32 МБ/с, 322,75 об/с
  • Требования: Среднее: 114,6 мс, 50%: 68,7 мс, 90%: 282,6 мс, 99%: 486,1 мс, Самый быстрый: 10,1 мс, Самый медленный: 1060,1 мс, StdDev: 108,4 мс
  • TTFB: Среднее: 115 мс, Лучший: 10 мс, 25-й: 43 мс, Медиана: 69 мс, 75-й: 157 мс, 90-й: 283 мс, 99-й: 486 мс, Худший: 1,06 с StdDev: 108 мс

Отчет: Всего. Параллелизм: 300. Выполнение: 28 с
  • Среднее: 0,55 МБ/с, 807,00 об/с

Пропускная способность, разделенная на 28 x 1 с:
  • Самый быстрый: 597,3 КБ/с, 849,35 об/с
  • 50% Медиана: 565,3 КБ/с, 810,10 об/с
  • Самый медленный: 507,8 КБ/с, 730,38 об/с

Как уплотнялись серверы линейки ChipCore



Мы придумали, как использовать десктопные компоненты для сервера. Рассказываем об эволюции проекта и делимся техническими подробностями.

Давным‑давно мы рассказывали про собственную разработку корпуса. С тех пор прошло немало времени, линейка серверов ChipCore значительно эволюционировала.

В прошлой статье речь шла о корпусах 1  и 1.5  ревизии. Расположение серверов на обычном складском стеллаже не позволяло полноценно охлаждать платформы. Единственный выход был — модернизация и монтаж в серверные стойки.

Несколько слов о ChipCore
При выборе оборудования для многих клиентов ключевой, а порой и решающий фактор — стоимость. Как правило, ChipCore используют для проектов ограниченным бюджетом. Яркий пример — стартапы. Они ищут наиболее экономичные варианты без потери базовой функциональности. И даже незначительная разница в стоимости становится причиной выбора. Такие заказчики тщательно анализируют прайс-листы, сравнивают предложения, ищут акции, скидки или специальные условия, чтобы минимизировать свои затраты.

Чтобы сформировать для них привлекательное предложение, приходится решать много технологических вопросов. Один из них — максимальная плотность размещения оборудования в стойках, выделенных для экономных потребителей. Также в серии Chipcore основа платформы — не серверные, а стандартные десктоп-комплекты.

Представьте, что нужно упаковать чемодан для долгой поездки или организовать пространство на крохотной кухне. Главная задача — уместить максимум полезных вещей в небольшом объеме. В дата-центрах инженеры решают схожую проблему. Здесь «пространство» — это серверные стойки, ограниченный и очень дорогой ресурс.

ChipCore 2.0: базовый уровень плотности
Основой для узлов послужили стандартные комплектующие для настольных ПК — главным образом процессоры Intel Core i5−i7 8−12 поколений. Каждый узел оснащался 32 ГБ оперативной памяти и двумя твердотельными накопителями (SSD) по 480 ГБ.

Теплораспределение потребовало своих особенностей конструкции. Блок питания (БП) разместился в передней части корпуса. Такое нестандартное расположение хорошо сказалось на воздушных потоках и улучшило охлаждение в условиях плотной компоновки.

Сервер Chipcore 2.0 в разработанном корпусе.


Следующим этапом стало создание особых стоечных конструкций. В архитектуре тогда предпочли горизонтальную компоновку и форм-фактор 2U. Ключевой особенностью стала уникальная стальная подложка, на которой размещались два независимых серверных узла, что позволяло устанавливать два сервера на одной панели столь небольшого объема.

3D-макет полки для двух серверов.



Получившаяся плотность позволяла разместить 34 платформы в обычной серверной стойке!

Сложности не заканчивались. Сказывалось отсутствие поддержки IPMI (Intelligent Platform Management Interface) — стандартного способа удаленного управления серверами. Решением стала технология IP-KVM, позволяющая легко получать доступ к каждому серверу через виртуальные консоли.
  • IP-KVM (Keyboard, Video, Mouse over IP) — это аппаратно-реализованная технология, которая захватывает сигналы устройств — таких, как видеокарты, клавиатуры, мыши, — оцифровывает их и передает по стандартной IP-сети. Так, администратор взаимодействует с сервером, как если бы он физически находился перед ним.
  • IPMI (Intelligent Platform Management Interface) — стандартный протокол для управления и мониторинга аппаратной части сервера или другого устройства, независимо от операционной системы.

KVM‑консоль в разработанном нами корпусе для удобства.


Важнейшей особенностью платформы ChipCore стала ее модульность. Появилась возможность относительно легко добавить дополнительную сетевую карту или оптический интерфейс. Серверы становились настоящими универсалами. Все проделанные изменения сделали платформу крайне привлекательной для клиентов, которым требовалась максимальная эффективность при минимальных затратах.

Монтаж сервера в стойку.


Для понимания среды, в которой работают серверы, отвлечемся на небольшое техническое описание методологии горячих и холодных коридоров. При таком подходе стойки стоят плотными рядами. Их передние панели смотрят друг на друга и образуют «холодный коридор». Задние части также обращены друг к другу и формируют «горячий коридор».

Через перфорированные плиты фальшпола или из потолочных воздуховодов охлажденный воздух подается в холодный коридор. Затем он разбирается вентиляторами систем охлаждения серверов и проходит через компоненты оборудования. Наконец, отобравший тепло воздух выбрасывается в изолированный горячий коридор. Оттуда поток возвращается к прецизионным кондиционерам для охлаждения и повторения цикла.

Основная цель данной технологии — предотвратить смешивание горячих и холодных воздушных потоков. Такое разделение резко повышает эффективность системы охлаждения, снижает энергопотребление и позволяет поддерживать более высокую плотность мощности на стойку.

Вид стойки со стороны горячего коридора.


Вид стойки с холодного коридора.


ChipCore 3.0: смена парадигмы
В процессе внедрения и эксплуатации выявился существенный недостаток: неэффективное использование внутреннего пространства стоек. Команда инженеров вновь задумалась над изменениями.

Преодоление ограничений предыдущего поколения привело не просто к модернизации, а к полному пересмотру концепции. В основу ChipCore 3.0 легла принципиально новая архитектура — с вертикальным и двусторонним размещением узлов. Серверы теперь устанавливаются стоймя — как с передней, так и с задней стороны.

Чертеж самодельного корпуса и полки.



Тепловая конструкция лучше спроектирована для работы в ЦОД с организацией «горячих» и «холодных» коридоров. Вертикальное расположение узлов и продуманная компоновка создают прямой и беспрепятственный воздушный поток через нагретые компоненты из холодного коридора в горячий. Центральное расположение БП также способствует более эффективному отводу тепла.

Сервер Chipcore 3.0 в разработанном корпусе.


Монтаж сервера в стойку.


Еще одним существенным ограничением предыдущей ревизии была невозможность поддержки процессоров с TDP выше 120 Вт, что делало платформу неконкурентоспособной для задач следующего поколения.

Для проектирования любой системы охлаждения требуется точное определение параметра TDP (Thermal Design Power). Именно такую тепловую мощность (в ваттах) система охлаждения должна рассеивать при работе под «сложной нагрузкой» на базовой тактовой частоте полупроводникового компонента.
Важно понимать, что TDP — не показатель электрического энергопотребления. Хотя эти величины связаны, фактическое энергопотребление процессора может кратковременно превышать его TDP — например, в режиме Turbo Boost. Кроме того, различные производители рассчитывают TDP по‑своему, поэтому нельзя по этому показателю сравнивать процессоры разных брендов напрямую.

Платформа ChipCore 3.0 была спроектирована таким образом, чтобы поддерживать более производительные процессоры Intel 13−15 поколений с TDP до 180 Вт, что на 50% превышает возможности ChipCore 2.0. Платформа стала хорошо подходить для ресурсоемких приложений и задач с высоким энергопотреблением.

В результате новая ревизия позволила размещать до 60 серверов в одной двусторонней стойке, что означает увеличение плотности примерно на 76% по сравнению с Chipcore 2.0.

Система питания построена на связке автоматического ввода резерва (АВР) и блоков распределения питания (PDU). Подобные блоки выглядят как ряд обычных розеток, при этом они бывают управляемые и неуправляемые. На всех стойках линейки ChipCore мы используем только первый тип, чтобы иметь возможность перезагрузить сервер при необходимости.

Автоматический ввод резерва — первая линия защиты от сбоев в электроснабжении, ключевой компонент систем высокой доступности. Его главная функция — непрерывный мониторинг основного источника питания. В случае обнаружения сбоя или отклонения параметров от номинальных происходит практически мгновенное переключение нагрузки на резервный источник — например, независимый фидер от другой подстанции или дизель-генераторная установка (ДГУ).

Для удаленного контроля по‑прежнему используется внешние IP-KVM.

Инженеры предусмотрели варианты подключения различных типов сетевых интерфейсов — от простых локальных сетей до волоконно-оптических линий связи. Кабель-менеджмент устроен таким образом, что все провода аккуратно уложены в органайзеры. Это позволяет обслужить один сервер без отключения других: достаточно отсоединить несколько кабелей, и модуль легко извлекается со всеми компонентами (см. фото выше).

В высокоплотной среде аккуратная прокладка кабелей перестает быть вопросом эстетики и становится функциональной необходимостью. Многократное увеличение количества силовых и информационных кабелей в стойке без методичного подхода быстро приводит к образованию «кабельных спагетти».

Спутанные провода блокируют прохождение воздуха, возникают «горячие точки». Также техническим специалистам требуется больше времени для трассировки и доступа к компонентам, что увеличивает операционные расходы.

Вид стойки с горячего коридора.


Вид стойки с холодного коридора.


В этой статье мы проследили увлекательную историю проектирования оригинального корпуса сервера. Разработанный нашими инженерами вариант оказался удачным. В двух традиционных стойках 21″ нашли место до 120 серверных платформ вместо прежних 72-х, которые когда‑то размещались на стеллаже.

Эволюция от Chipcore 2.0 к 3.0 — не просто количественный рост, а качественный скачок. Переход от горизонтального, самодостаточного шасси к вертикальной, интегрированной в стойку конструкции стал результатом смены философии проектирования: от отдельного сервера к стоечной экосистеме.

Chipcore 2.0 был попыткой оптимизировать сервер в рамках стандартной стойки. В то же время, конструкция Chipcore 3.0 теряет смысл вне контекста взаимодействия со средой ЦОД — горячими и холодными коридорами. Подобный опыт показывает, что за определенным порогом плотности и TDP проектирование серверов и инфраструктуры ЦОД больше не может рассматриваться как две отдельные дисциплины; они должны разрабатываться совместно. Серверный узел становится компонентом в более крупном вычислительно-тепловом модуле — стойке.

Для наглядности ключевые технические различия между всеми поколениями платформы сведены в таблицу.



Третья ревизия успешно решила задачу повышения вычислительной плотности и тепловой мощности. Получилась надежная и масштабируемая основа для интенсивных рабочих нагрузок при минимальной стоимости. Напомним, что в ChipCore используются обычные десктопные компоненты, а не серверные.

Интересно, какие изменения произойдут в будущем? По мере того, как TDP процессоров будет превышать 180 Вт, воздушное охлаждение достигнет своих физических пределов. Потребуется ли переход на жидкостное? Возникнет ли необходимость снова конструировать серверные компоненты? Мы обязательно обо всем расскажем.

https://selectel.ru