Не корми Яндекс: зачем мы сделали свою метрику




Мы любили Яндекс Метрику. Правда, любили. Издалека.

До того момента, пока не поставили её себе — и через отрицание, гнев, торг и депрессию не приняли простую истину: каждый день мы добровольно скармливаем нашего пользователя конкуренту. А ведь для бизнеса данные о поведении клиентов — это не просто статистика, это то, что превращается в точечные рекламные кампании, персонализированные предложения и в конечном счёте в прибыль.

Каждый клик на нашем сайте уходил Яндексу. Каждая сессия пользователя становилась частью огромной аналитической машины, которая затем оборачивалась против нас же — в виде повышения цен на рекламу именно нашей целевой аудитории или дополнительных знаний, помогающих продуктам Яндекса конкурировать с нашими.

Тут-то мы и решили: это пора прекратить, надо делать свою метрику, хватит уже этих граблей. Потому что лоб ещё чесался от предыдущих — self-hosted аналитики PostHog, которая нам доставила изрядно танцев с бубнами. Именно оттуда мы, собственно, и перешли на Яндекс Метрику.

И это была ошибка.

Как всё начиналось

Когда мы делали наш первый продукт — L1veStack, нам хотелось сэкономить время и не писать всё с нуля. Поэтому мы взяли несколько хороших опенсорсных систем, которые могли бы закрыть приличную часть функционала. Одна из них — система аналитики PostHog. Она поставляется в двух версиях: облачная и self-hosted. Второе — как раз то, что мы искали, чтобы поставить у себя и не передавать данные на сторону. Мы решили затащить её к себе.

Функционал у PostHog — огонь: красиво, удобно, всё на месте. Поставили, встроили, и вроде всё шло нормально. Пока не решили, что мы хотим не просто смотреть цифры, а и сессии пользователей записывать — как в Яндекс Вебвизоре, когда можно посмотреть, что человек на сайте делал.

Мы включили эту опцию — и… ничего не заработало. Начали разбираться. Долго и больно.

Ковырялись с CORS (Cross-Origin Resource Sharing) и CSRF (Cross-Site Request Forgery) — это те штуки, которые отвечают за безопасность запросов между разными доменами. У нас PostHog был на одном домене, сайт — на другом. Вроде всё правильно делали, но ничего не помогало. Решили попробовать обновиться, потому что с момента установки вышла новая версия. Поставили. О чудо — сессии заработали! Но развалилось всё остальное.

Мы застряли в бесконечном цикле: либо сессии не пишутся, либо аналитика ломается. Постоянная нестабильность, баги, конфликты между функциями. Мы поняли, что это не то решение, с которым можно спокойно жить на продакшене. Особенно перед релизом.

Время шло, до релиза оставалось всё меньше, и мы поставили Яндекс Метрику. Не потому что хотели, а потому что без аналитики было нельзя.

Первое, что сразу резануло, — все данные теперь у Яндекса. Именно этого мы и хотели избежать. Но на старте решили с этим мириться. Посмотрели первые сессии, получили полезные инсайты, кое-что переделали, стало понятнее и удобнее.

Но радость была недолгой. Начались проблемы уже у самой Метрики — прямо в интерфейсе висело сообщение, что у них что-то сломалось и отчёты теперь не грузятся. Пользователь аналитики, ты сегодня отдыхаешь.



Да ещё проблема блокировки трекеров, пытающихся отследить действия пользователя. Браузеры всё больше встают на защиту приватности пользователей: например, Safari практически полностью блокирует сторонние аналитические системы, да и другие браузеры постепенно движутся в том же направлении. Метрики проседают, мы лишаемся данных о части пользователей. Мы не хотим терять информацию. И отдавать данные компании, которая может использовать их против нас.

Остаётся вариант — хранить данные у себя
Главный аргумент — контроль. Когда ваши данные гуляют по чужим серверам, всегда есть риск, что они утекут к конкурентам.
  • Например, когда вы используете ту же Яндекс Метрику, происходит следующее:
  • Яндекс видит, какая аудитория посещает ваш сайт, и может повышать для вас цены на рекламу именно этой аудитории (а кто-то же ещё интеграцию с Яндекс Директ настраивает и выручку от транзакции отдаёт, добровольно).
  • Яндекс анализирует, какие функции вашего продукта популярны, и может внедрять похожие в свои сервисы.
  • Яндекс понимает, в какие моменты пользователи покидают ваш сайт, и может использовать эту информацию для улучшения своих продуктов.

Представьте, что вы строите инновационный финтех-сервис, а все данные о поведении ваших клиентов уходят в Яндекс Деньги (которые теперь ЮMoney). Или разрабатываете маркетплейс, а информацию о предпочтениях пользователей получает Яндекс Маркет.

То есть хранение данных у себя — это не просто технический выбор, это стратегическое конкурентное преимущество. Своя система даёт инструмент для глубокого анализа поведения пользователей без риска раскрытия секретов фирмы. Полный контроль над информацией позволяет быстро реагировать на изменения, обходить блокировки браузеров и использовать самые крутые методы профайлинга. Выгода тут очевидна. Свой продукт не зависит от внешних факторов и обеспечивает конфиденциальность, скорость и стабильность.

В общем, мы для себя так сформулировали основную проблему: существующие решения либо передают данные третьим лицам, либо страдают от блокировок браузерных трекеров, либо слишком сложны в настройке и поддержке.

Нам нужен был инструмент, который:
  • Хранит все данные на наших серверах.
  • Стабильно работает даже при агрессивной блокировке трекеров.
  • Легко настраивается и не требует команды DevOps для поддержки.
  • Предоставляет всю необходимую функциональность для глубокого анализа.

А раз нужен, то его надо сделать. Ну мы и сделали.



Что под капотом нашей метрики и зачем всё именно так
Основной приоритет — полный контроль над данными и лёгкость внедрения. Система предоставляет всё, что нужно для глубокой и точной аналитики:
  • Базовый сбор метаданных: IP, тип устройства, браузер, ОС, разрешение экрана и другие параметры — всё, что помогает понять пользователя.
  • Запись сессий пользователей — аналог Вебвизора: можно воспроизвести действия пользователя на сайте и отследить моменты фрустрации или проблем.
  • Продвинутый профайлинг: события до и после авторизации объединяются в один профиль. Если пользователь несколько раз заходил как гость, а затем авторизовался — вся его история объединяется в единую сессию (если не чистил куки).
  • Feature flags (фича-флаги): гибкое управление функциональностью. Можно включать/отключать фичи для конкретных сегментов пользователей — например, для мобильной аудитории, зарегистрированных в декабре или просто раскатить новую фичу на 5% случайных посетителей.
  • A/B-тестирование: настройка продуктовых гипотез на базе фича-флагов. Можно тестировать разные интерфейсные решения или функционал на разделённых группах пользователей и собирать аналитику.
  • Customer Journey Map (CJM): визуализация пути пользователя — от первого визита до ключевого действия. Видно, где он свернул, где ушёл и как можно улучшить путь.


Отдельно расскажу про прогнозный профиль. Это не просто метрика, это чуть-чуть предсказатель. Мы его почти доделали и вот-вот выпустим. Он анализирует поведение пользователя в реальном времени и пытается понять, кто перед нами, ещё до того, как он что-то купил, зарегистрировался или вообще раскрылся.

Если человек зашёл на сайт, походил, потыкал кнопки — система собирает сигналы, классифицирует и относит его к одной из поведенческих групп. Похож на тех, кто чаще возвращается? Или на тех, кто сливается после третьего шага? А может, это «быстрый покупатель» и ему нужно меньше отвлечений и больше CTA?

Зачем это нужно: чтобы реагировать не постфактум, а прямо по ходу. Подсвечивать нужный сценарий, менять интерфейс, не дожидаясь оттока. Это уже не просто аналитика, а инструмент персонализации и адаптивного интерфейса.

Работает он на базе простых ML-моделей, которые дообучаются по мере накопления исторических данных. Всё быстро и с каждым шагом всё точнее.

Архитектура с прицелом на будущее
С самого начала мы собирали систему с прицелом на простоту, скорость и масштабируемость. Поэтому — микросервисная архитектура, язык Go и только проверенные Open Source компоненты (и то — по минимуму). Всё летает, не ломается и легко разворачивается.

Каждый компонент упакован в контейнер: всё разворачивается через Docker Compose или Helm Chart. Установить на собственные серверы можно за 3–4 клика. А при размещении у нас — вообще в один.

Интеграция тоже продумана: трекер можно поставить на тот же домен, что и основное приложение. Поэтому он не определяется браузером как сторонний и не блокируется.

В архитектуре:
  • REST API принимает данные с фронта;
  • Микросервис записывает сессии пользователей;
  • Работает система профилирования и объединения данных до и после авторизации;
  • Админка построена на GraphQL;
  • Для интеграции на фронте — SDK для React (Next.js).

Между сервисами данные передаются по gRPC — это быстрее, надёжнее и стабильнее, чем классический HTTP. Снаружи этого не видно, но именно это делает систему живучей и быстрой даже под нагрузкой.

Для админки — отдельный GraphQL-микросервис. Он общается только с внутренними компонентами и не торчит наружу. Всё, что касается настройки фича-флагов, A/B-тестов, CJM и просмотра сессий, — делается через него. Это повышает безопасность: административная логика отделена и не доступна извне.

Всю систему мы собрали на проверенных Open Source компонентах: Postgres — для хранения структурированных данных, Redis — для кеширования, Kafka — для обмена сообщениями, ClickHouse — для аналитики. Никаких закрытых зависимостей или скрытых ограничений.

Сразу внедрили инструменты наблюдаемости — LGTM-стек (Loki, Grafana, Tempo, Mimir). Это позволяет отслеживать состояние системы, трассировать запросы и анализировать логи — всё прозрачно и под контролем.

В общем, получилось решение, которое легко разворачивается, стабильно работает и масштабируется вместе с бизнесом.



Вайб-кодинг: нейросети в разы ускорили нам разработку
Разработка такой системы вручную — это долго и дорого. Если собрать команду из 2–3 бэкендеров, 2 фронтендеров, DevOps и тимлида, то даже на минимальный MVP уйдёт полтора-два месяца плотной работы. Именно так это делалось бы год-полтора назад — без нейросетей, с написанием всего кода вручную. И затраты на разработку вряд ли оправдали бы себя — проще было бы просто оформить подписку на готовый платный сервис.

С появлением вайб-кодинга всё изменилось. Прототип мы собрали примерно за неделю силами одного разработчика (меня), и уже на второй неделе система имела рабочий функционал.

Здесь важный момент: нужно давать нейросети чёткие инструкции, иначе она начнёт улетать в своих «фантазиях» и понапишет лишнее. Тут не сработает принцип «сделай по лучшим практикам»: получится раздутый проект с размытой логикой и десятками лишних слоёв (не факт, что работающих).

В первом подходе прототип был размером в полмиллиона строк кода, с гигантской, размазанной по пяти слоям системой и стоил нам 200 долларов. Я смотрел на всё это и офигевал от того, что она умеет и сколько сразу тратит денег.

Во втором подходе я стал прямо пошагово вести нейросеть — ставить больше маленьких задач, давать меньше свободы, то есть использовал такой нейромикроменеджмент. Сначала просил нейросеть составить описание проекта и технические требования, потом сгенерировать моковую реализацию, затем — тесты, и только после этого — рабочий код. Всё руками ревьюил, дорабатывал. Иногда приходилось вообще всё сносить под ноль и перегенерировать заново.

Кодовая база сократилась в разы, функциональность стабилизировалась. С каждой итерацией ТЗ конкретизировалось, и нейросеть предлагала всё более эффективные решения. В итоге код стал проще, компактнее и логика — такая, как если бы ты писал сам.

Что в результате получилось
Это рабочая аналитическая система, которая включает примерно всё, что нужно для глубокого понимания пользователей:
  • Базовый сбор метаданных — то же самое, что собирает Яндекс Метрика: IP-адрес, данные о браузере, тип устройства, разрешение экрана.
  • Запись сессий — полноценный аналог Вебвизора, позволяющий воссоздать каждое действие пользователя на сайте.
  • Продвинутый профайлинг — объединение данных о пользователе до и после авторизации, что решает извечную проблему «потери» посетителя при логине.
  • Фича-флаги — включение или отключение функций для разных групп пользователей без необходимости деплоить новую версию.
  • A/B-тестирование — инструменты для проверки продуктовых гипотез с детальной аналитикой результатов.
  • Customer Journey Map (CJM) — визуализация пути клиента с выявлением точек отказа и затруднений на каждом этапе воронки.

Особое внимание мы уделили именно профайлингу и CJM, поскольку эти инструменты позволяют не просто собирать данные, а действительно понимать поведение пользователей и принимать продуктовые решения на основе реальных паттернов.

В разработке находится система прогнозного профиля (уже почти готова). Она позволит группировать схожих пользователей и предсказывать их поведение в самом начале сессии.

В чём мы круче конкурентов
Про Яндекс Метрику я уже много сказал. Добавлю ещё про PostHog: он требует отдельного домена, 4 vCPU, 16 Гб ОЗУ и 30 Гб диска. Установка долгая, несмотря на контейнеры и собственный инсталлятор. При трафике выше 50 тысяч пользователей в сутки начинаются проблемы с производительностью.

Собственно, для наглядности сведу всё в таблицу:


Особенно отмечу тот момент, что благодаря установке нашей системы на стороне пользователя мы обходим блокировки трекеров, так как система становится частью бэкенда и неотличима от основного функционала.

Наша модель — это бесплатный продукт без сбора и перепродажи данных. Мы зарабатываем за счёт того, что проще всего запустить систему именно у нас: всё разворачивается в один клик, без лишней возни и администрирования.

Такой подход позволяет компаниям любого масштаба получить полный контроль над своими данными без дополнительных расходов, но при этом оставляет возможность для более глубокого сотрудничества.

В итоге наш продукт — это универсальное решение для компаний, которые хотят контролировать свои данные и экономить деньги.



Чему всё это нас научило
Вот ключевые уроки, которые мы извлекли:
  • Технологические ограничения внешних сервисов неизбежны. Когда вы используете чужой продукт, вы всегда зависите от решений, принятых его разработчиками. Собственная система даёт полный контроль.
  • Выбор правильного технологического стека критически важен. Go и микросервисная архитектура позволили создать легковесное, но мощное решение, которое легко масштабируется.
  • Нейросети способны радикально ускорить разработку при правильном подходе. Секрет в строгих технических рамках и постоянном тестировании промежуточных результатов.
  • Меньше кода — лучше код. По мере развития проекта мы постоянно оптимизировали архитектуру, уменьшая объём кода и делая его более поддерживаемым.

Для разработчиков, которые задумываются о создании подобных систем, наши рекомендации просты:
  • Начинайте с чёткого понимания проблем, которые вы хотите решить.
  • Используйте компактные, хорошо тестируемые компоненты.
  • Не бойтесь применять нейросети, но устанавливайте для них чёткие рамки.
  • Фокусируйтесь на создании ценности для конечных пользователей, а не на технологиях ради технологий.

Будущее нашей системы мы видим в развитии прогнозной аналитики, улучшении интерфейса и расширении инструментов для глубокого анализа пользовательского поведения. Мы создали не просто аналитическую платформу, а инструмент, который может стать стратегическим преимуществом для любой компании, заботящейся о своих данных.

Контроль над данными — это не роскошь, это необходимость. Не отдавайте своё золото конкурентам. Стройте будущее на основе собственных знаний о своих клиентах.

h3llo.cloud/ru

Наша облачная платформа NGcloud стала Облаком года в рамках премии «ЦОДы РФ»



Мы рады, что наш труд был высоко оценен профессиональным сообществом. Наше облако развивается каждый день и прирастает новыми опциями.

Впереди у нас еще много работы, а сегодня мы просто порадуемся своим успехам.

ЦОДы, GPU, NVIDIA A16, охлаждение: о серьезных вещах простым языком

Добрый день, дорогой читатель. Меня зовут Селезнев Павел, я инженер второй линии поддержки в облачном провайдере Nubes. С каждой новой статьёй я расту в должности, поэтому пишу ещё одну :-)

Несколько месяцев назад нам с коллегой поставили задачу: провести сравнительные тесты, чтобы проверить, насколько сильно разогреется видеокарта под нагрузкой при использовании воздуха и диэлектрической жидкости.

Об этих тестах я и расскажу в статье, которая должна пролить свет на жизнь GPU в ЦОДе.

Предисловие
Как понятно из названия статьи, речь пойдёт о жизни GPU в контексте ЦОДа (центра обработки данных), проведённых тестах разных вариантов охлаждения и выводах, к которым пришла наша команда по итогу этих самых тестов и рассуждений.

Тестировали мы GPU NVIDIA A16 в течение нескольких дней.

На момент написания материала в нашем ЦОДе реализована система охлаждения посредством использования прецизионных кондиционеров, а в качестве хладагента — фреон.

Данная система представляет собой большие промышленные шкафы (кондиционеры), которые беспрерывно охлаждают нагретый оборудованием воздух с помощью того самого фреона. На картинке упрощённо показан процесс теплообмена.


В своей практике я видел и другие системы: водяные кондиционеры, контуры охлаждения на гликоле, чиллерные установки, рассеивающие тепло. О них тоже можно поговорить отдельно.

Ещё чуть-чуть и перейдём к тестам
Как я и сказал, нам поступила задача проверить рабочие температуры при использовании иммерсионного охлаждения — технологии жидкостного погружения.

Основа принципа не сильно отличается от воздушного охлаждения. Движение охлаждающего вещества (хладагента/иммерсионной жидкости/диэлектрической жидкости) происходит также естественно под действием конвекции (движения тёплых, холодных масс) и также с использованием дополнительных насосов в контуре (тепло рассеивается на внешних блоках). Оборудование полностью погружено в жидкость, исключая контакт с внешней средой.

Также из особенностей отметим, что для монтажа стенда требуется специальная погружная стойка и сервер. У подобного оборудования предусмотрены специальные отверстия для лучшей циркуляции охлаждающей жидкости. Плюс ко всему требуется дополнительная подготовка видеокарты перед подобным использованием — снятие радиаторов и кулеров (если говорить про любимые многими RTX 4090 и подобные). Из-за этого, прошу заметить, пропадает гарантия на оборудование.

Спецификация
Так вот, нам дали возможность пощупать что-то новое и провести сравнительный тест охлаждения под нагрузкой, к результатам которого я так долго подводил.
Спецификация и сухие цифры ниже.
У нас имеются:
NVIDIA A16
  • Архитектура графического процессора: NVIDIA Ampere.
  • Базовая частота чипа графического ускорителя: 1312 МГц.
  • Число универсальных процессоров: 5120.
  • Объём памяти: 64 Гб.
  • Тип памяти: GDDR6.
  • Частота видеопамяти: 12500 МГц.
  • Система охлаждения: пассивная.
  • TDP: 250 Вт.
2 среды
  • Воздушная.
  • Жидкостная (в нашем случае был полимер).
Софт для нагрузки видеокарты
  • Aida64.
  • Furmark.
  • Hashcat (нагрузили перебором словарей).
Нагрузка и наблюдение за картами в течение 4 дней по 24 часа в сутки
Самое интересное — иммерсионная жидкость
  • Используется диэлектрическая охлаждающая жидкость, полимер низкой вязкости ДОЖ1.
  • Горючесть 600 градусов в открытом тигле.
  • Температура рабочего диапазона -60С +180С.
  • Срок службы не менее 10 лет.
  • Уровень испаряемости низкий, поэтому подливать не нужно (если система не даст течь).
  • Расчётный механический PUE 1.06.

Тесты
Скрины по результатам тестов ниже.
Воздушное охлаждение





Жидкостное охлаждение





Общая статистика: в таблицу собрал средние значения (то есть среднее по всем четырём ядрам).


Итоги теста

На практике была доказана более высокая эффективность использования жидкостного охлаждения.

Зачем оно всё было надо
На данный момент технологии ИИ развиваются бурно, и для обучения или использования искусственного интеллекта требуются вычислительные мощности. Получается, что ИИ = GPU.

Видеокарты, создание инфраструктуры и её поддержание в рабочем состояние – дорого. Поэтому GPU из облака выглядит довольно «вкусно», особенно предприятиям/компаниям/ИП, которые хотели бы «пощупать» карты в тесте (у нас, например, это 14 дней) или интегрировать ИИ в работу без постройки масштабных комплексов и дополнительных затрат.

Так зачем делали тесты-то? Всё ещё непонятно.
Раз ресурсы GPU востребованы на рынке, то, если один облачный провайдер хочет конкурировать с другими, в своём арсенале эти карточки обязательно нужно иметь. Nubes хочет предоставлять GPU-as-a-Service в большом количестве.

Большое количество графических процессоров – это много тепла и повышенная нагрузка на кондиционеры, которые работают… правильно, от электричества. Оно растёт в цене, следовательно, увеличиваются расходы на эксплуатацию. Жидкостное же охлаждение требует меньше энергии, и это весомая причина рассмотреть такой вариант.

Какие выводы мы сделали
Иммерсионное охлаждение — лучший холод, что, в свою очередь, увеличивает срок эксплуатации оборудования. Да и ёмкости с минеральным маслом шумят меньше, чем кондиционеры. Ещё один существенный плюс — иммерсионное решение не требует «особой» подготовки места: наличие фальшполов для циркуляции холодных воздушных масс, создание изолированных коридоров, место под кондиционеры.

Всё круто, всё здорово, но подходит такой вариант охлаждения не всем, и есть у него ряд существенных «но».

Во-первых, как уже было сказано, для использования такого вида охлаждения нужна подготовка видеокарты. Потребуется снятие термоинтерфейсов и системы воздушного охлаждения. Из-за этого теряется гарантия карточки. Для co-location, например, такой вариант не очень подходит.

Во-вторых, для иммерсионного охлаждения используются специальные сервера, которые по производительности RAM и CPU уступают дефолтным аналогам. Публичное облако на них построить можно, но вариант не приоритетный. Также погружные стойки, которые мы видели, рассчитаны всего на 26U, то есть на 26 позиций для серверов. Под заказ, конечно, сделают и больше, но стандартное решение у ТК «Связь» именно 26U.



В-третьих, жидкостное охлаждение не исключает необходимость установки внешних блоков для отвода тепла и резервирования электропитания.

В общем, вывод такой: технология есть, она эффективная, но далеко не во всех случаях. И нужно взвешивать плюс и минусы, ну и, конечно же, считать выгоду.

nubes.ru

Ispmanager 6.123: теперь с LiteSpeed и WAF!



Представляем ispmanager 6.123: теперь с поддержкой LiteSpeed и встроенным WAF:
  • LiteSpeed — сверхбыстрый веб-сервер, полностью совместимый с Apache-конфигурациями. Ускоряет загрузку сайтов и улучшает Core Web Vitals.
  • WAF — надежная защита от распространённых угроз, таких как SQL-инъекции и XSS. WAF проверяет весь входящий трафик и блокирует подозрительные запросы.
Готовы увидеть LiteSpeed и WAF в деле? Вот пара материалов, которые могут пригодиться:
Если возникнут вопросы — мы всегда на связи и готовы помочь!

Спасибо, что вы с нами,
Команда ispmanager

Password policy changes (Изменения политики паролей)



Изменения политики паролей
С 27 июня 2025 года изменятся требования к паролям для пользователей сервиса.

Новые требования:
  • Минимальная длина 20 символов
  • Минимум одна заглавная и одна строчная латинская буква (A–Z, a–z)
  • Минимум одна арабская цифра (0–9)
  • Минимум один специальный символ из списка специальных печатных 7-битных символов ASCII !”#$%&'()*+,-./:;<=>?@[]^_{|}~

Эти новые требования коснутся только новых пользователей сервиса. Ранее созданные пользователи продолжат работать. Никаких дополнительных действий не требуется.

Если вы используете IaC для создания пользователей служб, убедитесь, что ваши манифесты, автоматизация и интеграция соответствуют требованиям новой политики паролей.

Наша главная цель — обеспечить безопасность и сохранность вашей инфраструктуры.

Спасибо, что вы с нами!
https://selectel.ru

Аренда дешевых выделенных серверов Hetzner, OVH - ABCD.HOST



Вы можете арендовать актуальные по производительности и цене выделенные серверы в Европе (Германия, Финляндия, Франция, Польша). Серверы расположены одних из лучших дата центрах Европы, OVH и Hetzner.

DE,FI / Intel Core i7-8700 [6c-12t] (4.6GHz) / 64 GB DDR4 / 2x512 GB NVMe SSD / 1Gbps — 5900р./месяц, 0р. установка
DE,FI / Intel Core i7-8700 [6c-12t] (4.6GHz) / 128 GB DDR4 / 2x1 TB NVMe SSD / 1Gbps — 6950р./месяц, 0р. установка
DE,FI / Intel Core i9-9900K [8c-16t] (5.0GHz) / 64 DDR4 2666 MHz / 2x1 TB NVMe SSD / 1Gbps — 7650р./месяц, 0р. установка
DE,FI / Intel Core i9-9900K [8c-16t] (5.0GHz) / 128 DDR4 2666 MHz / 2x1 TB NVMe SSD / 1Gbps — 8900р./месяц, 0р. установка
DE,FI / AMD Ryzen 7 3700X [8c-16t] (4.4GHz) / 64 GB DDR4 ECC / 2x1 TB NVMe SSD / 1Gbps — 7450р./месяц, 0р. установка
FR,PL / AMD Ryzen 7 9700X [8c-16t] (5.5GHz) / 64GB DDR5 ECC 5200MHz / 2x512GB SSD NVMe / 1Gbps — 8750р./месяц, 5700р. установка
DE,FI / Intel Core i5-13500 [14c-20t] (4.8GHz) / 64 GB DDR4 / 2x512 GB NVMe SSD / 1Gbps — 7900р./месяц, 3750р. установка
DE,FI / Intel Core i9-13900 [24c-32t] (5.6GHz) / 64 GB DDR5 ECC RAM / 2x1.92 TB NVMe SSD / 1Gbps — 12950р./месяц, 3900р./установка
DE,FI / AMD Ryzen 9 5950X [16c-32t] (4.9GHz) / 128 GB DDR4 ECC / 2x3.84 TB NVMe SSD / 1Gbps — 13950р./месяц, 0р. установка
DE,FI / AMD Ryzen 9 7950X3D [16c-32t] (5.7GHz) / 128 GB DDR5 ECC / 2x1.92 TB NVMe SSD / 1Gbps — 16400р./месяц, 3900р. установка
DE,FI / Intel Xeon Gold 5412U [24c-48t] (3.9GHz) / 256 GB DDR5 ECC RAM / 2x1.92 TB NVMe SSD / 1Gbps — 20900р./месяц, 8400р. установка
DE,FI / Intel Xeon Gold 5412U [24c-48t] (3.9GHz) / 128 GB DDR5 ECC RAM / 2x3.84 TB NVMe SSD / 1Gbps — 20900р./месяц, 8400р. установка
DE,FI / AMD EPYC 7502P [32c-64t] (3.4GHz) / 128 GB DDR4 ECC / 2x1.92 TB NVMe SSD / 1Gbps — 16500р./месяц, 0р. установка
DE,FI / AMD EPYC 7502P [32c-64t] (3.4GHz) / 256 GB DDR4 ECC / 2x3.84 TB NVMe SSD / 1Gbps — 20400р./месяц, 0р. установка
DE,FI / AMD EPYC 9454P [48c-96t] (3.8GHz) / 128 GB DDR5 ECC / 2x3.84 TB NVMe SSD / 1Gbps — 30750р./месяц, 8400р. установка
DE,FI / AMD EPYC 9454P [48c-96t] (3.8GHz) / 256 GB DDR5 ECC / 2x1.92 TB NVMe SSD / 1Gbps — 30750р./месяц, 8400р. установка

  • При необходимости можно увеличить диски, RAM, скорость сети
  • Безлимитный трафик
  • Панель управления сервером
  • Защита от DDoS-атак
  • Бесплатный доступ к KVM и IPMI
  • Дополнительные IP адреса 250р./месяц

Другие конфигурации abcd.host/dedicated, если не нашли нужную вам конфигурацию создайте тикет и мы вам подберем необходимую конфигурацию сервера по вашим характеристикам и под ваши задачи.

Вы можете арендовать предложенные выделенные серверы в личном кабинете my.abcd.host, либо создайте тикет, в котором укажите конфигурацию и необходимое количество серверов.

Спасибо, что остаетесь с нами!
ABCD.HOST

Новая консоль Hetzner уже здесь





ИНФОРМАЦИОННЫЙ БЮЛЛЕТЕНЬ HETZNER
Здравствуйте и хорошего дня.
Вот ваш ежемесячный обзор интересных новостей и полезных советов от Hetzner! Наслаждайтесь!

ЯЩИКИ ДЛЯ ХРАНЕНИЯ ТЕПЕРЬ НА НОВОЙ КОНСОЛИ HETZNER
Мы упрощаем для вас управление продуктами Hetzner: начиная с этого момента, Hetzner Storage Boxes, которые идеально подходят для резервного копирования и архивирования данных, находятся на новой консоли Hetzner. Новая консоль Hetzner — это обновленная версия Cloud Console, которая заменила ее. Для управления продуктами Cloud и Object Storage вы теперь будете использовать консоль Hetzner. Шаг за шагом мы расширим типы функций, доступных на консоли Hetzner, и интегрируем в нее продукты с таких платформ, как Robot и konsoleH.

Hetzner Console — это современный, интуитивно понятный интерфейс, который позволит вам проще администрировать ваши облачные продукты, объектные хранилища и Storage Boxes в одном месте. Это означает, что у вас будет лучший обзор, более быстрая навигация и единая платформа, ориентированная на будущее. И за этим последуют другие продукты.

Также появилась новая функция для Storage Boxes в Hetzner Console: теперь можно добавлять ключи SSH при создании Storage Box, чтобы ускорить и обезопасить доступ к нему.

Вы можете найти новую консоль Hetzner на accounts.hetzner.com, нажав на значок переключателя приложений (в правом верхнем углу; выглядит как 9 маленьких квадратов). Затем нажмите «Консоль». Или вы можете перейти напрямую на console.hetzner.com

ЗОЛОТО ДЛЯ HETZNER НА ПРЕМИИ SERVICE PROVIDER AWARDS 2025
Мы получили золото на Service Provider Awards 2025 в новой категории «Суперскейлер». Суперскейлеры — это крупные поставщики облачных услуг с региональной направленностью, которые предлагают пользователям альтернативу американским гиперскейлерам, особенно когда для них важны защита данных и соответствие требованиям.

Знаменитая премия ежегодно отмечает лучшие облачные и ИТ-компании в двенадцати категориях. Для определения победителя медиакомпания Vogel IT-Medien организует большой ежегодный опрос читателей на своих различных ИТ-порталах. В этом году в нем приняли участие более 17 000 ИТ-экспертов.

Варианты использования для современных предприятий требуют гибких и мощных ИТ-сред, чтобы они могли надежно использовать передовые технологии, такие как искусственный интеллект (ИИ), машинное обучение и анализ больших данных. Такие супермасштаберы, как мы, предоставляют необходимую инфраструктуру для этого и способны предоставлять такие услуги в больших масштабах в соответствии с правилами защиты данных.

Победа в категории «Суперскейлер» подчеркивает нашу приверженность предоставлению мощной и надежной облачной альтернативы американским гиперскейлерам, которая соответствует правилам защиты данных. Спасибо всем, кто отдал нам свой голос!

НОВЫЕ ОБРАЗЫ ДЛЯ ОБЛАЧНЫХ СЕРВЕРОВ
Недавно мы расширили наш выбор операционных систем, доступных для установки на ваши облачные серверы. Начиная с этого момента вы можете установить AlmaLinux 10, Rocky Linux 10 и Fedora 42 непосредственно на ваш облачный сервер при его создании. Кроме того, мы сделали образы ISO для Talox Linux и openSUSE MicroOS доступными для ручной установки. И последнее, но не менее важное: проект Fedora недавно опубликовал собственные образы CoreOS для наших облачных серверов.
Эти новые дистрибутивы сочетают в себе новые технологии, стабильность и безопасность и помогут вам подготовить ваш следующий облачный проект к будущему.

ОБЩАЯ ВНЕШНЯЯ ПРОПУСКНАЯ СПОСОБНОСТЬ УВЕЛИЧИВАЕТСЯ ДО 46,05 ТБИТ/С
Мы постоянно увеличиваем нашу сетевую инфраструктуру для вас. Недавно были введены в эксплуатацию следующие частные пиринги:
  • 400 Гбит/с Ростелеком (FRA)
  • 200 Гбит/с Aeza (HEL)
  • 200 Гбит/с ChinaTelecom (FRA)
  • 100 Гбит/с EdgeUno (FRA)
  • 100 Гбит/с NetShield (FRA)
  • 100 Гбит/с SYNLINQ (Франция)
www.hetzner.com/unternehmen/rechenzentrum

KKTIMONIAL: ВЫСОКОТЕХНОЛОГИЧНОЕ УСИЛИЕ С GPU-СЕРВЕРАМИ
Университетская инициатива Elara Aerospace разработала собственную ракету-носитель «Металокс» на жидком топливе и проводит исследования с использованием инновационных технологий в аэрокосмической отрасли.
Мы поговорили с главным операционным директором Тобиасом Йегером и узнали, какую важную роль наши серверы GPU играют в их работе.
www.youtube.com/watch?v=LanmLrBjttI

HETZNER GAME JAM: БАГЕТЫ, БИТЫ И БАЛАНС
66 любителей игр встретились на Hetzner Game Jam, сформировали команды, а затем разработали свои собственные игры от начала до конца за 48 часов. В конце мероприятия они представили 16 игр, и каждая из них с оригинальным взглядом на тему этого года: «баланс».
Например, в игре «Балет багетов» мама-утка должна попытаться принести своим птенцам хлеб, балансируя багетами, которые она несет на голове. В игре «Баланс еды» участники должны быстро собрать здоровую пищу, избегая при этом вредной. В другой игре, «Термическая стабильность», игроки должны найти идеальный баланс в своей духовке, чтобы пламя оставалось горящим, но еда не подгорала.
Thumbnail Hetzner Game Jam Video
Hetzner Game Jam снова произвел большое впечатление и доказал, что можно завершить захватывающие проекты за очень короткое время с небольшим количеством технических знаний, творческих идей и командного духа. Все игры этого года доступны на github.com/hetzneronline/game-jam

ЗНАЕТЕ ЛИ ВЫ? ПРОСТАЯ МИГРАЦИЯ БАЗЫ ДАННЫХ НА KONSOLEH
Начиная с этого момента, клиенты управляемого сервера могут перемещать свои базы данных с одного сервера на другой. Независимо от того, перемещаете ли вы базу данных из пакета веб-хостинга на управляемый сервер или между различными управляемыми серверами — новая функция делает это намного проще. Раньше им нужно было бы вручную экспортировать и импортировать, но теперь это занимает всего несколько щелчков.

ДАВАЙТЕ ОБЪЕДИНИМСЯ НА ВСЕМИРНОМ КОНГРЕССЕ «МЫ — РАЗРАБОТЧИКИ»
Мир технологий встретится с 9 по 11 июля 2025 года в Берлине/Германия. Более 15 000 разработчиков, технических руководителей, инженеров DevOps и владельцев продуктов соберутся на конгрессе WeAreDevelopers World Congress, чтобы обменяться идеями о будущем разработки программного обеспечения.
Мы будем там со своим стендом (№ 2_40) в зале 2.2 и надеемся, что вы посетите нас, чтобы мы могли познакомиться с вами.
www.wearedevelopers.com/world-congress

Краткие итоги масштабной DDoS-атаки на инфраструктуру Rusonyx



Два дня инфраструктура Rusonyx была под DDoS-атакой зарубежной хакерской группировки. Почти 50 часов наши сетевые ресурсы беспрерывно атаковались из-за рубежа: с 16 июня (понедельник) с 09:45 до 18 июня (среда) 11:40.

Это не первая DDoS-атака, с начала года мы в кратчайшие сроки отразили порядка 40 инцидентов. До этого группировка направляла свой удар на конкретный ресурс, а в этот раз нацелилась на всю нашу инфраструктуру сразу. Атака была интенсивной, распределённой по источникам. Трафик — замаскированный под валидный, который невозможно отсеять на транспортном уровне.

В целях безопасности воздержимся от публичного отчёта о том, как именно мы справились с проблемой. Отметим, что мы использовали все имеющиеся у нас ресурсы, а также интенсивно взаимодействовали с провайдерами, предоставляющими услуги защиты от DDoS.

Так как нам удалось быстро купировать последствия атаки, внутри страны большую часть времени ресурсы клиентов были доступны, а проблемы наблюдались точечно в отдельных сегментах Интернета. Поскольку основной удар пришёлся по трансграничным соединениям, наша техподдержка точечно обрабатывала ложные срабатывания по запросам клиентов, параллельно ведя работу по разработке агрегирующих правил.

Мы отработали все запросы клиентов, однако если у вас до сих пор наблюдаются проблемы в работе ресурсов, просим обращаться в техническую поддержку.

Что в итоге?
  • Вырабатываем ещё более усиленную стратегию защиты от DDoS с учётом нового специфического опыта.
  • Существенно повысим доступность телефонии, так как из-за массовости обращений время ответа было увеличено.
  • Улучшим порядок информирования о подобных инцидентах через другие ресурсы компании: сайт, социальные сети и так далее.
Хотим напомнить, что DDoS-атака — это кибератака, которая направлена, прежде всего, на сетевые ресурсы компании. Несмотря на недоступность сайтов и других приложений, сами серверы Rusonyx работали в штатном режиме, а данные клиентов были в полной сохранности, и к ним никто не получил доступ.

Благодарим вас за терпение и понимание.
www.rusonyx.ru

Minecraft – как играть с друзьями по сети: пошаговые инструкции

Minecraft – хороший способ отдыха после тяжелого дня и играть в него необязательно в одиночку. Но возникает вопрос: а как играть друг с другом в Майнкрафт, не прибегая при этом к использованию публичных серверов? В данной статье мы расскажем, как играть в Майнкрафт на расстоянии – какие существуют способы и чем они отличаются.

Способы игры вместе
В Майнкрафт можно играть как по локальной сети, так и с помощью отдельного сервера, к которому будут подключаться все игроки. Первый способ может быть проще, если играет небольшое количество человек, однако он имеет и свои недостатки: к примеру, появляется зависимость от одного из игроков – другие пользователи не смогут играть, пока создавший мир не откроет его. В случае отдельного сервера такой привязки нет, игроки смогут заходить в игру в любое время, когда сервер доступен.

Для начала разберем, как играть в Майнкрафт по сети.

Игра в Minecraft через локальную сеть (LAN): как открыть мир для совместной игры
Чтобы дать возможность друзьям подключиться к вашему миру, запустите игру и загрузитесь в нужный мир, после чего на экране ожидания (ESC) выберите “Открыть для сети”.


В чате игры отобразится порт, который будет использоваться для подключения другими игроками.

Для подключения к миру с другого устройства в этой же сети откройте на нужном устройстве раздел “Мультиплеер”. Обычно дополнительных действий не требуется – открытый мир автоматически отобразится в разделе. Если этого не происходит, можно попробовать явно указать адрес и порт для подключения. В качестве порта следует использовать отображенный ранее на экране при открытии мира, в качестве хоста – локальный IP устройства, на котором был открыт общий доступ к миру. Узнать локальный IP можно, выполнив команду ipconfig в командной строке Windows. Обычно локальный IP имеет формат 192.168.x.x. Узнав нужные адрес и порт, введите их в поле “Адрес сервера” на втором устройстве, после чего подтвердите подключение. На этом всё – теперь вы знаете, как играть локально в Майнкрафт, а мы переходим к следующему способу.

Как играть с друзьями в Майнкрафт, используя сервер в Windows
Для запуска сервера Minecraft потребуется установить Java на машине. Если вы запускаете сервер на том же ПК, что и игру, вероятнее всего, дополнительно устанавливать ничего не потребуется.

JRE или JDK
JRE – рабочая среда Java, требуемая для запуска ПО, JDK – платформа для разработки на Java и включает в себя JRE. Для ванильного сервера достаточно JRE, однако некоторые моды могут требовать JDK.

Для установки доступны 2 варианта: OpenJDK или Oracle JDK, основная разница в лицензировании: первый является реализацией Java с открытым исходным кодом, второй – технически требует платной подписки для коммерческого и продакшн-использования.

Убедившись, что на нужной машине установлена рабочая среда Java, загрузите файлы сервера необходимой версии. Последняя актуальная версия доступна на официальном сайте, а более ранние – на сайте mcversions.

Создайте папку под файлы сервера в удобном вам месте и переместите загруженный файл в нее. Откройте командную строку Windows, после чего командой cd путь_до_директории переместитесь в созданную ранее директорию. Выполните первый запуск сервера командой java -jar server.jar --nogui, после чего будет сгенерирован файл eula.txt. Откройте его текстовым редактором и измените eula=false на eula=true. Изменением данной строки вы подтверждаете, что прочитали пользовательское соглашение и принимаете его. Без изменения данной строки сервер будет автоматически завершать работу сразу после запуска.

Для более удобного запуска можно создать скрипт, в Windows это можно сделать с помощью batch-файла. Для этого создайте в директории файл start.bat со следующим содержимым:
@ECHO OFF
java -Xms1024M -Xmx2048M -jar server.jar --nogui
pause


Команда pause оставляет окно терминала открытым после завершения процесса сервера для чтения вывода. Опции -Xms1024M и -Xmx2048M задают минимальную и максимальную доступную оперативную память для сервера, с полным списком доступных опций Java вы можете ознакомиться в документации.

На этом инструкция, как играть в Майнкрафт через сервер в Windows, подходит к концу – после создания файла для запуска сервера осталось лишь запустить файл start.bat.

Как создать свой сервер Minecraft на VPS
Запускать сервер на собственном ПК не всегда удобно – запущенный сервер использует ресурсы ПК, которые могут требоваться другим программам, а если его понадобится перезагрузить или выключить, игровой мир будет недоступен для всех участников. В таком случае удобнее использовать VPS-сервер, который будет работать круглосуточно и независимо от ПК игроков, – и сейчас мы расскажем, как создать свой сервер для игры в Майнкрафт.

Для удобства мы создали готовое решение Minecraft, которое автоматически устанавливает сервер Minecraft последней версии. Для создания сервера перейдите в раздел “Облако” панели управления, нажмите кнопку “Создать”, а затем “Виртуальный сервер”, после чего выберите готовое решение Minecraft:


Выберите желаемую конфигурацию сервера и нажмите «Создать виртуальный сервер».

После создания сервера подождите несколько минут для завершения развертывания – статус сервера будет отображаться в панели управления. После установки сервер со стандартными настройками будет автоматически запущен, для подключения используйте IP-адрес сервера, указанный в его карточке в разделе “Облако”.
cp.beget.com/cloud
Для настройки сервера, например, включения белого списка игроков, можно использовать файловый менеджер. Откройте его и перейдите в директорию /opt/beget/minecraft-java/data. После чего откройте server.properties, внесите необходимые изменения и перезагрузите сервер.

Также рекомендуем ознакомиться с ответами на частые вопросы на странице готового решения.

Заключение
В данной статье мы кратко рассказали про популярные способы совместной игры в Minecraft в 2025 году, а также как играть с другом в Майнкрафт, используя собственный сервер на VPS.

VPS c высокочастотными процессорами доступны в Beget



Рады сообщить, что теперь вы можете арендовать у нас мощные VPS-серверы линейки AMD EPYC с тактовой частотой от 5 ГГц.

Эта частота обеспечивает максимальную производительность в ресурсоемких задачах – от рендеринга 3D-графики до стриминга в 8K.

Такие процессоры будут полезны, если ваши проекты связаны, например, с:
  • HFT-трейдингом, где каждая доля секунды влияет на прибыль;
  • запуском игровых серверов, где важен низкий пинг и плавный геймплей;
  • стримингом и рендерингом – для обработки 4K/8K-видео в реальном времени;
  • научными вычислениями – для сложных расчетов (ускорение моделирования квантовых систем, обработка астрофизических данных и т. д.);
  • высоконагруженными OLTP-системами, где необходим мгновенный ответ на запросы;
  • AI/ML-инференсом – для быстрого выполнения предсказаний моделей.
В общем, аренда мощного сервера с высокочастотным процессором будет полезна везде, где критична задержка даже в 1 миллисекунду.

В зависимости от задач вашего проекта доступны разные конфигурации.

Минимальная конфигурация:
  • 1 ядро CPU 1 ГБ RAM 20 ГБ NVMe цена: 810 руб./мес.
Максимальная конфигурация:
  • 8 ядер CPU 32 ГБ RAM 360 ГБ NVMe цена: 11 460 руб./мес.
И конечно, для этих и остальных конфигураций высокочастотных серверов актуальны все наши возможности и фичи: к каждому VPS мы предоставляем выделенный IP-адрес, бесплатное резервное копирование, гарантированный канал в 250 Мбит/сек., DNS-хостинг, удобный мониторинг состояния серверов, приватные сети и многое другое, а также вы можете выбрать нужное для ваших задач готовое решение, которое уже предварительно настроено и доступно к установке и развертыванию.

Если для вашего проекта каждая миллисекунда имеет значение, то прямо сейчас вы можете в один клик заказать сервер с высокочастотным процессором.

beget.com