Hetzner основывает HT clean energy GmbH — первый солнечный парк, который будет построен в Нассау-Вайкерсхайме



Мартин Хетцнер, основатель компании веб-хостинга и облачного провайдера Hetzner Online GmbH, совместно с Джошуа Тлапаком, основателем MHB Montage GmbH, создали новую компанию HT clean energy GmbH. Новое предприятие сосредоточится на эксплуатации солнечных энергетических парков и крупномасштабных операциях по хранению аккумуляторов. Первым крупным проектом для новой компании станет солнечный парк в Нассау-Вайкерсхайме в Германии. Работа на этом участке площадью 7 гектаров уже началась. После завершения он будет вырабатывать около 6,5 МВт электроэнергии и ежегодно снабжать более 1800 домохозяйств зеленой энергией. И в разработке уже находятся другие проекты. В долгосрочной перспективе компания хочет полностью снабжать центры обработки данных Hetzner энергией, вырабатываемой ее собственными фотоэлектрическими системами.

Центры обработки данных являются цифровой основой нашего глобально взаимосвязанного мира. Они позволяют посещать веб-сайты, обрабатывать огромные объемы данных и использовать бесчисленные цифровые приложения в повседневной жизни. По мере того, как растет спрос на большую вычислительную мощность, растет и ответственность таких поставщиков, как Hetzner, за обеспечение надежности и использования устойчивой энергии. Поэтому Hetzner использует инновационные решения для экономии энергии и ресурсов при проектировании и эксплуатации своих центров обработки данных. «Используя современную технологию охлаждения, мы можем охлаждать наши серверы с помощью наружного воздуха до 358 дней в году, и таким образом мы экономим внушительное количество энергии», — пояснил представитель компании Кристиан Фиц. «Мы используем 100% гидроэлектроэнергии для снабжения наших серверов в Германии электроэнергией с 2008 года, а в Финляндии мы также используем энергию ветра».

С созданием новой компании HT clean energy GmbH компания Hetzner делает еще один большой шаг вперед. «Наша цель — гарантировать, что наши центры обработки данных смогут удовлетворять растущие потребности в энергоемкости, но мы также можем сделать это, полностью снабжая их самостоятельно вырабатываемой возобновляемой энергией. Тем самым мы берем на себя ответственность за предоставление нашим клиентам экологически чистой ИТ-инфраструктуры», — подчеркнул Мартин Хетцнер.

Новая компания символизирует усилия Hetzner по активному формированию будущего устойчивой цифровизации. Производя собственную устойчивую энергию, компания сделает важный шаг к тому, чтобы стать более независимой в долгосрочной перспективе, и в то же время внесет важный вклад в усилия Германии по переходу на экологически чистые источники электроэнергии. Более того, это начинание послужит примером того, как технологические инновации и экологическая ответственность могут идти рука об руку, и поможет установить новые стандарты для зеленых ИТ.

Что вам надо знать в 2025 году про контейнеры, чтобы не пропустить важное




Контейнер — это типа виртуальной машины, только меньше и другое. Несколько контейнеров запускаются внутри одной машины и разделяются друг от друга.

Это значит, что можно запустить приложение с одним набором зависимостей, а рядом — второе с другим. Это значит, что можно сохранить все связки приложения, упаковать его в контейнер и деплоить где угодно — и знать, что оно точно запустится. Есть нюансы с переходом между ARM-архитектурой и x86, но в целом контейнеры универсальны.

В контейнерной упаковке огромное количество софта, в том числе очень много опенсорса. Можно поднять готовый контейнер с сервисом из хаба без проблем вообще. И это не создаёт сложных взаимозависимостей. Нужен PostgreSQL? Docker pull postgres — и он у вас.

К контейнерам монтируются свои ресурсы — диски, сети, конфиги и секреты.

Контейнеры оплачиваются за потребление, то есть можно сделать сервис, который слушает порт и делает обработку, повесить и забыть. За год вы заплатите рублей 20.

Рои контейнеров могут масштабировать крупные корпоративные проекты, про это ниже.

И, наконец, никакой современный CI/CD почти не делается без контейнеров. Системным администраторам, DevOps-инженерам, разработчикам и СТО критически важно разобраться в контейнеризации.

Это будущее, и у этого будущего довольно странная кривая обучения. Сейчас коротко расскажу, попробуем разобраться, как её лучше проходить и где там грабли. Ну и ещё, если вы дойдёте до середины, ваша зарплата будет 450 тысяч рублей в месяц и выше.

Короткая вводная
Раньше всё было просто: есть админы, которые настраивают серверы, и есть разработчики, которые пишут код. Между ними как будто была стена, через которую разработчики кидали админам сборку софта, а админы в обратку кидали проблемы с деплоем и рантайм-эксепшены.

А теперь границы размываются. Разработчики должны понимать, как их код будет жить в продакшне. Админы должны уметь автоматизировать развёртывание. СТО нужно планировать архитектуру с учётом масштабирования и отказоустойчивости.

И здесь на сцену выходят контейнеры — технология, которая объединяет эти миры. Но чтобы в 2025 году оставаться в игре, нужно не просто знать, что такое Docker. Нужно понимать всю экосистему — от простейших контейнеров до оркестрации в Kubernetes и интеграции с нейрокодингом.

Сначала у нас были физические серверы — железки, которые занимали целые стойки. Хочешь новое приложение? Покупай новый сервер. Нужно больше мощности? Апгрейдь железо.

Потом пришла виртуализация и изменила правила игры. Теперь на одном физическом сервере можно запустить несколько виртуальных машин с разными операционками. Это был прорыв: меньше железа, больше гибкости, лучше утилизация ресурсов.

Но виртуализация принесла и свои проблемы. Каждая виртуалка — это полноценная операционная система со всеми потрохами. Это гигабайты дискового пространства, сотни мегабайт оперативки только на старте и заметное время запуска.

Виртуалки — штука классная, но у них есть несколько серьёзных ограничений:
  • Проблемы масштабирования. Допустим, у вас «чёрная пятница» и нагрузка выросла в три раза. С виртуалками у вас два пути: либо увеличить ресурсы существующей машины (ресайз), либо клонировать её. Оба варианта требуют времени и дополнительной настройки.
  • Сложности с зависимостями. Представьте: у вас на одном сервере два приложения. Одному нужна Java 8, другому — Java 11. С виртуалками решение одно: две отдельные виртуалки. Это лишние ресурсы и головная боль с администрированием.
  • Неэффективное использование ресурсов. Каждая виртуалка жрёт ресурсы даже в простое, потому что крутит полноценную ОС. Это как держать заведённую машину на парковке.

Разница между виртуализацией и контейнеризацией
Здесь важно понять ключевую разницу в подходах.

Виртуальные машины — это «домашние питомцы». Вы их поднимаете, называете по имени, заботитесь об их здоровье, бьётесь над их аптаймом. Вы знаете их всех в лицо, все ваши восемь виртуалок. Стараетесь, чтобы они прожили как можно дольше.

Контейнеры — это «стадо». Вы не знаете их по именам, их может быть сотни. Один упал — и ладно, поднимется другой. Это нормально, если за рабочий день вы запустите и грохнете пару сотен контейнеров.

Жизненный цикл виртуалки рассчитан на месяцы и годы. Она копит проблемы и болезни, как старый человек. Контейнеры же могут жить минуты или часы, а потом уступить место свежему контейнеру с новой версией кода.

Собственно, именно так контейнеры чаще всего и используются.

Существует даже кейс с очень коротким жизненным циклом контейнера: за 1–2 секунды поднимается контейнер, отрабатывает запрос, умирает. Это крайне удобно. Так делают на платформах приложений и в CI/CD-pipeline.

Контейнер — это изолированный процесс, которому кажется, что он запущен в отдельной системе. Но на самом деле он использует ядро хостовой ОС. Для изоляции контейнеры используют не возможности железа (как виртуалки), а возможности ОС — так называемое пространство имён. Например, Docker использует cgroups в ядре Linux.

Виртуалка весит гигабайты, контейнер — мегабайты. Postgres в контейнере (без нагрузки) — всего 9 мегабайт оперативки. Девять! Это просто смешно по сравнению с полноценной виртуалкой.

Виртуалки запускаются минуты, контейнеры секунды.

Но самое главное — портативность между различными средами. «У меня локально работает, а на проде — нет». С контейнерами такое почти исключено. Запаковали приложение в контейнер, и оно будет работать одинаково, что у вас на ноуте, что на тестовом сервере, что в продакшне.

Допустим, у вас типичная система из веб-сервера, приложения и базы данных. Описав всё это в Docker Compose файле, вы можете одной командой поднять всю инфраструктуру на любой машине.

Чтобы было удобно разворачивать контейнеры в разных средах, образ заливается в репозиторий (публичный или приватный), и тянется оттуда. Не надо ручками раскидывать образ на хосты — они сами стянут его из репы. Существуют миллионы готовых образов и создавать их с нуля не надо.

Вот почему они такие крутые.

Первые шаги: знакомство с Docker’ом

Сначала вы не понимаете, зачем нужен Docker и все эти статьи на Хабре про него. Скачиваете его из любопытства, долго пытаетесь разобраться, как создать свой первый контейнер. Потом замечаете, что запустить Postgres в Docker — это мизинцем левой ноги, когда в обычной установке это адская головная боль.

Docker и GUI к нему (Docker Desktop) можно поставить и на Linux, и на Mac, и на Windows. Для начала работы достаточно знать несколько команд: docker run, docker build, docker ps, docker stop. Не пугайтесь — это проще, чем кажется. Чуть-чуть покурить обучение на Ютубе или официальный get started — и вот у вас появляется первый контейнер.

Порог входа обманчиво простой.

Дальше идёт работа с образами и репозиториями — Docker Hub и прочие Container Registry. Docker Hub — это как GitHub, только для контейнеров. Там уже есть готовые образы для большинства популярных программ.

Первый Dockerfile можно написать за 10 минут. Это просто текстовый файл с инструкциями: откуда взять базовый образ, какие команды выполнить при сборке, что запустить. LLM сейчас отлично умеют генерировать Dockerfile — это ваш первый помощник.

Обычно с Docker знакомятся так: когда вы инди-хакер с одной виртуалкой в облаке, контейнеры вам, возможно, и не нужны. Момент истины наступает, когда:
  • Бизнес начинает расширяться.
  • Проект превращается во что-то более крупное.
  • Вы обновляете приложение несколько раз в день.
  • В команде появляется больше 3–5 разработчиков.

Дальше идёт описание многокомпонентных систем в Docker Compose. Docker Compose позволяет описать в одном YAML-файле целую инфраструктуру: несколько связанных контейнеров, их сети, тома для хранения данных. Одна команда — и всё поднимается автоматически в нужном порядке.

Но до этого вас ждёт ещё пара ответвлений в дереве развития навыков.

Podman как альтернатива Docker. Со временем вы узнаёте, что Docker — не единственный вариант. Podman, например, не висит постоянно в памяти. Можно даже сделать алиас, alias docker=podman, и забыть, что у вас на самом деле не Docker.

Podman хорош для простого докерного опыта, но если нужен Docker Compose — это фича исключительно докеровская (хотя последние Podman уже поддерживает Docker Compose через плагины).

По мере того как вы и ваш проект растёте, вы начинаете задумываться об оркестрации.

Продвинутый этап: мультихостовые решения и CI/CD
Когда контейнеры на одной машине уже не справляются, вы смотрите в сторону кластеров и автоматизации.

Самое главное — контейнеры упрощают CI/CD. До контейнеров CI/CD был про скрипты, которые что-то собирают, тестируют и куда-то выкладывают. Контейнеры всё упростили: среда сборки такая же, как среда запуска. Куча головных болей с зависимостями просто исчезла.

CI-системы могут собирать контейнеры в чистой среде, гарантируя, что никакой левый код не попадёт в продакшн. Вы просто пушите изменения в репозиторий, а CI автоматически собирает новый образ. Дальше CD раскатывает его по разным окружениям.

Это управление образами и их версиями. Для каждой версии вашего кода создаётся отдельная версия образа. Хотите откатиться? Просто укажите предыдущую версию. Никаких сложных процедур отката.

Docker Swarm обычно выступает как первая попытка оркестрации. Docker Swarm кажется логичным продолжением Docker — всё-таки от тех же разработчиков.

Вы в нём пытаетесь что-то сделать, плюётесь и думаете: «Хорошо, видимо, судьба ведёт в Кубер».

И в этот момент контейнеры ломают вас об колено.
Установить «настоящий» Кубер (тот, что в репозитории github.com/kubernetes/kubernetes) ужасно сложно. Тут возникает развилка: либо пользоваться облачными Managed Kubernetes, либо использовать упрощённые дистрибутивы вроде k3s, k0s, Minikube или Kind.

Дело в том, что в k8s вообще другой подход к тому, что кажется логичным. Он очень дружелюбен. В основном, как кажется поначалу, к шизофреникам. Но по мере того, как вы научитесь думать контейнерами, всё станет очень логичным и понятным. Возможно.

В Kubernetes базовая единица — не контейнер, а pod. Это такая абстракция, в которой может жить несколько контейнеров. Обычно требуется больше одного дня, чтобы врубиться, что же это такое. Вместе с этим меняется представление о контейнерах, ведь теперь у них появляются роли (init container, side-car container).

Kubernetes автоматически делает то, о чём ты раньше мог только мечтать: если приложение падает, оно автоматически перезапускается; если нагрузка растёт, оно автоматически масштабируется; если нода выходит из строя, рабочие нагрузки перераспределяются. Ну, то есть после настройки кучи всего, конечно. Например, для автомасштабирования понадобится Horizontal Pod Autoscaler и включённые метрики.

Ещё есть манифесты и Helm-чарты. В Kubernetes всё описывается в виде YAML-манифестов. В манифесте описывается желаемое состояние системы и Кубер сам заботится о поддержании этого состояния. Это как инфраструктура-как-код, но для контейнеров. Helm-чарты позволяют упаковать несколько манифестов в один установочный пакет и использовать шаблонизацию.

И ещё бывает автоматическое обновление без простоев. Kubernetes умеет обновлять приложения по принципу rolling update: постепенно заменяет старые поды новыми, поддерживая доступность сервиса. Пользователи даже не заметят, что произошло обновление.

Дальше надо понять базовые принципы сетевого взаимодействия контейнеров:
  • TCP/IP и Linux bridge. Контейнеры общаются через обычную сеть. В пределах одной машины это виртуализированная сеть через Linux bridge. Создаётся виртуальный адаптер, крепится к контейнеру, появляется интерфейс с IP-адресом. К этой же виртуальной сети подключаются другие контейнеры.
  • Виртуальные сети между контейнерами. С Docker Compose можно создать несколько разных сетей и ограничить общение контейнеров друг с другом. Это как виртуальные VLAN в мире контейнеров. Ручками тоже можно, но с Docker Compose — проще.
  • Ingress и маршрутизация трафика. Ingress в Kubernetes — это способ маршрутизировать внешний трафик к сервисам внутри кластера. Если ставить Кубер на голом железе (или в виртуалках на голом железе), то на этом месте можно сломать голову и любой новичок гарантированно забуксует. Без возможности выставить сервис наружу Кубер превращается в чемодан без ручки дом без окон и дверей — все системы прекрасно работают внутри него, общаются между собой, но достучаться к ним снаружи кластера невозможно. Сейчас рекомендуется переходить с Ingress на Gateway API. Совет — не делайте этого, не освоив Ingress. И ни в коем случае не ставьте сразу Kong (он хорош, но о-о-о-чень сложен для начала).
  • Балансировка нагрузки. Kubernetes умеет распределять запросы между несколькими репликами приложения. Managed Kubernetes обычно использует LoadBalancer от провайдера. Если ставить Кубер на своём железе — можно попробовать MetalLB — проект специально сделан, чтобы дать функционал LoadBalancer там, где он не предусмотрен по дизайну. Без балансировки между инстансами ничего не получится, иначе вы опять будете реплицировать монолит. Монолит, кстати, тоже можно разворачивать через контейнеры, но обычно смысл в другом.
  • Инструменты визуализации (Hubble для Cilium). Kubernetes умеет дружить со множеством различных реализаций контейнеров, сетей и хранилищ. Делается это за счёт интерфейсов. Так вот для сетей есть Cilium, а для Cilium есть Hubble — визуальный интерфейс. Можно буквально увидеть, как взаимодействуют компоненты, куда идёт трафик. Это одна из самых частых проблем — нужно держать в голове карту взаимодействия, и это решение помогает быстрее освоиться.

Грабли, которые вы соберёте
В этом месте, если вы научитеcь оркестрировать, возникнет следующий уровень сложности — ИБ. Она, как и везде, ошибок не прощает.

Настройка портов и их экспозиция. Даже Senior-разработчики, бывает, путаются в настройке портов: что такое publish, expose, когда использовать ClusteIP, а когда NodePort. Это нормально — все через это проходят. Каждый раз, когда вы открываете порт наружу, вы создаёте потенциальную дыру в безопасности.

Второе правило контейнерного клуба: не запускайте всё от рута. Контейнеры изолированы не так хорошо, как виртуалки, поэтому использование непривилегированных пользователей критически важно.

Контейнеру не нужны все права в мире. Дайте ему только то, что ему действительно необходимо для работы. Используйте seccomp, AppArmor или SELinux для дополнительных ограничений. Если Junior-разработчик предлагает запустить контейнер с флагом --privileged, это повод для серьёзного разговора (или увольнения, в зависимости от обстоятельств).

Уделите время освоению модели RBAC и практикам её использования в Kubernetes.

Никогда не хардкодьте пароли и ключи в образ контейнера. В Docker есть Docker Secrets, в Kubernetes — Secrets API. Используйте их вместо переменных окружения с чувствительными данными. Это важно, когда вы начнёте раскатывать что-то за пределы одного проекта.

Ну и контейнеры должны знать, как обращаться друг к другу. В простом случае это имя контейнера, в Kubernetes — сервис с DNS-именем.

Заражённые контейнеры тоже бывают. Образы контейнеров, как и любой код, могут содержать уязвимости. Да и атаки на цепочки поставки никто не отменял. Используйте инструменты вроде Trivy или Clair для проверки образов перед деплоем.

Ну и не наступайте на грабли с лицензиями. В мире контейнеров доминирует открытое ПО. Postgres вместо Oracle, Nginx вместо IIS. Это не только дешевле, но и удобнее упаковывается. Если у софта всё же есть коммерческая версия, то чаще всего она подразумевает поддержку от разработчика и дополнительный функционал. Обычно в мире open-source софт лицензируется по фичам, а не по ресурсам. Вы покупаете энтерпрайз-версию, а как её масштабировать — ваше дело.

Зачем всё это?
Современные LLM генерируют не просто куски кода, а целые приложения. И идеальный способ их запустить — контейнеры. Sonnet 3.7 уже настолько круто кодит, что многие компании смогли увеличить производительность в разы.

Вы описываете словами, что хотите получить, и нейронка генерирует готовый код. Дальше дело за малым — упаковать его в контейнер и запустить. Этот процесс становится таким же простым, как отправка письма. Кстати, уже есть люди, которые не умеют в электронную почту )

Ну и сейчас у каждого уважающего себя облачного провайдера есть управляемый Kubernetes. Вам не нужно возиться с установкой и настройкой — просто выбираете количество нод и через несколько минут кластер готов к работе. Но есть нюансы.

Решения для запуска приложений в контейнерах часто бывают и serverless, там основная единица — это контейнер, а не ноды кластера.

Яндекс, например, предлагает сервис, где контейнер запускается только на время вызова. Происходит HTTP-запрос, запускается контейнер, отрабатывает и умирает.

У нас в L1veStack подход, скорее — замена виртуалок. Serverless containers. Это логическое развитие контейнеризации: вы не думаете о серверах вообще. Есть контейнер, он запускается и работает пока вы его не остановите, и тарификация только за потреблённые ресурсы во время его работы. Наши контейнеры рассчитаны на долгую жизнь, но никто не мешает вам убить полстада и запустить заново. И повторить через 5 секунд.

Как учиться
Отличный первый проект для освоения контейнеризации — простой чат-бот. Он включает и фронтенд, и бэкенд, и базу данных — всё, что нужно для понимания взаимодействия контейнеров. Вот у нас пример. Там ещё и простой CI/CD на базе GitHub Actions, который собирает образ при каждом новом коммите.

Начните с запуска отдельных контейнеров, потом объедините их с Docker Compose, затем перенесите в Kubernetes. Это естественный путь освоения технологии.

Сейчас есть множество готовых Docker Compose файлов для популярных стеков. Хотите WordPress? Есть готовый рецепт. Хотите LowCode-платформу? Есть готовый рецепт. Нужна CRM-система? Есть готовый рецепт. Не изобретайте велосипед, используйте готовые решения.

Проиграйте failsafe-сценарии. Запустите несколько реплик, сымитируйте падение одной из них, посмотрите, как система восстанавливается. Это бесценный опыт, потому что он учит думать именно в философии контейнеров.

Грейды примерно такие:
  • Junior: базовые знания Docker, умение запускать и останавливать контейнеры.
  • Middle: сборка своих образов, Docker Compose, CI/CD с контейнерами, основы Kubernetes.
  • Senior: глубокое понимание Kubernetes, настройка производительности, мониторинг.

Если говорить про администрирование, то джуны ломаются на Ingress и выставлении портов наружу. Мидлы поломаются на Gateweay API и настройке Auto Provisioning для persistent volumes — как настроить систему, чтобы она автоматически выделяла дисковое пространство, например в Ceph. Даже некоторые сеньоры спотыкаются на сетевых тонкостях Kubernetes.

Контейнеризация нужна везде: от стартапов до корпораций. Но особенно востребованы специалисты в компаниях, которым нужно быстро и часто деплоить обновления. В 2025 году умение работать с контейнерами — это уже не преимущество, а базовый навык. Не важно, кто вы — разработчик, администратор или CTO, вам нужно понимать, как работают контейнеры и зачем они нужны.

Нейронки сделали возможным выкатывать Proof-of-Concept целых систем за дни, а MVP — за недели. Скорость Time-to-Market решает в этой гонке, и её не повысить без инструментов автоматизации сборки и деплоя. И Kubernetes тут как нельзя в тему.

Если вы освоили всю стопку технологий и умеете их применять на практике (и не просто применять, а устанавливать и правильно настраивать), вы — мега-DevOps с зарплатой от 500к и выше. И спрос на таких специалистов только растёт.

Начать можно с официальной документации Docker и Kubernetes. Для углубления знаний рекомендую «Kubernetes в действии» и Docker: Up & Running. Есть даже отдельная книга «Kubernetes и сети» — для тех, кто хочет разобраться в сетевом взаимодействии.

Лучший способ учиться — делать. Пройдите интерактивные курсы на Katacoda или Play with Docker. Устройте себе хакатон выходного дня — запакуйте своё приложение в контейнер и запустите его в Kubernetes.

Почитайте Open Container Initiative.

Покурите service mesh решения (Istio, Envoy), которые важны при работе с микросервисами.

Разберитесь со StatefulSets (хранение состояния в контейнерах) — если не сломаете голову до этого.

На сладкое оставьте CRD и операторы (возможно, даже свои).

Подписывайтесь на телеграм-каналы DevOps-сообществ, следите за кейсами компаний, которые внедрили контейнеризацию. Вступайте в сообщества на Reddit, Stack Overflow, GitHub Discussions. Задавайте вопросы, делитесь своими находками. Контейнеризация — это живая экосистема, и лучший способ оставаться в курсе — быть её частью

h3llo.cloud
auth.h3llo.cloud/register

[Worldstream] Важное обновление: предстоящая корректировка цен



Мы пишем вам, чтобы сообщить о предстоящей корректировке цен, которая повлияет на ваши текущие пакеты выделенных серверов.
Это решение было принято после тщательного рассмотрения различных факторов, влияющих на нашу отрасль, и необходимости продолжать предоставлять вам высококачественные выделенные серверы и ИТ-решения, которые вы ожидаете от нас.

Что изменилось?
1. Общее изменение цены:
Текущая цена: € 2.142,37 /месяц
Новая цена: € 2.345,84 /месяц
Вступает в силу: Следующий платежный цикл после 13-04-2025
Подробная информация об изменении цен для каждого пакета приложена к данному электронному письму.

2. Изменения в защите от восходящих соединений и DDoS-атак
В рамках наших усилий по соответствию тенденциям рынка и предоставлению масштабируемых решений мы внесли изменения в наши услуги защиты от Uplink-атак и DDoS-атак:

Защита от DDoS-атак:
  • Раньше: 40 Гбит/с включены бесплатно
  • После: 20 Гбит/с включены бесплатно
Восходящий трафик:
  • Раньше: 100 ТБ включены бесплатно
  • После: 50 ТБ включены бесплатно

Эти изменения затронут все ваши серверные пакеты, которые в настоящее время используют эти конфигурации. Все серверные пакеты, использующие полосу пропускания 100 ТБ и/или защиту DDoS 40 Гбит/с, будут автоматически переведены на новое базовое предложение.

Такой подход позволяет нам предлагать большую гибкость и индивидуальные варианты для удовлетворения различных потребностей. Если вам требуется обширное покрытие, дополнительные опции доступны для покупки, связавшись с нашей службой поддержки: support@worldstream.com

Почему необходима эта корректировка?
К такому решению привели несколько ключевых факторов:
  • Увеличение операционных расходов: За последний год мы столкнулись с заметным ростом расходов, связанных с работой центра обработки данных, потреблением энергии и закупкой оборудования. Несмотря на эти растущие расходы, мы сохранили вашу цену на услуги стабильной и не привели ее в соответствие с недавними корректировками, отраженными на нашем веб-сайте.
  • Продолжение инвестиций в высококачественное обслуживание: эти изменения отражают нашу приверженность предоставлению высококачественной ИТ-инфраструктуры в сочетании с исключительной поддержкой, а также гарантируют, что мы сможем продолжать инвестировать в новейшие технологии, усиленные меры безопасности и улучшенные структуры поддержки.
  • Расширенные предложения услуг: Мы постоянно модернизируем нашу инфраструктуру, чтобы предложить вам более быстрые, безопасные и надежные услуги. Это включает инвестиции в новое оборудование, протоколы безопасности и системы поддержки.

Что это значит для вас?
Нет необходимости в каких-либо действиях с вашей стороны, если вы не хотите повторно запрашивать дополнительное покрытие DDoS и Uplink. Ваша подписка и услуги будут продолжаться как обычно, а новые цены будут автоматически применены к вашим будущим счетам. Наша цель — сделать этот переход максимально плавным для вас.

Реновация пола в центре обработки данных NLDW2
После тщательного рассмотрения мы решили обновить наш этаж дата-центра NLDW2, чтобы сохранить наши стандарты качества A+, которых ожидают наши клиенты. Чтобы поддерживать высочайший уровень обслуживания и стабильности для наших клиентов, все серверы будут перемещены на другие этажи дата-центра в Worldstream.

Мы понимаем, что это может вызвать некоторые неудобства, поэтому предлагаем вам эксклюзивный компенсационный пакет, если вы воспользуетесь нашей бесплатной услугой миграции:
  • Скидка 5% на ежемесячную стоимость сервера
  • Бесплатное обновление до более мощного сервера с более мощным процессором и бесплатным доступом к удаленному управлению
  • Переезд в центр обработки данных класса А+ с высочайшими гарантиями качества и надежности

Список серверов, на которые распространяется данное предложение, приведен в приложенном файле Excel, в котором подробно описаны технические характеристики обновленного сервера, ЦП, удаленный доступ к управлению и цены.

Миграция включает в себя следующие этапы:
  • Если вы согласны с условиями, сообщите нам предпочитаемый вами график миграции.
  • Выберите, позволите ли вы нам физически переместить ваши устройства хранения данных или выберите цифровую миграцию, запустив два сервера одновременно в течение двух недель.
  • Ваш(и) IP-адрес(а) будут скорректированы в ходе процесса миграции. Если вы хотите воспользоваться физическим перемещением, нам потребуется доступ к вашему серверу для обновления данных IP.

Мы понимаем, что повышение цен никогда не является приятной новостью, и хотим заверить вас, что эта корректировка необходима для поддержания качества обслуживания, необходимого для вашего бизнеса.

Если у вас возникнут какие-либо вопросы относительно этих изменений, мы готовы ответить на любые вопросы или рассмотреть пути дальнейшей оптимизации ваших услуг.
Met vriendelijke groet / С уважением,
Команда Worldstream

Париж открыт к предзаказам



Все как обычно, оплачиваете покупку своих серверов, любых каких хотите.
Устанавливаем, выдаем. Предпочтение отдаем тем кто на 15 лет пока не сгорят.
Ориентировочное время запуска — лето 2025

Писать тикет пока что тут bill.yacolo.net/billmgr
В будущем будет bill.fuckthem.cloud/billmgr

Продуктовый дайджест




Улучшения в модуле “Карта ЦОД”
Мы переработали модуль “Карта ЦОД”, а именно:
  • Оптимизировали производительность.
  • Улучшили варианты отображения слоев объектов.
  • Добавили учет размеров стоек и других сущностей.
  • Добавили учет координат как в сантиметрах/метрах, так и в плитках фальшпола.
  • Улучшили отрисовку помещений, дверей и фальшстен/перегородок.
  • Добавили отображение кабельных лотков и кабельных трасс.
  • Сделали групповые операции со стойками, стенами, лотками и прочими сущностями.
  • Внесли улучшения для дальнейшей модернизации “Карты ЦОД” и добавления учета новых параметров и слоев, находящихся в разработке.

www.ispsystem.ru/docs/dcimanager-admin/moduli/modul-karta-tsod


Бонусная программа
Теперь BILLmanager позволяет создавать и настраивать бонусную программу лояльности пользователей в настройках провайдера.
Провайдер может настраивать бонусную программу:
  • Задавать наименование программы лояльности.
  • Задавать наименование и иконку для бонусов.
  • Настраивать период действия бонусной программы.
  • Создавать и изменять правила бонусной программы с учётом тарифов и групп тарифов.
  • Подключать обязательное получение согласия от клиентов на участие в программе.
Клиент в Личном кабинете может видеть состояние своего бонусного счёта, в том числе начисления бонусов, списания бонусов, периоды активации. Также при заказе клиент будет видеть, сколько бонусов ему начислит провайдер за приобретение того или иного тарифа.
www.ispsystem.ru/docs/bc/marketing/bonusnaya-programma/nastrojka-bonusnoj-programmy

Yandex SmartCaptcha
Мы добавили дополнительный сервис для верификации запросов от Yandex, который поможет определить обращения реальных пользователей и заблокирует роботов.
Yandex SmartCaptcha — решение от Яндекса с возможностью выбора между стандартной и невидимой проверкой.
www.ispsystem.ru/docs/bc/nastrojki-provajdera/zashchita-ot-botov-captcha

7 марта 2025



Новые возможности
Пользовательские адреса для приложений:
Добавлена ​​возможность создания пользовательских адресов для таких приложений, как phpMyAdmin и Roundcube.

При добавлении пользовательского адреса вы также можете сразу включить HTTP-аутентификацию для повышения безопасности.

fastpanel.direct

CTF-турнир от Selectel



С 17 по 21 марта проведем онлайн-соревнование по кибербезопасности. Участникам нужно искать и захватывать «флаги» — секретные строки на веб-страницах. Регистрируйтесь, чтобы принять участие и выиграть призы.


promo.selectel.ru/slcctf






CTF, или Capture the Flag, — это соревнования по ИБ, где участникам нужно искать и захватывать «флаги». Последние находятся на преднамеренно уязвимых страницах, в строках кода, URL-адресе и других неочевидных местах.
Задачи тренируют навыки криптографии, компьютерной криминалистики и разработки. Справятся с ними как начинающие, так и опытные специалисты.

Запустили площадку в Краснодаре. Да, она уже доступна





Помните, мы писали, что продолжаем развитие и готовы радовать наших пользователей новыми площадками? Держим слово: теперь всем клиентам RUVDS доступна опция по заказу VPS в Краснодаре. Заказать сервер уже можно на нашем сайте ruvds.com/ru-rub

Объясним выбор локации: спрос на вычислительные мощности в нашей стране серьёзно превышает востребованность площадок за рубежом. А Юг нашей страны — один из самых густонаселённых регионов, и присутствие в нём RUVDS серьёзно облегчит работу его жителям.

Вычислительные мощности расположены на базе ООО «ТелеМакс» www.hitel.ru Наша новая площадка соответствует 1-й особой категории надёжности электропитания. Если точнее, то она обладает двумя независимыми источниками электропитания и оборудована дополнительными дизельными генераторами с автоматическим запуском. Помещение, в котором расположены серверы, охлаждается с помощью сплит-систем промышленного назначения.

Теперь в нашем активе мощности в 16 дата-центрах, семь из которых находятся за рубежом: в Швейцарии, Великобритании, Германии, Турции, Нидерландах и Казахстане.

2025



Отказались от VMmanager в Латвии — 13.01.2025
Уважаемые клиенты и партнеры! Мы продолжаем миграции нашей инфраструктуры с продуктов ISPsystem на альтернативные решения и 13 января 2025 года полностью отказались от использования продуктов ISP VMmanager в Латвии.
Вся виртуализация в Риге работает на ПО Proxmox и позволяет нам более гибко подходить к процессу предоставления услуг, как с аппаратной точки зрения так и с точки зрения бизнес-логики.

Выделенные серверы в России и Латвии — 13.01.2025


Выделенные серверы HPE с фиксированными конфигурациями — 15.01.2025


Добавили Ubuntu Server 20.04 LTS — 16.01.2025

Прекращаем поддержку DNSmanager — 22.01.2025
В рамках отказа от ПО ISPsystem с 10 февраля 2025 года выводятся из коммерческой эксплуатации DNS серверы использующие ПО ISP DNSmanager:
DNS Master — dns.virtualdc.ru / dns.virtualdc.io — 212.22.77.148
NS1 Slave — ns1.virtualdc.ru / ns1.virtualdc.io — 212.22.77.149
NS2 Slave — ns2.virtualdc.ru / ns2.virtualdc.io — 212.22.75.5

Резервное копировани старого кластера виртуализации выведено из эксплуатации — 22.01.2025
В рамках отказа от ПО ISPsystem из коммерческой эксплуатации выведены серверы резервного копирования, обслуживающие кластер std-ru.virtualdc.io (cloud-ru.virtualdc.io), такие как:
kvm-backup.virtualdc.ru
kvm-backup2.virtualdc.ru
Это значит что восстановление услуг в старом кластере из резервных копий в России более не доступно.

Новый формат счета для юридических лиц и ип — 22.01.2025
Рады сообщить что с 22 января 2025 года для юридических лиц и индивидуальных предпринимателей стал доступен привычный формат российского счета. Но обо всем по порядку.
Мы начали с формы регистрации. Теперь на этапе регистрации клиента есть возможность выбора типа аккаунта, Физическое лицо или Юридическое лицо / ИП.


Размещение вашего оборудования в РФ и LV — 26.01.2025
Появилась возможность размещения собственного оборудования в России и Латвии в шкафах нашей компании.
Локация — Москва, ЦОД — Угрешская
Локация — Рига, ЦОД — TET Perses2

Улучшения, о которых вы просили! — 03.02.2025
Разобрались с оплатой банковскими картами и потерянными платежами

Упростили заказ услуги добавили возможность указывать собственные SSH ключи

Автопродление, смена платежного цикла, смена владельца услуги

Управление Frewall тепрь доступно на всех тарифах, кроме PROMO

Бекапы, снапшоты и индивидуальный план резерного копирования.


Обновили планы облачных серверов в России — 10.02.2025


Обновили планы облачных серверов в Латвии — 12.02.2025


Облачные серверы на процессорах Intel Xeon Gold доступны в России — 08.03.2025
Облачные серверы Xeon Gold, помимо современного железа также, имеют возможность использовать канал сети Internet на скорости до 10Gbps.


vdc.ru