Рег.ру выводит на рынок новый почтовый сервис для МСП без IT-специалистов



Новое решение «Почта под ключ» призвано решить проблему нехватки технических компетенций в малом бизнесе и упростить цифровизацию деловых коммуникаций.

Российская технологическая компания Рег.ру запустила новый сервис «Почта под ключ» для малого и среднего бизнеса. Решение позволяет предпринимателям в короткие сроки развернуть корпоративную почту с индивидуальными настройками, не обладая глубокими техническими знаниями. Запуск связан с активной фазой цифровизации МСП и ростом интереса к интеграции почтовых сервисов с другими бизнес-инструментами.
www.reg.ru/solutions/product/pochta-pod-kluch

По данным Рег.ру, за год интеграция корпоративной почты с CRM-системами, календарями и облачными хранилищами выросла на 30%. Малый и средний бизнес стремится выстроить единую экосистему коммуникаций, подключая до 100 почтовых ящиков на одну компанию.

Новый сервис ориентирован на предпринимателей, которые ранее избегали самостоятельного развертывания почты из-за технической сложности. Пользователи «Почты под ключ» получают готовую к работе почту на собственном домене с переносом данных, возможностью подключения до двух доменов в зонах .ru и.рф, а также с базовой защитой (антиспам, антивирус, SSL-сертификаты и резервное копирование).

Спрос на подобные услуги высок: по статистике Рег.ру, три из четырех (75%) представителей МСП уже используют корпоративную почту в российских доменных зонах .ru и.рф. Наибольшая активность наблюдается в розничной и оптовой торговле (45%), сфере услуг (28%) и производстве (17%).

«Решения “под ключ” упрощают предпринимателям первые шаги в онлайн-пространство. Для сегмента МСП это особенно актуально — у многих компаний нет в штате IT-специалиста, а скорость и надежность цифровых каналов связи напрямую влияют на эффективность бизнеса», — прокомментировал Иван Грибов, директор по развитию продуктов для предпринимателей Рег.решения.

Решение «Почта под ключ» стала частью линейки простых онлайн-сервисов «Рег.решения», которая объединяет более 140 продуктов и услуг, подобранных экспертами под конкретные задачи малого бизнеса. Платформа также включает партнерские сервисы и образовательные материалы для предпринимателей.

RUVDS ввёл в работу серверные мощности в Башкирии



Хостинг-провайдер VPS серверов RUVDS начал предоставлять услуги виртуального хостинга в Республике Башкортостан. Оборудование введено в строй в дата-центре «Уфанет» в Уфе и уже доступно пользователям.

Это наша 13-я локация в России и 20-я, юбилейная, если учитывать и зарубежные площадки. Регион динамично развивается: в Республике сосредоточено огромное количество вычислительных мощностей – она входит в число лидеров в масштабах страны. Наше присутствие обусловлено концепцией планомерного масштабирования RUVDS и призвано как удовлетворить текущий спрос, так и сформировать задел для дальнейшего роста в рамках региона. А это и увеличение вычислительной мощности, и новые возможности для местного бизнеса, и удобство для наших клиентов, заинтересованных в работе в этом регионе
отметил генеральный директор RUVDS Никита Цаплин.

В дата-центре, в котором введено в строй оборудование хостинг-провайдера, реализована двухлучевая схема бесперебойного энергоснабжения, резервируемая ДГУ СКВ ЦОД, состоящей из мультизональной системы, сплит-кондиционеров и прямого фрикулинга. Резервирование обеспечивается дизель-генераторами мощностью 250 кВт, организовано автоматическое переключение между двумя независимыми электрическими вводами в ЦОД. Объект оснащён современными системами безопасности, в том числе системой круглосуточного видеонаблюдения, а также автоматической системой газового пожаротушения.

Ввод в строй новых мощностей и расширение географии работы лежат в основе стратегического видения RUVDS. Только в 2025 году компания запустила локации в Краснодаре, Омске, Мурманске и Ереване, а также модернизировала собственный дата-центр в подмосковном Королёве.

ruvds.com/ru/

Превращение в «жука»: эволюция IT-оборудования в дата-центрах Яндекса

Меня зовут Владимир Аксёнов, я работаю в Yandex Infrastructure и руковожу IT‑поддержкой в том самом дата‑центре Яндекса, который стал первой площадкой в собственности компании. Это определило его судьбу первопроходца: именно здесь мы тестируем множество технологий, которые затем распространяются на другие дата‑центры.

За 13 лет на этой площадке мы наблюдали радикальные изменения форм‑фактора сетевого и серверного оборудования, что повлекло за собой серьёзные метаморфозы во всём дата‑центре. Мы прошли путь от стандартной 19-дюймовой стойки до четвёртого поколения стоек собственного дизайна, а от холодных коридоров с доохлаждением — пришли к энергоэффективному фрикулингу.

В этой статье покажу, как за это время поменялось IT‑оборудование, как это повлияло на облик дата‑центров, и что интересного ждём в наших дата‑центрах в 2026 году.

2012: построили свой дата-центр!


Наша первая собственная площадка была построена в бывших помещениях станкостроительного завода. На тот момент это было оптимальное решение: есть надёжный источник питания, который даст электричество в нужном количестве, есть подвод природного газа, а в просторных помещениях можно строить машинные залы круглый год, невзирая на погодные условия.

Сначала здесь появился минимальный набор IT‑инфраструктуры для запуска: NOC‑room и два первых кластера. Туда мы устанавливали оборудование, которое зарекомендовало себя и на предыдущих площадках: серверы и дисковые полки в стойки 19".

Чтобы поддерживать нужную температуру в кластерах, было необходимо охлаждение. С инженерной точки зрения, существующая на тот момент схема кондиционирования использовала доохлаждение — для получения холода требовалась дополнительная энергия. Поэтому был запущен Центр холодоснабжения с абсорбционными холодильными машинами:


Нагретый серверами воздух удалялся из каждой стойки по индивидуальным вентканалам. Стойка была скорее частью инженерной системы.

Наши масштабы росли всё быстрее, и нам было нужно всё больше таких стоек с серверами. Деплой каждой требовал времени:
  • Каждый сервер вынуть из коробки.
  • Снять упаковочные материалы.
  • В стойку установить 360+ сухарей/собачек.

  • Накрутить 94 салазки.
  • Установить 47 серверов.
  • Распаковать и скоммутировать сеть управления, сеть передачи данных, подключить кабели питания.


На каждую стойку уходило примерно 1,5–2 человекодня… Мы стали думать, как сократить это время.

2013: первые стоечные решения
В следующем году запустился новый модуль с разделением на горячий и холодный коридор, где можно было ставить не только стандартные стойки 19", но и стоечные решения по стандарту The Open Rack.


Это стойка, в которой серверы не имеют собственного активного охлаждения и блоков питания, а подключены к централизованной системе: всё подключение к питанию предусмотрено в задней части с помощью специальной шины питания — тогда она была на 12 В. Охлаждение тоже интегрированное.


Самое главное — такие решения можно доставить в дата‑центр уже в собранном виде. Некоторые модели приезжали даже с коммутацией, и это был настоящий прорыв. Первые подобные стойки мы заказали у сторонних производителей, а затем наладили своё производство с опорой на стандарты Open Compute Project Foundation (OCP) и стали устанавливать стоечные решения, разработанные Яндексом.

2017: переход на фрикулинг
Следующие годы были посвящены повышению эффективности работы всей системы. Инженеры дата‑центра тестировали фрикулинг — систему, где всё оборудование охлаждается исключительно уличным воздухом. В плане инженерной инфраструктуры это также было прорывное решение, которое обещало серьёзную экономию ресурсов, так что мы использовали его при проектировании и строительстве новых модулей в нашем дата‑центре.


Суть фрикулинга в том, что в холодный коридор поступает воздух БЕЗ доохлаждения: летом — это уличный воздух, а зимой используется уличный воздух с подмесом нагретого воздуха из горячего коридора, чтобы довести минусовую температуру до комфортных 20 градусов. Такое решение позволило отказаться от использования громоздких, сложных в эксплуатации холодильных машин.

На Хабре уже было несколько статей о разных системах охлаждения дата‑центров, поэтому лишь вкратце напомню, как именно в случае фрикулинга поддерживается нужная температура:


  • В приточной установке установлены фильтры грубой и тонкой очистки.
  • В холодном коридоре поддерживается положительное давление, в горячем — отрицательное.
  • Сам расход холодного воздуха определяется потребностью стоек.

С точки зрения IT‑поддержки важно, что отказ от доохлаждения помогает улучшить PUE (Power Usage Effectiveness) — коэффициент, отражающий эффективность использования энергии в дата‑центре. При использовании доохлаждения PUE находился в районе 1,5, а без него — держится на отметке 1,1, а иногда и меньше. Это значит, что только 10% от всего потребления дата‑центра уходит не на IT‑нужды.

К тому моменту мы уже разработали стоечные решения, которые умели работать при температурах до +40 градусов. Поскольку все наши дата‑центры находятся в средней полосе России, такая температура — скорее аномалия. Но периодически кратковременные периоды жары всё же случаются, и было важно убедиться, что система справится.

Поэтому даже стойки OCP первого и второго поколения подвергались самым разным испытаниям в нашей термолаборатории, и показали хорошую работоспособность при высоких температурах. А следующие поколения стоек нашей разработки изначально проектировались для нормальной работы в таких условиях. Это делало систему ещё эффективнее, так как доохлаждать было не нужно.

2017: новый дата-центр с новыми подходами


В том же году запустился новый дата‑центр во Владимире, который изначально был спроектирован под фрикулинг и построен с нулевого цикла — такие строительные работы включали целый комплекс подготовительных мер, например, создание фундамента, прокладку необходимых коммуникаций и так далее. Если в старом дата‑центре для строительства кластера на фрикулинге в бывшем заводском помещении понадобилось убирать старые полы и заливать новые, чтобы разместить инженерное оборудование по высоте, то здесь эти моменты учли ещё на старте строительства. Заодно избавились от проблемы строительной пыли, которая неизбежно появлялась при модернизации старого здания.

Новый дата‑центр спроектировали как четыре отдельных помещения с сетевой связностью между ними. Строили его по мере роста масштабов: как только начинало заполняться первое здание — вводилось в эксплуатацию следующее. Так мы могли избежать простаивающих помещений. Строительной пыли тоже стало меньше.

Но со временем стало понятно, что нам не очень удобно перемещаться по улице между отдельными зданиями, а тем более транспортировать стойки из здания в здание.

2022: проектирование «жука»
Учитывая весь накопленный опыт эксплуатации, новую площадку мы задумали как возможность объединить всё лучшее из существующих дата‑центров, а также избежать тех неудобств, которые возникли со временем. Так появился новый проект дата‑центров:
  • с фрикулингом;
  • с безразрывной крышей, как в первом дата-центре;
  • с помещениями машинных залов, которые отделены друг от друга дверями.

Сверху на плане выглядело так: в центре складские помещения и офис, а в стороны расходятся четыре помещения для строительства кластеров. Было похоже на насекомое, поэтому мы прозвали этот проект «жук».


В таком едином помещении нет пыли, корпуса по‑прежнему можно вводить в эксплуатацию по мере заполнения, но поскольку они расположены близко, то перемещение в любую погоду комфортное, а переезд IT‑оборудования между модулями проходит беспрепятственно.

В недавно прошедший день работников дата‑центров мы даже заказали торт, вдохновлённый этим проектом:


2025: жизнь первых дата-центров
Ввод новых площадок в эксплуатацию не означает, что мы забываем про прежние дата‑центры.

К настоящему моменту в серверных стойках мы перешли уже к четвёртому поколению серверов, и для них требуется совсем другая инфраструктура, чем было 10–12 лет назад:


Сервер 4.0 предусматривает:
  • более эффективное охлаждение на 10–15%;
  • питание 48 В на сервер (ноду);
  • вместо четырёх NVMe‑дисков теперь шесть, и есть возможность установки двух дисков M2;
  • возможность установки GPU.

Само стоечное решение выглядит уже так:


С 2023 года мы ведём работы по модернизации старой части нашей первой площадки.

Это позволяет полностью отказаться от доохлаждения и демонтировать оставшееся холодильное оборудование, которое не позволяло установить в старые модули современные устройства.

2026: что будет дальше?


Дата‑центры будущего уже рядом с нами, и вот как они выглядят для нас сейчас:
  • современное помещение, которое сочетает удобство и надёжность;
  • возможность запускать площадку даже с одним модулем и достраивать остальные по мере необходимости;
  • экономичное расходование энергии с PUE не более 1,1;
  • стойки приезжают в дата‑центр в сборе и отправляются в тестирование через 30–40 минут с момента разгрузки фуры.

Уже можно представить, как это будет развиваться дальше:
  • Виден рост потребностей в мощностях для ML‑задач, которые потребляют много электроэнергии. Поэтому площадки будут заполняться очень быстро.
  • Если первые кластеры потребляли киловатты, а существующие якорные дата‑центры — 40–60 МВт, то площадки ближайшего будущего проектируется уже с мощностью 120 и более МВт.
  • Масштабироваться мы и дальше будем площадками, и это будет несколько обособленных сооружений в непосредственной близости, например, как наш «жук».
  • Постоянно увеличивающийся TDP чипов обязывает постепенно переходить к системам жидкостного охлаждения, как в инженерных системах дата‑центров, так и внутри серверов.



Иногда я спрашиваю коллег, работающих в дата‑центре, как они видят будущее нашей площадки. Многие отвечают, что чинить серверы будут роботы (а сотрудники IT‑поддержки, по‑видимому, будут чинить роботов). Но с точки зрения эксплуатации это не так уж далеко от истины. В идеале хочется, чтобы это выглядело так:
  • прихожу в дата‑центр, иду в офис;
  • умная колонка меня приветствует и рассказывает про запланированные на день задачи в формате саммари, докладывает об уровне SLA и каких‑либо изменениях;
  • по цеху ходят сотрудники службы контроля качества в очках дополненной реальности, на которых видны необходимые операции с оборудованием;
  • роботы‑доставщики вокруг развозят компоненты на склад и со склада до места проведения работ;
  • в офисе сидят IT‑специалисты, которые выполняют сложную диагностику, давая задачи AI‑ассистентам.

Пока часть из этого ещё не сбылось, но многие из технологий мы уже тестируем. Так что поживём‑увидим!

yandex.cloud/ru

У нас изменились реквизиты



С 6 октября 2025 г. изменился юридический адрес, КПП и ОКАТО

Новый юридический адрес: 127254, г. Москва, вн.тер.г. Муниципальный округ Бутырский, проезд Огородный, д.16/1, стр. 5, помещение 605

Новый КПП: 771501001
Новый ОКАТО: 45280561000

Все остальные реквизиты прежние

Сертификат GlobalSign AlphaSSL за 950 ₽


Приобретайте SSL-сертификат от GlobalSign по специальной цене!

❗️ Преимущества сертификата GlobalSign AlphaSSL:

— Полностью защищенное соединение HTTPS, повышение доверия пользователей.
— Поддержка всех современных браузеров и устройств.
— Простота установки и настройка под ключ.

❗️ Акция действует ограниченное время для владельцев любых активных виртуальных серверов (кроме промо и заказав посуточно).

Сертификаты регистрируются сроком на один год.
Акция не распространяется на продление сертификатов.
В рамках акции стоимость регистрации сертификата составляет 950 ₽.
Каждому клиенту по сниженной цене может быть зарегистрировано не более 1 (одного) сертификата. Все последующие регистрации будут производиться по стандартной цене.

Сайт: elenahost.ru
Личный кабинет: billing.elenahost.ru

Решите сегодня, сколько вы будете платить за сервер завтра



Сегодня финальный день для заказа выделенных серверов со скидкой 30%.

До 23:59 по мск вы можете:
  • зафиксировать цену на 1, 3, 6 или 12 месяцев вперед,
  • получить дополнительно специальную цену за период,
  • увеличить производительность сохранив бюджета.
Примеры конфигураций:


1dedic.ru

Ребрендинг



Здравствуйте!
У нас важная новость — компания IT4ALL меняет название.
Теперь мы — Zepher.

Мы остаёмся той же командой специалистов, с теми же ценностями и качеством сервиса, но под новым именем и с обновлённым визуальным образом.

Что изменится:
Новое имя: Zepher

В ближайшее время заработает наш новый сайт — zepher.ru
Почтовые сообщения будут приходить с домена @zepher.ru

До конца года будет продолжать работать прежний домен it4all.ru

В переходный период вы можете видеть два логотипа — IT4ALL и Zepher. Это нормально: они будут использоваться совместно, пока процесс обновления завершится.

Никаких действий с вашей стороны не требуется — все наши контакты и договорные обязательства остаются в силе.

Почему мы проводим ребрендинг: it4all.ru/rebranding/

Мы приняли решение о ребрендинге и смене названия IT4ALL на Zepher.
Это решение связано с необходимостью избежать юридических разногласий, возникших из-за совпадения нашего названия с зарегистрированным товарным знаком другой компании.

Мы работаем под брендом IT4ALL с 2018 года и продолжаем придерживаться тех же принципов и стандартов качества. Однако, чтобы не создавать правовых рисков и обеспечить стабильность проекта, мы решили перейти на новое имя — Zepher, под которым будем развиваться дальше.

Все наши сервисы и команда остаются прежними.
Меняется только название — и появляются новые возможности.

Спасибо, что вы с нами!

Команда Zepher (ранее IT4ALL)

Искусственный интеллект — быстрые и понятные ответы на все!



Привет! Мы добавили новую функцию для всех наших клиентов: теперь вы можете выбрать «GPT Assistant» при создании запроса в личном кабинете и получить ответ от последней версии ChatGPT. Доступно круглосуточно и совершенно бесплатно.

Это значительно снизит нагрузку на нашу службу поддержки, повысит скорость ответа на запросы которые не способен решить GPT, а наши клиенты смогут воспользоваться совершенно новой функцией, которая позволяет решать широкий спектр задач в режиме реального времени на любом языке.

Уже доступно для всех, попробуйте сами — my.h2.nexus

Есть вопросы? Обращайтесь: @h2nexus_support

H2.NEXUS

Для вас — бонус за активность



Спасибо, что читаете наши письма

Мы тут посмотрели стату и заметили, что вы читаете все — дайджесты, письма с релизами и даже технические рассылки.

Такую вовлеченность точно нельзя оставлять без внимания. Для этого подготовили бонус — промокод LONG10, который добавит +10% к вашему следующему платежу.

Просто введите его перед оплатой на странице «Бонусы и промокоды».
timeweb.cloud/my/finances/bonuses

Промокод действует до 31 октября 2025 — успевайте воспользоваться. А мы убегаем готовить для вас новые интересные материалы.