Почувствуйте свободу от сборов за местоположение 4 июля!



В этот День независимости мы празднуем нечто особенное — четыре года поддержки бесперебойной работы ваших проектов в наших центрах обработки данных на востоке и западе США. Это четыре года соединений с низкой задержкой, надежного безотказного режима работы и приближения ваших приложений к американским пользователям.

Чтобы отметить это событие, мы приготовили кое-что получше фейерверка: в течение ограниченного времени во всех трех наших филиалах в США не взимается плата за размещение.
contabo.com/en/vps/

Ваша свобода выбора идеального места в США
Независимо от того, ориентируетесь ли вы на финансовые рынки Восточного побережья, производственные центры Среднего Запада или технологическую сферу Западного побережья, у вас есть варианты:
  • Восток США (Нью-Йорк) — идеально подходит для обслуживания северо-восточного коридора, финансовых приложений и всех, кто ищет клиентов с большим населением Восточного побережья.
  • Центральная часть США (Сент-Луис) — в самом сердце Америки, идеально подходит для приложений, обслуживающих всю континентальную часть США со сбалансированной задержкой от побережья до побережья.
  • Запад США (Сиэтл) — сверхбыстрое соединение с Тихоокеанским северо-западом, Калифорнией и всеми, кто строит для высокотехнологичного рынка Западного побережья.

ВПС
Ваш VPS- хостинг справится со всем: от сайтов электронной коммерции, обслуживающих трафик Черной пятницы, до сред разработки для следующего крупного стартапа.

ВДС
Экземпляры VDS предоставляют вам выделенные ресурсы для ресурсоемких приложений, таких как аналитика в реальном времени или веб-приложения с высоким трафиком.

Выделенные серверы
Для обеспечения максимальной производительности наши выделенные серверы обеспечивают вычислительную мощность, необходимую для рабочих нагрузок искусственного интеллекта, приложений криптовалюты или инфраструктуры хостинг-провайдера — все это оптимизировано для американских рабочих часов и моделей использования.

Четыре года американского совершенства
Когда мы запустили US East и US West в 2021 году, мы не просто добавляли локации — мы взяли на себя обязательства перед американскими компаниями и разработчиками, которым нужен был надежный и доступный хостинг без компромиссов. Четыре года спустя тысячи проектов ежедневно зависят от этих центров обработки данных.

Недавно к нам присоединилась компания US Central, которая завершила покрытие от побережья до побережья и предоставила вам идеальный промежуточный вариант для применения по всей стране.

Как и все хорошие праздники, эта сделка не будет длиться вечно. Сборы за размещение скоро вернутся, так что не ждите слишком долго, чтобы сделать свой ход.

Готовы к развертыванию там, где находятся ваши пользователи? Ваши приложения заслуживают преимущества домашнего поля.
Давайте строить больше, лучше и ближе к дому.

Ваша команда Contabo

Казалось бы, 2025 год на дворе, какие могут быть сложности с интернетом?




Казалось бы, 2025 год на дворе, какие могут быть сложности с интернетом?

А вот и могут! Нам в Александрове понадобился 10-гигабитный канал. Прикол в том, что запроса на такие скорости на рынке пока практически нет — мы, можно сказать, пионеры.

Рынок Александрова не очень требователен к скорости соединения, да. Некоторых до сих пор устраивает железнодорожный рельс. Он широкий и стабильный.

Из всех провайдеров, кого мы трясли, нашлось только два: Ростелеком и VIP-Телеком-Сервис.

Местный Трайтек вообще предлагал 100 000 ₽ за гигабит — то есть миллион в месяц за десятку. Не, спасибо.

С Ростелекомом мы начали мучения ещё в декабре. Долгие согласования, заминки на ровном месте. Например, один из затыков — отсутствие 10G-трансиверов. Серьёзно?! Это расходник, который стоит 1–2 тысячи рублей, у нас на столе таких коробок куча. Но у Ростелекома не было. Наши со стола они брать тоже не хотели.

Предложили подождать месяц-другой. В итоге договор подписали только в июне. А приведение всего в рабочее состояние займёт ещё 5 месяцев. Ну вы поняли. Ростелеком.

Параллельно работали с VIP-Телеком-Сервис. Они пришли по рекомендации и с ходу зарядили: «Мы вам построим точку на M9 и в Александрове за 20–25 дней». И знаете что? Построили!

Канал уже запущен и работает. Пока мы используем его для внутренних сервисов и тестирования, но это наш первый глоток 10G.

Почему же мы всё равно ждали Ростелеком, если VIP такие шустрые? Потому что облачный бизнес — это не про один канал. Нужны минимум два независимых! Сейчас один интернет есть (VIP), второй будет от Ростелекома. Плюс строим отдельное тёмное волокно.

В итоге будет:
— 10G от VIP.
— 10G от Ростелекома.
— Тёмное волокно наше, домашней выпечки.

Если с одним из провайдеров что-то происходит — всё не полетит к чертям.

Кстати, на «девятке» самые долгие истории — это не кабели и не документы. Это сетевые перемычки. Именно они тормозят всё сильнее всего.

h3llo.cloud/ru

Мы получили статус LIR, подсеть /29 IPv6 и встали в очередь на подсеть /24 IPv4!




Мы получили статус LIR, подсеть /29 IPv6 и встали в очередь на подсеть /24 IPv4!
www.ripe.net/membership/member-support/list-of-members/ru/h3llo-cloud/

Если что, RIPE NCC — даёт айпишники и автономные системы в Европе, Азии и России. LIR-статус — это возможность творить в своём блоке IP-адресов что угодно. Например, использовать. Раньше мы получали IP-адреса от другого LIR, то есть цепочка была чуть длиннее.

У нас уже давно (со старта) своя автономная система, и мы анонсируемся по BGP. Получить свою AS и поднять BGP-пиринг — квест недетский, но мы на старте его прошли. Теперь вот уполномочены сами выдавать AS своим клиентам.

В очереди на IPv4-блок мы под номером 954. Кажется, это никогда. Поэтому мы продолжаем закупать айпишники у поставщиков, как обычно и делается. Но фишка не в этом. Со статусом LIR мы можем покупать сети напрямую у других владельцев, а не через цепочку вышестоящих LIR. Так получается серьёзно дешевле.

/29 в IPv6 — это первые 29 бит адреса фиксированы для нашей сети. 128 — 29 — остаётся 99 бит для адресации. Если долго возводить в степень, то получится 512000 сетей /48. А сеть /48 — это 65536 сетей /64. В сети /64 целых 2^64 хостов (примерно 1.8 x 10^19). Короче, это очень дохрена. Адресов должно хватить каждому. Это нужно на достаточно большие сети для новых крупных клиентов. А они уже заезжают.

h3llo.cloud/ru

Публичное облако / Хранилище / Объектное хранилище



Мы работаем над улучшениями существующих сервисов для ускорения IOPS / BP / задержки. Мы переписали некоторые части программного обеспечения (OpenIO). Новая версия будет в 10 раз быстрее на маленьких файлах и в 3 раза быстрее на больших файлах. Мы завершаем разработку, стабилизируем и затем обновляем все наши кластеры S3.

1K — параллелизм: 600
На PoC:
Отчет: GET. Параллелизм: 300. Выполнение: 27 с
  • Среднее: 2,81 МБ/с, 2873,68 об/с
  • Требования: Среднее: 22,3 мс, 50%: 21,7 мс, 90%: 25,4 мс, 99%: 35,5 мс, Самый быстрый: 15,1 мс, Самый медленный: 1029,6 мс, StdDev: 4,4 мс
  • TTFB: Среднее: 22 мс, Лучший: 15 мс, 25-й: 20 мс, Медиана: 22 мс, 75-й: 23 мс, 90-й: 25 мс, 99-й: 35 мс, Худший: 1,03 с StdDev: 4 мс

Отчет: Всего. Параллелизм: 300. Пробег: 27 с
  • Среднее: 4,91 МБ/с, 7183,84 об/с

Пропускная способность, разделенная на 27 x 1 с:
  • Самый быстрый: 5,2 МБ/с, 7584,88 об/с
  • 50% Медиана: 5,0 МБ/с, 7238,98 об/с
  • Самый медленный: 4,4 МБ/с, 6441,92 об/с

На HighPerf (prod):
Отчет: GET. Параллелизм: 300. Выполнение: 27 с
  • Среднее: 0,32 МБ/с, 322,75 об/с
  • Требования: Среднее: 114,6 мс, 50%: 68,7 мс, 90%: 282,6 мс, 99%: 486,1 мс, Самый быстрый: 10,1 мс, Самый медленный: 1060,1 мс, StdDev: 108,4 мс
  • TTFB: Среднее: 115 мс, Лучший: 10 мс, 25-й: 43 мс, Медиана: 69 мс, 75-й: 157 мс, 90-й: 283 мс, 99-й: 486 мс, Худший: 1,06 с StdDev: 108 мс

Отчет: Всего. Параллелизм: 300. Выполнение: 28 с
  • Среднее: 0,55 МБ/с, 807,00 об/с

Пропускная способность, разделенная на 28 x 1 с:
  • Самый быстрый: 597,3 КБ/с, 849,35 об/с
  • 50% Медиана: 565,3 КБ/с, 810,10 об/с
  • Самый медленный: 507,8 КБ/с, 730,38 об/с

Как уплотнялись серверы линейки ChipCore



Мы придумали, как использовать десктопные компоненты для сервера. Рассказываем об эволюции проекта и делимся техническими подробностями.

Давным‑давно мы рассказывали про собственную разработку корпуса. С тех пор прошло немало времени, линейка серверов ChipCore значительно эволюционировала.

В прошлой статье речь шла о корпусах 1  и 1.5  ревизии. Расположение серверов на обычном складском стеллаже не позволяло полноценно охлаждать платформы. Единственный выход был — модернизация и монтаж в серверные стойки.

Несколько слов о ChipCore
При выборе оборудования для многих клиентов ключевой, а порой и решающий фактор — стоимость. Как правило, ChipCore используют для проектов ограниченным бюджетом. Яркий пример — стартапы. Они ищут наиболее экономичные варианты без потери базовой функциональности. И даже незначительная разница в стоимости становится причиной выбора. Такие заказчики тщательно анализируют прайс-листы, сравнивают предложения, ищут акции, скидки или специальные условия, чтобы минимизировать свои затраты.

Чтобы сформировать для них привлекательное предложение, приходится решать много технологических вопросов. Один из них — максимальная плотность размещения оборудования в стойках, выделенных для экономных потребителей. Также в серии Chipcore основа платформы — не серверные, а стандартные десктоп-комплекты.

Представьте, что нужно упаковать чемодан для долгой поездки или организовать пространство на крохотной кухне. Главная задача — уместить максимум полезных вещей в небольшом объеме. В дата-центрах инженеры решают схожую проблему. Здесь «пространство» — это серверные стойки, ограниченный и очень дорогой ресурс.

ChipCore 2.0: базовый уровень плотности
Основой для узлов послужили стандартные комплектующие для настольных ПК — главным образом процессоры Intel Core i5−i7 8−12 поколений. Каждый узел оснащался 32 ГБ оперативной памяти и двумя твердотельными накопителями (SSD) по 480 ГБ.

Теплораспределение потребовало своих особенностей конструкции. Блок питания (БП) разместился в передней части корпуса. Такое нестандартное расположение хорошо сказалось на воздушных потоках и улучшило охлаждение в условиях плотной компоновки.

Сервер Chipcore 2.0 в разработанном корпусе.


Следующим этапом стало создание особых стоечных конструкций. В архитектуре тогда предпочли горизонтальную компоновку и форм-фактор 2U. Ключевой особенностью стала уникальная стальная подложка, на которой размещались два независимых серверных узла, что позволяло устанавливать два сервера на одной панели столь небольшого объема.

3D-макет полки для двух серверов.



Получившаяся плотность позволяла разместить 34 платформы в обычной серверной стойке!

Сложности не заканчивались. Сказывалось отсутствие поддержки IPMI (Intelligent Platform Management Interface) — стандартного способа удаленного управления серверами. Решением стала технология IP-KVM, позволяющая легко получать доступ к каждому серверу через виртуальные консоли.
  • IP-KVM (Keyboard, Video, Mouse over IP) — это аппаратно-реализованная технология, которая захватывает сигналы устройств — таких, как видеокарты, клавиатуры, мыши, — оцифровывает их и передает по стандартной IP-сети. Так, администратор взаимодействует с сервером, как если бы он физически находился перед ним.
  • IPMI (Intelligent Platform Management Interface) — стандартный протокол для управления и мониторинга аппаратной части сервера или другого устройства, независимо от операционной системы.

KVM‑консоль в разработанном нами корпусе для удобства.


Важнейшей особенностью платформы ChipCore стала ее модульность. Появилась возможность относительно легко добавить дополнительную сетевую карту или оптический интерфейс. Серверы становились настоящими универсалами. Все проделанные изменения сделали платформу крайне привлекательной для клиентов, которым требовалась максимальная эффективность при минимальных затратах.

Монтаж сервера в стойку.


Для понимания среды, в которой работают серверы, отвлечемся на небольшое техническое описание методологии горячих и холодных коридоров. При таком подходе стойки стоят плотными рядами. Их передние панели смотрят друг на друга и образуют «холодный коридор». Задние части также обращены друг к другу и формируют «горячий коридор».

Через перфорированные плиты фальшпола или из потолочных воздуховодов охлажденный воздух подается в холодный коридор. Затем он разбирается вентиляторами систем охлаждения серверов и проходит через компоненты оборудования. Наконец, отобравший тепло воздух выбрасывается в изолированный горячий коридор. Оттуда поток возвращается к прецизионным кондиционерам для охлаждения и повторения цикла.

Основная цель данной технологии — предотвратить смешивание горячих и холодных воздушных потоков. Такое разделение резко повышает эффективность системы охлаждения, снижает энергопотребление и позволяет поддерживать более высокую плотность мощности на стойку.

Вид стойки со стороны горячего коридора.


Вид стойки с холодного коридора.


ChipCore 3.0: смена парадигмы
В процессе внедрения и эксплуатации выявился существенный недостаток: неэффективное использование внутреннего пространства стоек. Команда инженеров вновь задумалась над изменениями.

Преодоление ограничений предыдущего поколения привело не просто к модернизации, а к полному пересмотру концепции. В основу ChipCore 3.0 легла принципиально новая архитектура — с вертикальным и двусторонним размещением узлов. Серверы теперь устанавливаются стоймя — как с передней, так и с задней стороны.

Чертеж самодельного корпуса и полки.



Тепловая конструкция лучше спроектирована для работы в ЦОД с организацией «горячих» и «холодных» коридоров. Вертикальное расположение узлов и продуманная компоновка создают прямой и беспрепятственный воздушный поток через нагретые компоненты из холодного коридора в горячий. Центральное расположение БП также способствует более эффективному отводу тепла.

Сервер Chipcore 3.0 в разработанном корпусе.


Монтаж сервера в стойку.


Еще одним существенным ограничением предыдущей ревизии была невозможность поддержки процессоров с TDP выше 120 Вт, что делало платформу неконкурентоспособной для задач следующего поколения.

Для проектирования любой системы охлаждения требуется точное определение параметра TDP (Thermal Design Power). Именно такую тепловую мощность (в ваттах) система охлаждения должна рассеивать при работе под «сложной нагрузкой» на базовой тактовой частоте полупроводникового компонента.
Важно понимать, что TDP — не показатель электрического энергопотребления. Хотя эти величины связаны, фактическое энергопотребление процессора может кратковременно превышать его TDP — например, в режиме Turbo Boost. Кроме того, различные производители рассчитывают TDP по‑своему, поэтому нельзя по этому показателю сравнивать процессоры разных брендов напрямую.

Платформа ChipCore 3.0 была спроектирована таким образом, чтобы поддерживать более производительные процессоры Intel 13−15 поколений с TDP до 180 Вт, что на 50% превышает возможности ChipCore 2.0. Платформа стала хорошо подходить для ресурсоемких приложений и задач с высоким энергопотреблением.

В результате новая ревизия позволила размещать до 60 серверов в одной двусторонней стойке, что означает увеличение плотности примерно на 76% по сравнению с Chipcore 2.0.

Система питания построена на связке автоматического ввода резерва (АВР) и блоков распределения питания (PDU). Подобные блоки выглядят как ряд обычных розеток, при этом они бывают управляемые и неуправляемые. На всех стойках линейки ChipCore мы используем только первый тип, чтобы иметь возможность перезагрузить сервер при необходимости.

Автоматический ввод резерва — первая линия защиты от сбоев в электроснабжении, ключевой компонент систем высокой доступности. Его главная функция — непрерывный мониторинг основного источника питания. В случае обнаружения сбоя или отклонения параметров от номинальных происходит практически мгновенное переключение нагрузки на резервный источник — например, независимый фидер от другой подстанции или дизель-генераторная установка (ДГУ).

Для удаленного контроля по‑прежнему используется внешние IP-KVM.

Инженеры предусмотрели варианты подключения различных типов сетевых интерфейсов — от простых локальных сетей до волоконно-оптических линий связи. Кабель-менеджмент устроен таким образом, что все провода аккуратно уложены в органайзеры. Это позволяет обслужить один сервер без отключения других: достаточно отсоединить несколько кабелей, и модуль легко извлекается со всеми компонентами (см. фото выше).

В высокоплотной среде аккуратная прокладка кабелей перестает быть вопросом эстетики и становится функциональной необходимостью. Многократное увеличение количества силовых и информационных кабелей в стойке без методичного подхода быстро приводит к образованию «кабельных спагетти».

Спутанные провода блокируют прохождение воздуха, возникают «горячие точки». Также техническим специалистам требуется больше времени для трассировки и доступа к компонентам, что увеличивает операционные расходы.

Вид стойки с горячего коридора.


Вид стойки с холодного коридора.


В этой статье мы проследили увлекательную историю проектирования оригинального корпуса сервера. Разработанный нашими инженерами вариант оказался удачным. В двух традиционных стойках 21″ нашли место до 120 серверных платформ вместо прежних 72-х, которые когда‑то размещались на стеллаже.

Эволюция от Chipcore 2.0 к 3.0 — не просто количественный рост, а качественный скачок. Переход от горизонтального, самодостаточного шасси к вертикальной, интегрированной в стойку конструкции стал результатом смены философии проектирования: от отдельного сервера к стоечной экосистеме.

Chipcore 2.0 был попыткой оптимизировать сервер в рамках стандартной стойки. В то же время, конструкция Chipcore 3.0 теряет смысл вне контекста взаимодействия со средой ЦОД — горячими и холодными коридорами. Подобный опыт показывает, что за определенным порогом плотности и TDP проектирование серверов и инфраструктуры ЦОД больше не может рассматриваться как две отдельные дисциплины; они должны разрабатываться совместно. Серверный узел становится компонентом в более крупном вычислительно-тепловом модуле — стойке.

Для наглядности ключевые технические различия между всеми поколениями платформы сведены в таблицу.



Третья ревизия успешно решила задачу повышения вычислительной плотности и тепловой мощности. Получилась надежная и масштабируемая основа для интенсивных рабочих нагрузок при минимальной стоимости. Напомним, что в ChipCore используются обычные десктопные компоненты, а не серверные.

Интересно, какие изменения произойдут в будущем? По мере того, как TDP процессоров будет превышать 180 Вт, воздушное охлаждение достигнет своих физических пределов. Потребуется ли переход на жидкостное? Возникнет ли необходимость снова конструировать серверные компоненты? Мы обязательно обо всем расскажем.

https://selectel.ru

Архив

28 июн. 2025
Мы завершаем нашу концепцию двойного холодного/теплого коридора — улучшаем тепловую нагрузку на наши кондиционеры, а также подачу холодного воздуха клиентам.


22 мая 2025
Поставка наших специально спроектированных коридоров холодных проходов для стоечного помещения A — 16 электрических жалюзийных заслонок для точного управления потоком воздуха



31 мар. 2025
Ряды R05+R06 со следующими 20 шкафами только что приземлились, наша команда все еще работает над теплоизоляцией коридора и питанием. Нужна колокация? Напишите нам по электронной почте mail@tornadodc.com



27 мар. 2025
Время проведения следующего технического обслуживания ИБП FRA1


13 мар. 2025
Работаем над еще 20 шкафами — нужен один, два или десять?


28 нояб. 2024
Только что получили новые фильтры для расширения нашего прямого естественного охлаждения в FRA1. Как только это будет сделано, у нас будет около 6,5 кв. м. воздухозаборников для 250 кВт электроэнергии в указанном зале данных, что еще больше повысит эффективность


19 сент. 2024
Вчера мы получили еще один ряд шкафов от немецкого поставщика Schaefer IT-Systems, рассчитанных на установку еще 1066 серверов.


30 янв. 2024
На прошлой неделе мы получили новый аварийный генератор мощностью 500 кВА, модернизировав систему электроснабжения наших центров обработки данных FRA1.


24 нояб. 2023
Теперь мы указаны как внутрисетевое местоположение с euNetworks — клиенты получают выгоду от размещения, нейтрального по отношению к оператору, что обеспечивает различные варианты подключения к Digitalrealty (Interxion) FRA1-16, а также Equinix FR4-FR7.


17 нояб. 2023
Завершение горячего коридора для 20 стоек колокейшн

Архив

27 мая 2025
Upstream с Arelion только что запущен для тестирования во Франкфурте


12 мая 2025
Обновление для наших Equinix точек присутствия во Франкфурте — 4x 1,6 Тбит/с DWDM для Digitalrealty — Equinix darkfibers в тестировании


29 апр. 2025
Теперь во время оформления заказа можно выбирать различные дополнительные услуги, включая фиксированную скорость полосы пропускания до 100 Гбит/с 95/5, готово всего за 30 секунд


11 апр. 2025
Ищете исключительную скорость сети? Недавно мы начали развертывание выделенных серверов с полезной скоростью соединения 25 Гбит/с


17 мар. 2025
aurologic отразил рекордную атаку в 720 млн. пакетов в секунду, что в два раза превышает объем трафика, который мы наблюдали во время самых крупных всплесков на данный момент.


6 февр. 2025
aurologic теперь транслируется на GNM-IX, приятного просмотра!
www.peeringdb.com/net/8850

21 янв. 2025
Наши разработчики, работающие над сетевой автоматизацией, в восторге от новых метрик для каждого сетевого интерфейса


1 янв. 2025
Новый год, еще один апстрим: interdotlink в прямом эфире в Equinix Франкфурте, Германия, дальнейшее улучшение качества сети и задержек


9 авг. 2024
Еще одно обновление сети, которое будет запущено с Gcore в Digitalrealty (Interxion) на следующей неделе с целью расширения пропускной способности Франкфуртской магистрали

2 авг. 2024
Прошлой ночью сеть tornadoidc POP была модернизирована. 2x 1,2 Тбит/с на разнородном темном оптоволокне, 2,4 Тбит/с в целом — приличный запас мощности, уже пропускает более 400 Гбит/с общего трафика


29 июн. 2024
Коммутаторы 100G — могут быть связаны с нашей облачной средой


18 июн. 2024
Нужны особые услуги? Здесь мы установили коммутатор Arista с AlgoMatch для клиента, подключив более половины терабита пиринговой и транзитной емкости tornadoidc


29 мая 2024
Очередные обновления во Франкфурте, запуск еще одной колоссальной линии связи 100G — теперь наша сеть имеет более 10 Тбит/с развернутой емкости линии связи 100G


13 мая 2024
Специальный запрос для клиента с особыми потребностями: несколько 100G на Juniper QFX10002-72Q


11 апр. 2024
Новая поставка DWDM MUX для наших точек присутствия во Франкфурте


7 дек. 2023
Сегодняшняя партия выделенных серверов с AMD Ryzen 9 7950X и восходящим каналом связи 10 Гбит/с запускается в эксплуатацию в нашем центре обработки данных региона Ланген, Франкфурт tornadoidc


23 окт. 2023
Вскоре мы перейдем с Juniper QFX на Arista на FFM1, улучшив наш Metroring на базе EVPN-VXLan 100G tornadoidc


20 окт. 2023
Мы формируем первые заказы на выделенные серверы AMD Ryzen 9 7950X с материнской платой ASRock Rack и памятью ECC. Хотите такой же? Напишите нам на mail@aurologic.com


5 окт. 2023
Мы рады объявить о долгосрочном ребрендинге после 18 месяцев напряженной работы — с combahton на aurologic GmbH, а также о нашем новом веб-сайте и услугах!
Узнайте больше на aurologic.com — если у вас есть вопросы, не стесняйтесь их задавать, мы с радостью на все ответим.


8 июл. 2023
Мы только что обновили наш частный пиринг с myLoc до 100 Гбит. Еще 300 Гбит в процессе с разными интернет-провайдерами во Франкфурте, общая емкость PNI превысила 1 Тбит в июле


14 авг. 2023
Только что получили наш первый Arista Core для FFM1, 96x 100Gbit для нашего городского кольца и предложений с высокой пропускной способностью — еще один будет представлен на Equinix FR7 в сентябре


2 авг. 2023
Пиринг с Google (AS15169) обновлен до 2x 100G во Франкфурте — спасибо за пиринг Google


8 июл. 2023
Мы только что обновили наш частный пиринг с myLoc до 100 Гбит. Еще 300 Гбит в процессе с разными интернет-провайдерами во Франкфурте, общая емкость PNI превысила 1 Тбит в июле


24 мар. 2023
Мы расширили набор функций нашего выделенного сервера с помощью сетевой загрузки, которая позволяет клиентам выполнять полностью автоматизированное восстановление и переустановку с использованием PXE :)


8 нояб. 2022
Наш PNI с AS8708 / RCS-RDS только что начал работу — приятного пиринга


4 окт. 2022
Число наших точек присутствия в Хельсинки неуклонно растет, недавно мы достигли пикового трафика в 10 Гбит/с
Поэтому мы рассматриваем возможность модернизации сети и приступили к внедрению частных пиринговых соединений с основными провайдерами, чтобы улучшить обслуживание наших клиентов.


13 янв. 2022
Недавно мы провели некоторые обновления во Франкфурте, теперь на различных маршрутизаторах core2 и core4.ffm3 в Interxion_DE работает порт с пропускной способностью более 3 Тбит/с.


16 дек. 2021
Вчера мы столкнулись с довольно крупной DDoS-атакой на клиента Game Developement, пиковая скорость которой достигала ~300 млн. попыток в секунду. Источником атаки был вариант Mirai, недавно развернутый с помощью уязвимых интеграций log4j.

Надоело переплачивать?

Попробуйте новый Cheap VPS от Zomro:

  • Процессор — Intel Xeon E5
  • Безлимитный трафик
  • Локация — Нидерланды
  • IPV4/IPV6 — на выбор
  • Цена от €2.80/мес

Воспользуйтесь пробным периодом и тестируйте облачный сервер в течение 3 дней бесплатно!

zomro.com/cheap-vps

Важно! Запрет на мессенджеры



В связи с публикацией разъяснений Минцифры (Письмо Министерства цифрового развития, связи и массовых коммуникаций Российской Федерации от 10 июня 2025 г. N П12-11425-ОГ «О рассмотрении обращения»), наша компания приостанавливает коммуникацию через иностранные мессенджеры (WhatsApp, Telegram).

Запрещается любое прямое взаимодействие с гражданами и юридическими лицами с использованием указанных сервисов обмена мгновенными сообщениями, в том числе по инициативе граждан и юридических лиц. Коммуникация с клиентами по прежнему осуществляется по телефону, электронной почте, мессенджер MAX и через тикет-систему.

Спасибо за понимание!