Ovhcloud: хорошие результаты в четвертом квартале с оборотом в 230 миллионов евро
OVH объявляет об обороте в 897 миллионов евро в 2023 году, что на 13,4% больше, чем в 2022 году, на сопоставимой основе. Оборот в четвертом квартале составил 230 миллионов евро, что соответствует кварталу с самым высоким ростом года, +14,5%, на сопоставимой основе и который извлекает выгоду из полного эффекта повышения цен.
Группа отмечает сильный рост выручки в сегменте общедоступных облаков (+21%) и частного облака (+15,1%) в течение 2023 года. Скорректированная EBITDA составляет 325 миллионов евро, т.е. 2023 год с улучшением на 1,7 пункта рентабельности EBITDA между вторым и первым полугодием, которая достигла 37,1% благодаря контролю затрат и повышению производительности.
Руководство особо отмечает получение во второй половине 2023 года свободного денежного потока в размере 25 миллионов евро. Реализация стратегического плана по всем продуктам, географическим регионам и клиентским сегментам
- Доступно около 40 новых PaaS-решений для ИИ, данных, хранения и безопасности., «контейнерные» технологии и даже виртуализация;
- Продолжение международной экспансии с открытием четырех новых центров обработки данных, включая открытие новой страны с Индией;
- Продолжение коммерческих и маркетинговых инвестиций с подтвержденным и устойчивым коммерческим динамизмом в Европе, и особенно в Центральной Европе.
Дальнейшее улучшение прибыльности и генерирования денежных средств в 2024 году
- Цель — органический рост оборота на уровне от +11% до +13%;
- Целевая рентабельность по скорректированной EBITDA выше 37%;
- Регулярные и растущие капитальные затраты, около 16% и 24% от оборота;
- Создание свободного денежного потока без заемных средств со второй половины 2024 года и создание свободного денежного потока без заемных средств в 2025 году.
Презентация стратегии и перспектив OVHcloud во время Дня инвестора запланирована в Лондоне 17 января 2024 года.
Как арендовать выделенный сервер выгодно? Аукцион!
Аукцион пополнился новыми лотами — это отличный повод попробовать найти подходящее решение под ваши задачи по выгодной цене. Представлены конфигурации на базе Intel Xeon E5, E3 и Core i7 стоимостью от 2 945 рублей в месяц и от 31 815 рублей в год. Не упустите момент: время лотов ограничено, а ещё их могут купить раньше вас.
Intel Xeon E3 1230v2
3.3 — 3.7 ГГц 4 ядра
8 Гб RAM
1000 Гб HDD
1000 Гб HDD
2 945 ₽
Intel Core i7 8700
3.2 — 4.6 ГГц 6 ядер
32 Гб RAM
480 Гб SSD
480 Гб SSD
3 690 ₽
Сниженная цена будет действовать на весь срок заказа, а также на дальнейшее продление сервера (при отсутствии просрочек). При заказе от 3-х месяцев добавляется ещё и скидка за период.
1dedic.ru/auction-2020
Обновление Пользовательского Соглашения
Информируем, что с 7 ноября 2023 года вносятся изменения в Пользовательское Соглашение. Добавлены следующие пункты:
п. 7.9 -> Стороны в рамках исполнения Соглашения обязуются соблюдать требования применимого антикоррупционного законодательства, не предпринимать никаких действий, которые могут нарушить нормы антикоррупционного законодательства или стать причиной такого нарушения другой Стороной. В том числе не требовать, не получать, не предлагать, не санкционировать, не обещать и не совершать незаконные платежи напрямую, через третьих лиц или в качестве посредника, включая (но не ограничиваясь) взятки в денежной или любой иной форме, каким-либо физическим или юридическим лицам, включая (но не ограничиваясь) коммерческим организациям, органам власти и самоуправления, государственным служащим, частным компаниям и их представителям.
п. 7.10 -> В случае нарушения одной из Сторон указанных обязательств, другая Сторона вправе в одностороннем порядке приостановить исполнение своих обязательств по Соглашению до устранения нарушения или отказаться от исполнения Соглашения, направив об этом письменное уведомление.
Данное уведомление носит информационный характер и не требует каких-либо действий.
Актуальная версия документа доступна на сайте: selectel.ru/about/documents/
Изменения вступают в силу с 7 ноября 2023 года.
С каждым шагом сеть крепчает, а атаки становятся менее заметными
Сделано много работы, коротко:
- Поставили и перенесли сервисы на новый мощный роутер (последние тех работы об этом)
- в Спб расширены входящие каналы, съели практически всю емкость, которую можно забрать с Цветочки, на неделе еще подключим пару сотен гбит емкости, а остальное заберем с Москвы. Запущены фильтры, которые чистят атаку.
- в Мск развернули точку присутствия, роутер, свои каналы, будем принимать там большой трафик и чистить, включаем фильтрацию в течение недели, отдаем чистый трафик в СПб и Казахастан
- в Казахстане поставили новый роутер, проложили канал Мск-Алматы (5000 км), не зависим от местных аплинков, которые не выдерживают атаку и снимают анонсы.
- в Европе запустили две точки присутствия в Нидерландах и Франкфурте со своими каналами и роутерами, тянем каналы до локаций в Нидерландах и Польше, настраиваем фильтрацию как в Спб и Мск.
С каждым шагом сеть крепчает, а атаки становятся менее заметными. Что-то прилетает и влияет на сеть, задача свести влияние к минимуму. Сильно проинвестировали в развитие сети, скоро будем по сетевой мощности как телеком оператор. Спасибо ддосерам, за счет такого буста по сети мы сможем в дальнейшем давать сервисы локальной сети между ДЦ и защищенные каналы и другие сетевые плюшки между всеми локациями.
timeweb.cloud
Дарим IPhone 14 - 256GB
Примите участие в акции!
- Участвуйте в нашей эксклюзивной акции и получите шанс выиграть совершенно новый iPhone 14
- За каждые 15 000 рублей пополнения баланса лицевого счета вы получаете дополнительный шанс на победу. Пополните на 30 000 рублей и удвойте свои шансы на этот невероятный приз!
- Акция действует с 20 по 22 октября 2023 (включительно), так что поспешите!
- Победитель будет выбран случайным образом с помощью рандомайзера. Пожалуйста, обратите внимание, что каждые последующие 15 000 рублей пополнения увеличивают ваши шансы на победу.
webhost1.ru/
История одного домашнего дата-центра
unit7.cloud/
unit7.cloud/accounts/register/
MVP дата-центра
История началась осенью 2021 года с посадочной страницы (разумеется, на jquery, яжбэкендер). На ней предлагалось «собрать» компьютер с GPU, чтобы затем взять его в аренду. Я выводил различные комплектующие (GPU, CPU, RAM, SSD), доступные в ритейле, кое-как высчитывал цену аренды и далее вёл потенциальных клиентов в Телеграм для обсуждения деталей. К началу 2022 года была проверена масса различных гипотез о том, какие комплектующие «ок», какие нет.
Сборка на AMD Threadripper 3970X
Например, был клиент, запросивший 32-ядерный AMD Threadripper 3970X, мы договорились о сборке в течение месяца, я закупил комплектующих на 250К₽, комп был собран, поставлена Windows Server 2019, адаптированы некоторые драйверы, которые поддерживали Windows 10, не 2019 и так далее… А клиент перестал выходить на связь. Конечно, стало понятно, что аренда таких конфигураций слишком дорогое удовольствие и под конкретные задачи их обычно просто покупают. Примерно через 4 месяца после этого мне удалось продать эту сборку на авито по себестоимости человеку, который приехал специально за ней из Минска с пачкой наличности. И уже затем картинка того, какие конфигурации действительно берут в аренду стала вырисовываться. Теперь уже без предоплаты мы не предоставляем серверы в аренду и даже не начинаем закупать комплектующие, если сборка какая-то особенная.
Стали появляться первые реальные клиенты, поэтому была сделана интеграция с банком, онлайн-кассой и ОФД (по одному API от банка), посадочная переписана на ReactJS, на нём же с теми компонентами написан зачаток личного кабинета клиента с пополнением баланса и выводом его клиенту, плюс некий список арендуемых компьютеров.
В качестве помещения была выбрана пустующая ипотечная квартира с ремонтом от застройщика (стены, ламинат и ванная комната — это всё, что там было). Был собран стеллаж, в который я поместил первые пару компьютеров. Интернет куплен у местного провайдера на физлицо под названием «800 Мбит/с».
Бизнес-идея была такая: десктопное железо (а-ля Kimsufi) + дискретные GPU = экономия клиента в 3-4 раза по сравнению с серверными аналогами. Все машины были спрятаны за роутером с 1 статическим IP и port forwarding'ом до конкретного компьютера. Да, всё верно, задачи клиентов не лежали в области хостинга веб-сайтов или даже работы 1C. В основном это были дата-сатанистыdata scientists, обучающие свои нейронки. Именно поэтому им не подходили решения от Селектела и прочих, где видеокарта с ОЗУ не меньше 24 Гб стоила от 80К₽, а в случае падения или недоступности я компенсировал 100% простоя округлённого до суток (т.е. обычно это было 2400% компенсации) для компенсации не-такой-высокой-отказоустойчивости. На втором месте по численности были рабочие места (VDI, только не виртуальные, а на физических компьютерах) под Photoshop, DaVinci Resolve, hashcat, GTA 6 и т.п.
По мере заселения новостройки, в течении полугода обслуживания нескольких клиентов, от интернета в «800 Мбит/с» осталась только вторая часть «Мбит/с», клиенты скидывали speedtest'ы, где мог быть 4 Мбит/с и потери пакетов в 8-10%. Меня такой расклад не устраивал и клиентов тоже.
Поэтому до подключения заготовленных тушек (платформ) дело не дошло — нужно было поработать над качеством самой локации, переходить от MVP и проверки гипотез спроса и ценности к созданию чего-то более качественного. Как минимум, с т.з. интернет-канала. Плюс, иногда отключали электричество, самый длинный отрезок составил 40 минут. У каждого компьютера была своя UPS, что спасло ситуацию в целом. Однако, интернет отключался вместе с э/э во всём доме, поэтому для многих клиентов это было равнозначно отключению э/э (хотя даже это для некоторых было не критично). Решено было собрать принципиально новую схему работы, сменив локацию. В том числе с целью увеличить кол-во киловатт (в квартире было 13 кВт), так как расчётное макс.потребление 1 компьютера было от 450 до 750 Вт, то кол-во компьютеров было в районе 15-17, чтобы можно было ещё и свет включить с чайником без риска вылететь.
Новая локация
Помещение было найдено на территории завода с двумя вводами (2 независимые подстанции) и пока арендодатель расчищал завалы, мы приступили к проектированию.
Были арендованы 2 помещения общей площадью ~50 кв. м, одно ~22 кв.м под сборочную, второе ~28 кв.м под серверную, оборудовано металлической дверью и 50 кВт э/э.
Размеры выбранных стеллажей были 2000 мм в высоту и ширину, 600 мм в глубину. Поэтому по проекту влезало 9 таких стеллажей по 12-14 серверов и 3 UPS'ки у стены. Итого максимальная ёмкость, которую можно было достичь была 126 компьютеров формата Mid Tower (плюс, предусмотрели, чтобы в каждом стеллаже была полка под Full Tower, т.е. 4 Full Tower на 1 стеллаж), что было избыточно, учитывая кол-во киловатт. тем не менее, мы договорились с арендодателем, что при желании (и за доп. деньги) они смогу подвести ещё 50 кВт в будущем в течении полугода. Что я посчитал приемлемым.
Разведение электропроводки от байпасов до стеллажей
Сразу же было заложено 3 UPS'ки по 40 kVA каждая (~36 кВт). На территорию завода 2 независимых ввода, при этом весь корпус переключается между ними вручную в случае плановых работ или аварий арендодателем. Поэтому 1 UPS'ка подключается к 1 электрощиту, плюс 1 UPS резервная. Через систему байпасов и автоматов электрощитках, мы с командой заложили возможность выводить из эксплуатацию любую UPS, переключая нагрузку на UPS №1, она физически подключена ко всем электрощиткам и всем нагрузкам, на байпасах прописано какой вентиль за что отвечает, в электрощитках приклеены схемы подключений.
Как только грязные работы были проведены, мы начали перевозить компьютеры по мере возможности и подключать их через времянки в один из электрощитков, защищая теми же индивидуальными UPS'ами, что в предыдущей локации. Это спасало от перепадов напряжения (производство всё таки), которые пришли на смену отключениям э/э.
Мы переезжали с февраля по март 2023. До этого мне казалось, что если сотрудник чего-то не может, то это сделаю я. Однако, в процессе я научился нанимать фрилансеров на разовые работы — этот урок стоил мне сорванной спины (стал нанимать грузчиков) и расплавившегося в руках болтачуть не стоил жизни во время подключения аккумуляторов в одну из UPS (стал нанимать электриков). Теперь перед действиями я советуюсь с релевантными специалистами: с меня эскиз задачи, с них возражения, корректировки и конечное решение, когда задача детализирована и экономически целесообразна. Так получилось мини-КБ, в котором стали появляться различные решения, например, стойки для десктопного железа.
Линейка выделенных серверов (без дискретной GPU)
Появился клиент, которой симпатизировал моему подходу в создании и развитии дата-центра, и ему было интересно работать только на своём железе и в своём ЦОДе. Подход, о котором я пишу, можно охарактеризовать как проверка гипотез и переизобретение тех вещей, которые можно сделать дешевле без существенной потери в отказоустойчивости. Так появилась идея продать мой дата-центр и себя в рабствотоп-менеджеры с KPI привязанными к успешности проекта на рынке. Мы договорились об испытательном сроке, цели запустить 100+ серверов, продаже бизнеса через 3 месяца и ударили по рукам.
Проект заключается в том, чтобы запустить сервера на десктопном железе, поэтому можно было забыть про дискретные видеокарты. Плюс, помахать рукой уходящим в закат Hetzner и другим европейским дата-центрам с выделенными серверами на AMD Ryzen и Intel Core. Если убрать из уравнения дискретные видеокарты, то минимальный занимаемый компьютером объём можно резко сократить без потери в эффективности охлаждения. Поэтому я достал свои старые эскизы стойки для десктопного железа — проект не пошедший в работу из-за экономической нецелесообразности, для GPU-серверов дешевле было найти б/у корпус на авито, чем делать металлический каркас самостоятельно.
У моего клиента-покупателя-бизнеса были в аренде и требовали миграции из Европы в РФ десятки серверов с конкретными характеристиками и имелись хотелки по их изменению в лучшую сторону. Поэтому мы выбрали Ryzen'ы последнего поколения (Zen 4) с DDR5 и сформировали конфигурации под стать AX-52 и AX-102 от Hetzner. А чтобы разметить 100+ серверов в нашем небольшом помещении максимально бюджетно, спроектировали стойки под десктопное железо.
Стойки для десктопного железа
Напомню, что габариты стеллажей для GPU-серверов (читай «произвольной конфигурации») 2000х2000х600 мм. Поэтому высота стоек для нормального функционирования холодной комнаты должна была быть 2000 мм, а глубина позволяет быть до 600 мм. Следующим шагом был расчёт минимальной высоты для 1 компьютера. Оптимистичные 4 см превратились в 5, затем в 7.5, в итоге, после обнаружения достойных CPU кулеров, оказалось, что высота полки должна быть 10 см.
Нужно поддерживать размеры материнских плат от microATX до E-ATX, плюс корпусный вентилятор для охлаждения, плюс возможные диски 2.5", плюс допуски по бокам, итого 400х400 мм под полочку для сервера, плюс выносная планка для кабель менеджмента (например, разводки витой пары) на 20 см (тесты показали, что удобен именно такой размер). Чтобы сэкономить на блоках питания, решено было поставить 1 мощный блок (на ~3 кВт) на всю стойку и сделать разводку 12 В до каждой полки. Позже я узнал, что бигтехи в OpenComputeProject пришли примерно к такому же решению многими годами раньше меня. Далее скучные расчёты сечения проводов, создание специальных переходников на EPS8 + PCIE на PicoPSU для каждой материнки и так далее. Затем изготовление полочек из старых компьютерных корпусов с помощью смекалки, болгарки и молотка. А так же тестирование результата на каждом этапе. Например, фото ниже показывает одно из первых тестирований. Из него мы узнали как страшно крепить материнку близко к краю и что сборка каркаса гайками вовнутрь при выдвижении полки без салазок подстраховывает администратора от падения полки.
В итоге было сформировано понимание того, что удобно, а что может быть опасным (у нас же нет слазок, например). Методом проверки различных гипотез мы пришли к определённому формату металлического каркаса, пластин в полки с защитой от провисания, креплениями для материнской платы и отверстиями для кабелей и крепления 2.5" дисков. И затем заказали производство полок по своему эскизу в компании, занимающейся металлопрокатом, с лазерной резкой и ЧПУ.
Ограниченность пространства в нашей локации внесла свои коррективы — холодная комната оказалась необитаемойнепроходимой, поэтому стойки сделаны так, чтобы полки доставались из горячей комнаты, а кабели не сильно мешали этому процессу. Однако, новые стойки делаются по-другому. Их конструкция даёт возможность доставать пластину с сервером с обеих сторон стойки. На фото слева вы можете видеть первую MVP стойку, запущенную в эксплуатацию. Большинство решений тестируются на ней, поэтому она такая страшная в том числе, IP KVM и 2U кулеры под сокет AM5 (фото ниже) для охлаждения CPU с TDP до 150 Вт (если поварпроизводитель нам не врёт) вместо 125 Вт у классических кулеров…
Следующее поколение стоек
Практика показала, что у подхода собственных стоек для десктопного железа большая экономия средств и места в сравнении с использованием стеллажей и корпусов. Однако, имеются недостатки:
Для корпоративного клиента, управлять питанием на уровне стоек, вместо управления питанием на уровне сервера — это «ок», но нужен аналог PDU с удаленным управлением (такие стоят от 120К₽). У нас уже есть решение, которое интегрируется прямо в стойки нашего формата, сейчас оно проходит тестирование в бою для нескольких полок. За основу взяты девайсы умного дома, перепрошиты, подключены к нашему серверу и управляются по API из личного кабинета. В зависимости от требований к стойкам, это может быть как управление power button, так и управление электропитанием полки с физической кнопкой в стойке.
В десктопном железе отсутствует IPMI. Поэтому прямо сейчас мы проектируем решение в своём духе бюджетно и с достаточной отказоустойчивостью. Оно претендует скорее на звание IP KVM (аналоги стоят в районе 400К₽), так как IPMI PCIe-платы должны стоить так же как материнская плата ATX. В принципе, для клиента это может быть «ок» ставить IPMI плату ценой в 1/3 от управляемого железа. Но ещё неизвестно, есть ли программная совместимость между, например, ASPEED AST 2500 BMC и мат.платой от MSI на чипсете AMD B650 или <любое другое сочетание IPMI чипа и мат платы с сокетом AM5>. Мы же решили пойти путём удалённого KVM, совмещённого с управлением питанием полки и power button сервера. А задачи мониторинга остальных параметров системы (которые есть в IPMI) решить программным путём, пусть и не так круто, как это сделано в распаянных в материнской плате IPMI, главное, чтобы оказалось достаточно круто для наших клиентов.
unit7.cloud/
unit7.cloud/accounts/register/
Ищем авторов для базы знаний
Ищем опытных IT-специалистов, готовых поделиться своими знаниями с широкой аудиторией, чтобы создавать больше полезных и актуальных инструкций для базы знаний FirstVDS.
Вы сами решаете, о чём хотите писать. Можно выбрать тему из нашего списка или предложить свою.
Вы можете писать, когда вам удобно. Мы не назначаем жесткие сроки и не регламентируем количество статей. Вы можете написать одну статью или готовить по пять материалов каждый месяц — будем рады как разовому сотрудничеству, так и постоянному.
Помогаем сделать материал лучше. При необходимости наш редактор поможет вам составить логичную структуру, исправить ошибки, уделить внимание деталям. Также у нас в команде есть SEO-специалист и дизайнер, они помогут оформить ваш материал и сделать так, чтобы его увидело больше пользователей.
Мы ожидаем, что
- у вас есть опыт в IT (системное администрирование, frontend и backend разработка, devops, тестирование),
- вы уверенно владеете терминологией, умеете ставить себя на место пользователя и понятно объяснять сложные вещи, пишите структурированные и логичные тексты.
Условия
- За каждую статью платим до 10 000 рублей.
- Порядок оплаты зависит от формы сотрудничества — на выбор предлагаем оферту или договор с самозанятым, физическим или юридическим лицом.
- Принимаем только уникальные и актуальные материалы. Если в статье есть практическая часть — каждый шаг нужно проверить.
Как стать автором?
Напишите нам на почту content@firstvds.ru с темой «Хочу писать инструкции». В письме немного расскажите о себе: как вас зовут, на чём вы специализируетесь, есть ли у вас опыт написания статей. Мы свяжемся с вами в течение 3 рабочих дней.
1 ТБ озу свободен
Новости 2023
03/2023
Новые VPS EPYC-NVMe тарифы доступны для заказа в локации Россия(Москва)
— Собственное оборудование и ipv4/ipv6
— Процессор AMD EPYC 7513
— HW RAID10
— Бесплатный AntiDDoS
05/2023
Новые VPS NVMe в локации США(Буффало)
— Собственное оборудование (Supermicro)
— Собственные сети ipv4
— Процессор 2xIntel Xeon Gold 6346
— Intel RAID10 (диски Intel P5520 NVMe)
10/2023
Новые VPS NVMe в локации Великобритания(Беркшир)
— Собственное оборудование (Supermicro)
— Собственные сети ipv4/ipv6
— Процессор 2xIntel Xeon Gold 6354
— Intel RAID10 (диски Intel P5520 NVMe)
www.ipserver.su