Сегодня мы объявили результаты за первое полугодие 2025 финансового года



Публичное облако
Каждый месяц мы выпускаем в эксплуатацию новые продукты Public Cloud в конфигурации Region 1AZ и Region 3AZ. Мы внедрили «живой цикл» в хранилище объектов, запустили в производство платформу данных, полностью готовую к работе с большими данными, завершаем разработку частной сети с несколькими зонами доступности. Наша дорожная карта нацелена на 40 продуктов, которые мы запустим в производство к сентябрю 26 года во всех существующих регионах 1AZ и в 5 регионах 3AZ (Париж, Милан, Сингапур, Сидней, Берлин).
Параллельно с этим, в конце 2025/начале 2026 года, мы начнем предлагать публичное облако с SecNumCloud в Париже в 3AZ.
Теперь мы предлагаем 40 локальных зон, которые позволяют клиентам создавать предложения по CDN, VPN, тестированию сайтов и SEO с низкой задержкой.

Частное облако
Новые продукты на базе VMware будут появляться постепенно, пока мы переписываем бэкэнд устаревшего продукта pCC. Новый HW поступит до конца 2025 года. VCF 9 конец 2025 года
Предложения SecNumCloud, такие как BM POD и платформа OPCP, вызывают много новых дискуссий с потенциальными клиентами, желающими преобразовать свое (внутреннее) частное облако. Это серьезные преобразования, поскольку мы предоставляем настоящую платформу HW + SW, которая позволяет нам повысить производительность в ЦОД, при создании продуктового облака и Landing Zone.
У нас появилось довольно много новых клиентов, пользующихся нашими предложениями SAP. Вот почему мы удвоили наши усилия, чтобы предложить новое оборудование с еще большим объемом оперативной памяти, но мы также работаем над средами разработки/тестирования с более дешевыми виртуальными машинами.

Веб-облако
Мы готовим волну новых расширений доменных имен
Инфраструктура, на которой размещено несколько миллионов веб-сайтов «Mutu», была модернизирована за счет новых серверов. Сайты работают в 2–5 раз быстрее. К концу 2025 года мы заменим все файлы хранилища и инфраструктуру базы данных.
Предложения электронной почты «Zimbra» запущены в эксплуатацию, и мы переводим на них клиентов. Скоро появятся новые предложения
Софтфон теперь доступен на VoIP. Скоро появятся новые предложения «Trunk»
Появляются новые предложения FTTE для подключения наших регионов 1AZ / 3AZ / vRack к сайту клиента (OCC Direct).

Голый металл
Новые предложения T1/T2 (KS STS Rise) были запущены в производство, и новая волна запланирована на сентябрь/октябрь.
Предложения T3/T4/T5 (Adv Scale HGR) в регионе 1AZ продолжают активно использоваться нашими клиентами, в то время как предложения Bare Metal Region 3AZ стали по-настоящему приятным сюрпризом, который полюбился нашим клиентам.
Новые предложения VPS появятся в июне и будут доступны в более чем 50 ЦОДах по всему миру.

Сеть
Мы модернизируем нашу магистральную сеть DWDM в Европе. Мы совершенствуем наши возможности по борьбе с DDoS-атаками и взаимосвязь с внешним миром. Новые точки пиринга появятся до конца 2025 года
В настоящее время наше предложение частной внутренней связи OCC находится на этапе модернизации и вскоре позволит нам предлагать в 10 раз большую пропускную способность по той же цене. Мы также добавляем прямое взаимодействие между OVHcloud и каждым регионом каждого облачного провайдера. Цель — создать за 1 вызов API/1 клик на менеджере частную сеть между всеми регионами OVHcloud и всеми регионами наших конкурентов.

Поддерживать
Мы набираем новых людей для усиления нашей телефонной поддержки. В 2026 году мы также предложим новый опыт поддержки и тем самым сократим время решения проблем.

Бэкэнд
Мы работаем над API / Manager Global vs Regional. Цель — предложить все более автономные регионы 1AZ/3AZ. Биллинг останется глобальным с несколькими бэкэндами (ЕС, Калифорния, США, Индия и т.д.), в то время как обслуживание будет региональным с нашими регионами 1AZ / 3AZ.

Финансы/Снабжение
Мы полностью пересмотрели нашу цепочку поставок, чтобы сократить время доставки серверов клиентам. Сейчас мы гораздо ближе к 120 секундам, чем в сентябре 2024 года.
Мы работаем над автоматизацией расчета ROCE (по сравнению с WAAC) наших инвестиций в ЦОД/оборудование по сравнению с ROCE нашей деятельности в области программного обеспечения. Цель состоит в том, чтобы лучше контролировать создание стоимости по сравнению с капитальными затратами, которые мы инвестируем.

Молодцы команды! И удачи, потому что тебе придется терпеть меня довольно долго :)

Спасибо всем нашим клиентам, которые своим доверием позволяют нам продолжать развивать эту компанию!

Изменения и Улучшения Public API



Усовершенствовали и обновили публичный API, инструмент взаимодействия с инфраструктурой сервиса CLO без использования Личного кабинета.

Расширенная и уточнённая документация API на сайте.
clo.ru/api

Подробный список изменений публичного API на апрель 2025 года.
clo.ru/help/technical/api-changes-spring-2025

Чтобы начать использовать API, не забудьте предварительно создать токен в Личном кабинете.

Миграция в будущее: теперь ваши серверы работают на Ryzen 9 7950X3D



Ваш сервер теперь думает быстрее, работает умнее и справляется с задачами в разы мощнее. Всё благодаря переходу на Ryzen 9 7950X3D

Кого это касается?
Если вы используете тарифы на базе:
  • Intel core i9-9900K
  • Intel core i9-12900K
  • Ryzen 9 5950X

То у нас отличные новости — вы уже на новом уровне

Что изменилось?
  • Мощности стало больше
  • Скорость стала выше
  • Стоимость — осталась прежней
  • И всё это — абсолютно бесплатно

Переход прошёл автоматически, без обращений в поддержку и технической суеты. Просто однажды вы проснулись — и сервер стал быстрее
spacecore.pro/ru/

Уведомление об изменении банковских реквизитов Leaseweb Deutschland GmbH



Мы надеемся, что это сообщение найдет вас в добром здравии. Мы пишем вам, чтобы сообщить, что с 1 мая 2025 года мы изменим реквизиты нашего банковского счета для всех будущих платежей.

НОВЫЕ БАНКОВСКИЕ РЕКВИЗИТЫ:
Название банка: Citibank Europe plc, филиал в Германии
Адрес банка: Reuterweg 16, 60323 Франкфурт-на-Майне, Германия
Имя учетной записи: Leaseweb Deutschland GmbH
Номер счета: 221745507
IBAN: DE24502109000221745507
SWIFT/BIC: CITIDEFF
КАК ЭТО ПОВЛИЯЕТ НА ВАШЕ ОБСЛУЖИВАНИЕ?
Чтобы обеспечить плавный переход, мы просим вас обновить ваши записи с нашими новыми банковскими реквизитами для всех будущих платежей. Если у вас есть автоматические переводы или платежные соглашения, пожалуйста, внесите необходимые корректировки до 1 мая 2025 года, чтобы избежать каких-либо сбоев в обслуживании.

Для других способов оплаты, таких как PayPal или ручные платежи по кредитной карте, никаких действий не требуется. Это письмо носит исключительно информационный характер.

Переходный период:
Для вашего удобства наш текущий банковский счет будет действовать до 1 июля 2025 года. Тем не менее, мы настоятельно рекомендуем вам обновить платежные реквизиты как можно скорее, чтобы обеспечить бесперебойные транзакции в дальнейшем.

НУЖНА ПОМОЩЬ?
Если у вас есть вопросы или вам нужна помощь с этим изменением, не стесняйтесь обращаться к нам по адресу ar@global.leaseweb.com Наша команда готова помочь вам с любыми вопросами или поддержкой, которая может вам потребоваться во время этого перехода. Благодарим вас за внимание к этому вопросу и за ваше постоянное партнерство.

С наилучшими пожеланиями,
Leaseweb Служба поддержки клиентов

Обеспечение ИТ-будущего Японии с помощью масштабируемых решений



ИТ-ландшафт Японии стремительно развивается, растет спрос на инфраструктуру, которая адаптируется к постоянно меняющимся системам и позволяет эффективно управлять расходами.

В Leaseweb Japan мы помогаем компаниям оставаться впереди благодаря:
  • Оптимальное соотношение цены и качества: экономичные решения, поддерживающие высочайшие стандарты скорости, пропускной способности и надежности.
  • Гибкая и масштабируемая инфраструктура: адаптируйтесь к изменениям рынка с помощью публичного облака, VPS и выделенных серверов (x86 и GPU).
  • Локальный опыт, глобальный охват: преданная своему делу команда из Японии, имеющая более чем 25-летний опыт работы по всему миру.
  • Безопасные и соответствующие требованиям решения: инфраструктура, отвечающая требованиям Японии в отношении суверенитета и безопасности данных.
  • Поскольку ИТ-системы становятся все более сложными, выбор правильного партнера по инфраструктуре становится ключевым. Leaseweb Japan здесь, чтобы поддержать вас.
www.leaseweb.com/en/about-us/japan

Подключайтесь к Demo Day облака Рег.ру



Онлайн-трансляция с экспертами Рег.ру
Уже в эту пятницу Рег.ру проведёт Demo Day — свою первую конференцию о том, как облачные технологии помогают экономить ресурсы, ускорять процессы и масштабировать бизнес.

Все выступления вы сможете увидеть онлайн: прямая трансляция пройдёт в нашей группе ВКонтакте. Кстати, мы приготовили подарок за самый интересный заданный вопрос!
vk.com/cloudregru

Demo Day
Онлайн-трансляция с экспертами Рег.ру
Уже в эту пятницу Рег.ру проведёт Demo Day — свою первую конференцию о том, как облачные технологии помогают экономить ресурсы, ускорять процессы и масштабировать бизнес.
Все выступления вы сможете увидеть онлайн: прямая трансляция пройдёт в нашей группе ВКонтакте. Кстати, мы приготовили подарок за самый интересный заданный вопрос!

Темы и спикеры конференции
  • Облачная платформа. Как использовать облако во всю мощь?
  • Евгений Мартынов, директор по информационным технологиям Рег.ру.
  • Инфраструктура как сервис: зачем бизнесу облако?
  • Сергей Рыжков, руководитель департамента хостинга и профессиональных сервисов Рег.ру.
  • Лёгкий старт в облаке или как ispmanager упрощает жизнь пользователей
  • Максим Дарулис, коммерческий директор ispmanager.
  • Безопасность в облаке. Как обеспечить надёжную защиту персональных данных?
  • Егор Сапун, руководитель направления сертификации инфраструктуры Рег.ру.
  • Вам точно нужен Kubernetes как сервис, и вот почему
  • Тимур Парфёнов, директор департамента эксплуатации Рег.ру.
  • Astra Linux в облаке Рег.ру
  • Павел Суручану, руководитель направления по развитию облачных сервисов «Группы Астра» в облаках партнёров.

Подводим итоги марта: что мы сделали для вас!



Путешествия и новые горизонты
Прошедший месяц был наполнен интересными событиями и важными шагами! Мы посетили загадочную страну, чтобы настроить и установить новейшее оборудование, и, да, вы правильно угадали — это были Нидерланды!

Новые возможности с оборудованием
Мы поделились с вами нашим опытом работы в Нидерландах, показав новейшие серверы, их возможности и поделились захватывающими планами на будущее. Мы трудимся без усталости, чтобы предоставить вам лучшее!

10% кэшбек для наших пользователей
Запустили акцию с кэшбеком 10% на пополнение баланса любой суммой! Это наш способ сказать “спасибо” за вашу верность

Германия ждет
Затем мы отправились в Германию, где нас ждал не менее важный проект. Мы не только заменили старые SSD на новые NVMe, но и собрали сервер по индивидуальному запросу клиента для Colocation. Смотрим в будущее с оптимизмом и амбициями!

Скидки и акции
Мы также запустили уникальную акцию, предоставив возможность заказать выделенные серверы без платы за установку! Это было ограниченное предложение, но кто успел — тот выиграл!

Секретный анонс

CloudFest и партнерские связи
Не забываем о важных встречах и обменах опытом! Мы вернулись с CloudFest, где завели новые контакты, обсудили стратегии с партнерами и создали кучу интересных материалов для дальнейшего роста!

100% скидка при переносе проектов
Мы запустили акцию для тех, кто решит перенести проект с другого хостинга — скидка 100% на перенос и установку. Это наша поддержка для вашего проекта!

С каждым днем мы становимся лучше, а наша цель — не просто предоставлять вам качественные сервисы, но и создавать незабываемый опыт сотрудничества с нами

Ставьте лайки, делитесь постом, а мы будем и дальше радовать вас уникальными предложениями и новыми достижениями!

Вайб-кодинг: практика, о которой почему-то не говорят




В феврале мир разработки перевернулся с выходом Sonnet 3.7. Потому что вдруг внезапно оказалось, что джуны уже не очень-то и нужны. И нейросетка нормально заменяет мидлов тоже.

Я откидываюсь в кресле, беру наушники и смотрю, как работает LLM. Можно сразу несколько, работающих над разными частями проекта:


Пример проекта с прикручиванием аналитики к инфраструктуре:
  • Сначала в GPT 4.5 провёл продуктовые исследования и сформулировал требования.
  • Попросил превратить это в архитектурный план.
  • Отревьюил, поправил тупые ошибки.
  • Затем этот план (как метапромпт) скормил Sonnet в VS Code через плагин Cline. Попросил сначала создать общую структуру, шаблонные имплементации, документацию, спецификации API (protobuf для gRPC, REST API).
  • Архитектурно сразу заложил микросервисы. Sonnet для каждого сервиса подобрал и обосновал оптимальную базу данных (где-то Postgres, где-то ClickHouse и т.д.).
  • Сгенерировал SDK для взаимодействия, примеры использования. Сразу заложил observability: централизованные логи, метрики Prometheus, трейсинг Jaeger/Tempo, дашборды для Grafana.
  • Потом итерационно генерировал код: сначала тесты (End-to-end, BDD), потом имплементацию под эти тесты.
  • Написал манифесты для Kubernetes и Docker Compose для локального запуска.
  • Сгенерировал даже скрипты для тестов REST API через curl и gRPC через gRPCurl.

И всё.

А теперь практика — что делать с тем, что современные нейросети учились преимущественно на говнокоде и как быть с джунами.
Качество LLM-кодинга сильно зависит от языка программирования
Главная проблема — объём блока (точнее, зависимостей) и нормальная обучающая выборка.

Scala
Попытки написать на Scala работающий микросервис по OpenAPI-спецификации провалились.

Модель генерирует код, он не компилируется. Скармливаешь ошибки компиляции — следующая итерация кода содержит ещё больше ошибок.

Вероятно, это высокая сложность и неоднозначность языка Scala (функциональный стиль, множество способов сделать одно и то же) плюс, вероятно, меньшая и менее качественная обучающая выборка по сравнению с другими языками.

Попытки транслировать код с другого языка (например, с Go) в Scala тоже могут быть проблематичны, особенно если требуется сохранить функциональный стиль Scala — на понятиях PHP, например, такое просто не опишешь.

Скала очень недетерминирована, её стиль отличается от мейнстримовых других языков достаточно сильно, а кодовая база не очень большая. В итоге LLM для сложных проектов на практике пока непригодны.

Golang
Совершенно другая история. Современные модели генерят на Go очень хороший, часто компилирующийся из коробки код. Скорее всего, работает комбинация факторов:
  • Go — очень квадратно-гнездовой язык. Задачу чаще всего можно решить одним, максимум двумя способами. Нет такого разброса стилей и подходов, как в Scala или даже JS. Это упрощает обучение для LLM: меньше вариативность «правильных» ответов на один и тот же запрос. Эта прямолинейность отличается от C, который хотя и прост на первый взгляд, как автомат Калашникова, но позволяет легко «провалиться» на низкий уровень, иногда незаметно. Go тоже позволяет уйти в сторону ассемблера, но при решении стандартных задач он очень явно описывает путь.
  • Строгая стандартизация. Встроенный форматер (gofmt), линтеры (golint), общепринятые конвенции — всё это делает кодовую базу на Go очень однородной. Это лучше, чем в Python, где тоже есть линтеры, но вариативности в написании больше. В Go сама идея языка была в том, чтобы код легко читался всей командой.
  • Качественная и большая обучающая выборка. Огромное количество успешного Open Source написано на Go (Kubernetes и вся его экосистема, Docker, Prometheus, Terraform и т.д.). Вероятно, этот код использовался для обучения моделей с высоким весом, возможно, даже с усилением (как если бы Википедию добавили в базу 10 раз).
  • Меньше «говнокода». Возможно, Go — язык более молодой, его чаще выбирают уже более опытные разработчики для серьёзных проектов (это сейчас слабое допущение). В отличие от Python или JS, куда порог входа ниже и больше новичков, генерирующих код не самого высокого качества, который тоже попадает в обучающие выборки. Плюс сам язык Go меньше прощает ошибок и не провоцирует написание «кривого» кода так, как это делает, например, JS. Сам язык как бы «не предусматривает» говнокода в той же мере.
  • Почему мы сами выбрали Go — бинарники маленькие, памяти ест мало, работает быстро. Хотя и PHP последних версий тоже компилируется, но это отдельный спор. До сих пор, кстати, не утих другой холивар — можно ли считать PHP языком программирования или нет. Я придерживаюсь мнения, что можно. Но пишем мы преимущественно на Go.

Rust
Тоже хайповый современный язык. LLM генерят код, который проходит проверку синтаксиса в IDE. Но при попытке сборки (которая в Rust сложнее, чем в Go) вылезает куча ошибок. И вот с исправлением этих ошибок сборки LLM справляются хуже, чем с написанием изначального кода или исправлением ошибок в Go. Вероятно, дело опять же в сложности языка и, возможно, пока ещё менее репрезентативной выборке кода с решёнными проблемами сборки.
Экспериментировали мы не очень много.

Java
Самая интересная ситуация, показывающая принципы LLM-кодинга.
Проблема — в структуре типичного Java-проекта: там везде глубокая вложенность пакетов, сложные цепочки наследования. Чтобы понять, что происходит в одной функции, LLM нужно проанализировать много связанного кода.
Это требует огромного окна контекста: меньше 64к токенов — почти бесполезно для серьёзного Java-кодинга. К счастью, модели с большими окнами появились.
Ещё нужны агенты для исследования кодовой базы. Инструменты вроде Cursor, Cline позволяют LLM «ходить» по проекту. Но и тут проблема: системный промпт агента (который сам по себе может быть большим, на тысячи токенов), прочитанные файлы классов и интерфейсов, дерево проекта — всё это быстро забивает даже большое окно контекста, особенно учитывая, что в Java много мелких лексем (точки, скобки), каждая из которых — токен.
То есть сама структура проектов на Java такая, что нужно не только смотреть тот блок, где сейчас идёт редактирование, но и держать «в голове» вообще всё то, что происходит в зависимостях. Это, кстати, причина тех самых мемов про состояние потока программиста. Вот у LLM то же самое.

Идеальное решение (которого пока нет в массовом использовании) — агенты, способные хранить состояние проекта в долговременной памяти, а не только в текущем окне контекста. Тогда LLM сможет «помнить» всю структуру и историю изменений. Сейчас же каждый новый агент начинает почти с нуля.
Сравните с Go: там часто достаточно контекста одного файла + импортов, чтобы понять, что происходит. Добавьте нашему вымышленному программисту не только отвлекающие звонки, но и болезнь Альцгеймера, чтобы он забывал задачу каждые 15 минут, — и вы получите примерное представление о LLM-кодинге на Java.

JavaScript
Динамическая типизация, язык многое прощает, разные стили, потенциально огромное количество некачественного кода в обучающей выборке. LLM сложнее строить логические цепочки, одна и та же лексема может иметь разный смысл.
TypeScript показывает заметно лучшие результаты благодаря статической типизации.

Регулярные выражения
В целом LLM пишут их неплохо. Но из-за того, что регулярки состоят из очень маленьких лексем (часто одиночных символов), а модели часто работают с ненулевой «температурой» (параметр, отвечающий за креативность/случайность ответа), они могут быстро начать «галлюцинировать» и вставлять не те символы, ломая логику выражения. С математикой тоже бывают проблемы, хотя современные модели умеют подключать внешних «экспертов» или писать код для вычислений, это не всегда работает идеально.

Про Python рекомендую вот эту публикацию.
github.blog/news-insights/octoverse/octoverse-2024/



Что получается
Для Go-проектов и ряда других LLM уже применимы на уровне мидлов, которые хорошо кодят, но которым надо давать точное техническое задание.

От разработчика нужны глубокие архитектурные знания и умение делать качественное ревью, иначе никак.

Если это есть и он готов выступать тимлидом LLM-агентов, то эффективность растёт в разы.

Разработчик общается с LLM так же, как раньше с джунами — ставит задачу, проверяет, корректирует.

Рутинные задачи, написание бойлерплейта, стандартных функций — всё это автоматизируется. Время освобождается. Фокус смещается с написания строк кода на архитектуру, декомпозицию задач, правильную постановку технического задания, которое теперь превращается в промптинг.

Код-ревью становится важнее: генерируемый код нужно внимательно читать.

Понимание архитектуры и умение читать чужой код становятся критически важными.

Меняется структура команд: потребность в джунах, которые в основном занимаются рутиной, снижается. Мидлы должны быстро расти до уровня Middle+, способных работать с архитектурой. Сильно растёт ценность Senior и лидов, способных грамотно ставить задачи и контролировать результат.

Результат: проект, который силами небольшой команды делался бы минимум месяц до начального рабочего состояния, у нас был собран за три дня. Ещё примерно столько же ушло на ревью (в том числе по ИБ), ручное тестирование крайних случаев и подготовку к продакшену. Затраты на токены — около 150 $.

Уверенность в коде? После моего ревью — высокая. Если сравнивать сгенерированный код до ревью с кодом джуна до ревью — уверенности в LLM-коде у меня больше. Он сразу пишет с учётом observability, тестов, лучших практик (если правильно попросить), даже с интеграцией токенов для защиты вызовов. Джуна этому ещё учить и учить.

Но это не освобождает от финального ручного ревью и тестирования крайних случаев, чтобы убедиться в отсутствии явных дырок, особенно в части информационной безопасности. Но пока тесты, которые генерируются в нашем флоу на этапе описания и документации, дырок не оставили.

Правильное техническое задание становится самой дорогой и важной частью.

Пайплайн «задача -> реализация» у нас уже радикально упростился. При обсуждении фич мы меньше зависим от опыта конкретного разработчика в конкретной технологии. Нужно интегрировать Cassandra? Не проблема, даже если у человека нет 5 лет опыта с ней. LLM выдаст «курс молодого бойца», поможет спланировать интеграцию, сгенерирует код. Разработчик контролирует процесс, вносит правки с учётом специфики нашего Go-кода. Стек стал гибче. Мы можем выбирать лучшие технологии под задачу, не ограничиваясь текущими знаниями команды. LLM помогает быстро вкатиться и интегрировать. Разработчик при этом получает реальный опыт с новыми инструментами.

Практическая скорость выросла, по нашим оценкам, примерно вдвое.

За один спринт (две недели) команда делает то, что раньше заняло бы месяц, и это при работе над новым проектом с нуля. Создать новый микросервис по образу и подобию существующих? Даёшь LLM пример, и он генерирует всю обвязку. Остаётся наполнить бизнес-логикой.

Время разработчиков перераспределилось: меньше совещаний (экономия оценивается примерно в 8 часов за две недели на человека), так как синхронизироваться по архитектуре нужно меньше.

И давайте ещё раз: меньше совещаний. Это важно. Синки только по необходимости.

Освободившееся время уходит на ревью, продумывание сложной логики и тот самый «вайб-кодинг» — параллельную работу, где на одном экране код генерит LLM, на другом — правишь или пишешь сам, потом меняешься ролями для ревью. Работа становится более «дирижёрской». Даже DevOps-задачи частично можно переложить на LLM (генерация Dockerfile, K8s-манифестов).

Но есть и проблема контроля. Иногда тяжело ограничить место изменений. Просишь LLM поправить что-то в одном конкретном месте, пишешь «только здесь, только это», но нет гарантии, что он не затронет что-то ещё в другом файле или модуле.

Интересно, что даже размер микросервиса теперь может определяться не только бизнес-контекстом, но и размером контекста LLM — микросервисы стали де-факто стандартом, потому что с ними LLM справляются легче.

Как мы теперь нанимаем
Мы требуем уметь хорошо кодить руками на входе.

LLM — это мощнейший ускоритель, но он не заменит фундаментального понимания принципов разработки, алгоритмов, структур данных, архитектуры. Без этого вы не сможете ни правильно поставить задачу LLM, ни адекватно оценить и отревьюить результат.

Про джунов есть опасения. Возможно, входной барьер в профессию станет выше — придётся больше учиться самостоятельно, на пет-проектах, прежде чем сможете претендовать на позицию, где ваши навыки постановки задач и ревью будут востребованы.

Этап джуна придётся проскакивать на тренировках, а не на реальных проектах.

Сам промпт-инжиниринг из области заученных лайфхаков превратился в умение сформулировать задачу. Модели достаточно развились, чтобы понимать свободные формулировки. Осталось только внести в них смысл — ради смысла и нужен профессионал. Нужно декомпозировать задачу, учесть все нюансы: версии библиотек и фреймворков (сказать: «Next.js», не уточнив App Router vs Pages Router — получить не то), протоколы взаимодействия (не указать gRPC — получить HTTP по умолчанию), конкретные требования к архитектуре, базам данных, безопасности.

Промптинг становится итерационным. Мы часто сначала генерируем верхнеуровневую архитектуру (например, в Markdown), правим её руками. Потом генерируем схемы взаимодействия между микросервисами (Protobuf, GraphQL, OpenAPI, SQL DDL) — это становится критически важным шагом, и только потом используем эту схему как часть промпта для генерации кода самих сервисов. Потом — документацию. Потом генерируем тесты (интеграционные тут особенно важны). Потом — структуру файлов и сигнатуры функций с комментариями. И только потом — сам код.

У новых людей меняется отношение к коду. Он становится расходным материалом, а не домашним питомцем — если что-то пошло не так, часто проще откатиться, доработать промпт и сгенерировать заново (иногда и 10 раз), чем пытаться исправить сложный баг в машинном коде.

Ценность навыка написания кода снижается в пользу навыка чтения чужого кода. Однако и тут есть нюанс: после оперативного запуска нового кода ценность смещается в сторону знания кодовой базы. И именно этот фактор делает разработчиков незаменимыми (вспоминаем про bus factor, которого боятся все инвесторы).

Тим О'Райли недавно написал отличную статью о том, как меняется кодинг. Его мысль перекликается с нашими наблюдениями: LLM — это следующий уровень абстракции после фреймворков. Если раньше многие разработчики использовали фреймворк, не до конца понимая, как он работает «под капотом», то скоро появится целый класс специалистов, которые будут «просить LLM сделать», не зная деталей реализации. Программирование как навык и как бизнес ждут серьёзные трансформации в ближайшие 5–10 лет. Да, похожие вещи говорили с появлением BASIC и других высокоуровневых языков, и это нормально — каждая такая революция меняла ландшафт.

Как реагируют программисты? Похоже, сообщество разделилось на несколько групп, как отмечалось в Wired. Первая группа верит, что разработчики будут не нужны. Вторая считает LLM продвинутыми стажёрами, верит в рутину, но не верит в понимание. И реалисты — видят усилитель возможностей и личной эффективности. Мы скорее относим себя к реалистам. LLM не убьёт профессию, но сильно её изменит. Мир разработки переживает переломный момент, и важно адаптироваться. Работы не становится меньше, она становится другой.

beta.h3llo.cloud
h3llo.cloud

Не просто ещё одна локация: рассказываем, как мы запустили выделенные серверы в Германии



Мы могли бы просто рассказать о характеристиках серверов — но это было бы слишком просто. Вместо этого поделимся тем, что осталось за кадром: нюансами запуска, вызовами и результатами, которыми по-настоящему гордимся. Поэтому мы хотим поделиться всей внутренней кухней запуска выделенных серверов в другой стране. Нюансы, трудности, конечно, результаты, которыми мы очень гордимся. Ведь работа с выделенными серверами в Германии оказалось намного насыщеннее, чем нам могло показаться на первый взгляд.

В начале были долгие размышления
Идея запустить выделенные серверы в Германии зрела давно. Но каждый раз, когда мы подходили к ней вплотную, возникал вопрос — а получится ли? Германия — не просто развитый рынок. Это одна из самых конкурентных IT-локаций в Европе. Здесь достаточно хостинг-провайдеров, которые работают с минимальными ценами и предлагают действительно мощное «железо». Казалось бы, куда уж тут влезать? К тому же мы рискуем достаточно большим бюджетом. Запуск выделенных серверов в другой стране — это далеко не дешевое удовольствие, так как устанавливается сразу много серверов в различных конфигурациях.

Но, если честно, похожие мысли у нас были и когда мы только выходили на рынок Франции. Тогда тоже казалось, что все позиции давно заняты, что есть «коллеги по цеху», которых не обойти ни по ценам, ни по предложению. Однако мы рискнули. Сначала запустили виртуальные серверы, затем — выделенные серверы. И, к нашему удивлению, Франция быстро стала одной из самых востребованных точек в нашей инфраструктуре. Именно этот опыт дал нам уверенность: стоит попробовать.

Нужно больше электричества
Идея всегда звучит интересно и легко. Гораздо важнее реализации. Вот тут действительно кроется огромный объем работы, причем не самой очевидной. Прежде всего, нужно найти дата-центр. Не хоть какой-нибудь, а с необходимым запасом питания, со свободными стойками, с нужными операторами и, самое главное, с возможностью масштабирования в будущем.

И вот тут начались трудности. Мы уже работали в Германии с дата-центром Equinix, но на момент подготовки проекта у них полностью закончился доступный запас электропитания. И это не единичный случай. Сейчас большинство дата-центров в Германии находятся в похожей ситуации: государство официально сообщило, что дополнительных мощностей не будет. По сути, вся индустрия получила коллективное письмо с этим предупреждением. Делать из него публичный документ мы, разумеется, не будем — но оно действительно существует.

Тем не менее, мы нашли площадку, которая соответствовала всем нашим требованиям. Там были и нужные нам провайдеры связи, и подходящие условия для размещения, и возможность расширения.

Нам удалось зарезервировать машинный зал под свои нужды и закрепить за собой 240 киловатт питания. Этого объема должно хватить на длительный период. Кроме того, в дата-центре достаточно свободных стоек — можно размещать оборудование партиями, не разрывая инфраструктуру на разные объекты в пределах одной страны. А такое, поверьте, встречается чаще, чем хотелось бы.

Казалось бы, всё готово. Но нет.


Диета из «немецких завтраков»
Для полноценной работы нам нужно было соединить новую площадку с Equinix — через кроссировки. Нам пообещали, что всё будет готово к концу февраля. Ждали. Напоминали. В итоге — получили соединение 1 апреля. Да, именно в День смеха. Но нам было не до смеха: за всё это время мы неоднократно переносили запуск, передвигали сроки и занимались внутренней логистикой.

План был простой — заполнить сразу пять стоек разом. Чтобы отправить команду один раз, установить всё оборудование и не тратить в будущем деньги на «удалённые руки». В Европе такие услуги стоят от 100 до 400 евро в час, и каждый вызов — это минус из бюджета.

Но планы, как это бывает, столкнулись с реальностью. Пока ждали кроссировки, мы начали использовать складские запасы для других локаций. В какой-то момент выяснилось, что на Германию банально не хватает дисков. Решили не откладывать и купить их на месте. Конечно же, в магазине не оказалось нужного количества в наличии — пришлось ждать поставку. Всё это слегка затормозило запуск, но останавливаться было нельзя.

Оборудование собрано, команда в деле
Когда всё, наконец, сошлось — и кроссировки, и диски, и доступ к стойкам — мы поехали. Сборку провела наша опытная команда, и на этот раз, к счастью, обошлось без форс-мажоров. Мы намеренно не называем точное имя нового дата-центра — это не принципиально для клиента, а вот для «коллег по рынку» это могла бы стать подсказка, которой мы предпочитаем не делиться. Ведь за каждым таким решением — огромная работа, десятки звонков, сложные переговоры и много времени.


От первой идеи до запуска прошло ровно полгода. Один из самых долгих проектов на нашей памяти. Рекордсмен сейчас Индия. Её запуск мы тоже готовим и надеемся закончить до конца апреля. Там работа длится уже больше года. Но это уже другая история.

Что предлагают выделенные серверы PQ.Hosting в Германии
А теперь теперь можно и немного характеристик — ну куда без этого!


Наша конфигурация построена на проверенных и производительных решениях. Каждый сервер оснащен двумя процессорами Intel Xeon E5-2697Av4 — это 32 физических ядра и 64 потока на одну машину. Частота начинается от 2.60 GHz и в Turbo-режиме может достигать 3.60 GHz. Оперативной памяти — от 64 до 384 гигабайт ECC DDR4, в зависимости от задач. Дисковая подсистема — от двух до четырёх SSD по 960 гигабайт каждый, уровня Enterprise.

Все оборудование подключено к стойкам с двумя независимыми блоками питания, что обеспечивает отказоустойчивость. Подключение — через порт на 10 Gbps, без ограничения скорости и учета трафика.

Полный доступ к серверу предоставляется через DCI-панель и интерфейс iLO. Установка системы и базовых скриптов выполняется автоматически. Активация сервера занимает не больше 30 минут после оплаты.


Никаких скрытых платежей. Никакой платы за установку. Всё прозрачно, просто и быстро. А главное — цена на выделенные серверы остается единой во всех странах. Это наш принцип.

А если потребуется индивидуальная сборка, то мы без проблем ее сделаем. Особенно часто это заказывают хостинг-провайдеры, для которых мы собираем «ноды» под ключ, с учётом всех требований. Кстати, эта опция доступна и в других странах — не только в Германии. По вопросам кастомных конфигураций лучшие пишите напрямую в Telegram: @pqhosting_sale

Работает круглосуточная техническая поддержка. Отдел продаж тоже всегда на связи. Мы переносим проекты с других хостингов бесплатно и поддерживаем все популярные операционные системы и CMS.


Все подробности — на странице локации. Кстати, сейчас у вас есть возможность неплохо сэкономить — по промокоду GERMANY20 серверы в Германии доступны со скидкой 20%. Спешите — промокод будет действовать только до 19 апреля 2025 года. А перед заказом вы можете бесплатно протестировать выделенные серверы! Для этого нужно написать запрос через тикет-систему.


Сухие факты о выделенных серверах в Германии:
  • 2 процессора Intel Xeon E5-2697Av4 (в сумме 32 ядра и 64 потока) — с высокой тактовой частотой (до 384 GB ECC RAM DDR4 и скоростными SSD-накопителями);
  • сетевой порт 10 Gbps и безлимитный трафик — идеально для ресурсов с высокой нагрузкой;
  • полный контроль над сервером: IPMI, собственная ОС, панели управления, доступ к оборудованию;
  • мгновенная активация — сервер будет готов к работе в течение 30 минут после оплаты;
  • никаких скрытых платежей и прозрачные условия аренды.

И самое главное, что так важно каждому клиенту PQ.Hosting: каждый сервер оснащён двумя блоками питания — для максимальной надёжности и отказоустойчивости.


Дополнительно:
  • Круглосуточная поддержка и администрирование.
  • Персональные скидки при долгосрочной аренде.
  • Бесплатный перенос проектов с других хостингов.
  • Поддержка всех популярных CMS и ОС.
  • Конфигурация «под ключ» с учётом всех ваших пожеланий.

А мы тем временем уже готовим следующий запуск. Следите за нашими новостями и обновлениями на сайте и в социальных сетях, впереди вас ждёт много интересного!

https://pq.hosting

Корабли Восток 3.0 отправляются с космодрома FirstVDS!



В честь Дня космонавтики запускаем акцию со скидками на виртуальные серверы, уникальными тарифами и…продолжением прошлогодней игры! В этот раз после долгой жизни на Марсе вам предстоит вернуться домой, на Землю.

Виртуальный помощник уже проложил курс, двигатели прогреты. Никаких гарантий, что это будет легко, но призы того стоят. Забирайте до 28 апреля:

Лимитированные спецтарифы «Восток 3.0»
  • 6 CPU
  • 10 Гб RAM
  • от 100 до 240 Гб SSD или NVMe-накопителя
  • Москва или Амстердам



Продолжение игры «Space adventure» с крутыми призами:
  • скидка до 30% на покупку нового VDS
  • до 500 ₽ на баланс
  • крутецкий мерч
  • LEGO Technic

firstvds.ru/spaceday2025