Подводим итоги марта: что мы сделали для вас!



Путешествия и новые горизонты
Прошедший месяц был наполнен интересными событиями и важными шагами! Мы посетили загадочную страну, чтобы настроить и установить новейшее оборудование, и, да, вы правильно угадали — это были Нидерланды!

Новые возможности с оборудованием
Мы поделились с вами нашим опытом работы в Нидерландах, показав новейшие серверы, их возможности и поделились захватывающими планами на будущее. Мы трудимся без усталости, чтобы предоставить вам лучшее!

10% кэшбек для наших пользователей
Запустили акцию с кэшбеком 10% на пополнение баланса любой суммой! Это наш способ сказать “спасибо” за вашу верность

Германия ждет
Затем мы отправились в Германию, где нас ждал не менее важный проект. Мы не только заменили старые SSD на новые NVMe, но и собрали сервер по индивидуальному запросу клиента для Colocation. Смотрим в будущее с оптимизмом и амбициями!

Скидки и акции
Мы также запустили уникальную акцию, предоставив возможность заказать выделенные серверы без платы за установку! Это было ограниченное предложение, но кто успел — тот выиграл!

Секретный анонс

CloudFest и партнерские связи
Не забываем о важных встречах и обменах опытом! Мы вернулись с CloudFest, где завели новые контакты, обсудили стратегии с партнерами и создали кучу интересных материалов для дальнейшего роста!

100% скидка при переносе проектов
Мы запустили акцию для тех, кто решит перенести проект с другого хостинга — скидка 100% на перенос и установку. Это наша поддержка для вашего проекта!

С каждым днем мы становимся лучше, а наша цель — не просто предоставлять вам качественные сервисы, но и создавать незабываемый опыт сотрудничества с нами

Ставьте лайки, делитесь постом, а мы будем и дальше радовать вас уникальными предложениями и новыми достижениями!

Вайб-кодинг: практика, о которой почему-то не говорят




В феврале мир разработки перевернулся с выходом Sonnet 3.7. Потому что вдруг внезапно оказалось, что джуны уже не очень-то и нужны. И нейросетка нормально заменяет мидлов тоже.

Я откидываюсь в кресле, беру наушники и смотрю, как работает LLM. Можно сразу несколько, работающих над разными частями проекта:


Пример проекта с прикручиванием аналитики к инфраструктуре:
  • Сначала в GPT 4.5 провёл продуктовые исследования и сформулировал требования.
  • Попросил превратить это в архитектурный план.
  • Отревьюил, поправил тупые ошибки.
  • Затем этот план (как метапромпт) скормил Sonnet в VS Code через плагин Cline. Попросил сначала создать общую структуру, шаблонные имплементации, документацию, спецификации API (protobuf для gRPC, REST API).
  • Архитектурно сразу заложил микросервисы. Sonnet для каждого сервиса подобрал и обосновал оптимальную базу данных (где-то Postgres, где-то ClickHouse и т.д.).
  • Сгенерировал SDK для взаимодействия, примеры использования. Сразу заложил observability: централизованные логи, метрики Prometheus, трейсинг Jaeger/Tempo, дашборды для Grafana.
  • Потом итерационно генерировал код: сначала тесты (End-to-end, BDD), потом имплементацию под эти тесты.
  • Написал манифесты для Kubernetes и Docker Compose для локального запуска.
  • Сгенерировал даже скрипты для тестов REST API через curl и gRPC через gRPCurl.

И всё.

А теперь практика — что делать с тем, что современные нейросети учились преимущественно на говнокоде и как быть с джунами.
Качество LLM-кодинга сильно зависит от языка программирования
Главная проблема — объём блока (точнее, зависимостей) и нормальная обучающая выборка.

Scala
Попытки написать на Scala работающий микросервис по OpenAPI-спецификации провалились.

Модель генерирует код, он не компилируется. Скармливаешь ошибки компиляции — следующая итерация кода содержит ещё больше ошибок.

Вероятно, это высокая сложность и неоднозначность языка Scala (функциональный стиль, множество способов сделать одно и то же) плюс, вероятно, меньшая и менее качественная обучающая выборка по сравнению с другими языками.

Попытки транслировать код с другого языка (например, с Go) в Scala тоже могут быть проблематичны, особенно если требуется сохранить функциональный стиль Scala — на понятиях PHP, например, такое просто не опишешь.

Скала очень недетерминирована, её стиль отличается от мейнстримовых других языков достаточно сильно, а кодовая база не очень большая. В итоге LLM для сложных проектов на практике пока непригодны.

Golang
Совершенно другая история. Современные модели генерят на Go очень хороший, часто компилирующийся из коробки код. Скорее всего, работает комбинация факторов:
  • Go — очень квадратно-гнездовой язык. Задачу чаще всего можно решить одним, максимум двумя способами. Нет такого разброса стилей и подходов, как в Scala или даже JS. Это упрощает обучение для LLM: меньше вариативность «правильных» ответов на один и тот же запрос. Эта прямолинейность отличается от C, который хотя и прост на первый взгляд, как автомат Калашникова, но позволяет легко «провалиться» на низкий уровень, иногда незаметно. Go тоже позволяет уйти в сторону ассемблера, но при решении стандартных задач он очень явно описывает путь.
  • Строгая стандартизация. Встроенный форматер (gofmt), линтеры (golint), общепринятые конвенции — всё это делает кодовую базу на Go очень однородной. Это лучше, чем в Python, где тоже есть линтеры, но вариативности в написании больше. В Go сама идея языка была в том, чтобы код легко читался всей командой.
  • Качественная и большая обучающая выборка. Огромное количество успешного Open Source написано на Go (Kubernetes и вся его экосистема, Docker, Prometheus, Terraform и т.д.). Вероятно, этот код использовался для обучения моделей с высоким весом, возможно, даже с усилением (как если бы Википедию добавили в базу 10 раз).
  • Меньше «говнокода». Возможно, Go — язык более молодой, его чаще выбирают уже более опытные разработчики для серьёзных проектов (это сейчас слабое допущение). В отличие от Python или JS, куда порог входа ниже и больше новичков, генерирующих код не самого высокого качества, который тоже попадает в обучающие выборки. Плюс сам язык Go меньше прощает ошибок и не провоцирует написание «кривого» кода так, как это делает, например, JS. Сам язык как бы «не предусматривает» говнокода в той же мере.
  • Почему мы сами выбрали Go — бинарники маленькие, памяти ест мало, работает быстро. Хотя и PHP последних версий тоже компилируется, но это отдельный спор. До сих пор, кстати, не утих другой холивар — можно ли считать PHP языком программирования или нет. Я придерживаюсь мнения, что можно. Но пишем мы преимущественно на Go.

Rust
Тоже хайповый современный язык. LLM генерят код, который проходит проверку синтаксиса в IDE. Но при попытке сборки (которая в Rust сложнее, чем в Go) вылезает куча ошибок. И вот с исправлением этих ошибок сборки LLM справляются хуже, чем с написанием изначального кода или исправлением ошибок в Go. Вероятно, дело опять же в сложности языка и, возможно, пока ещё менее репрезентативной выборке кода с решёнными проблемами сборки.
Экспериментировали мы не очень много.

Java
Самая интересная ситуация, показывающая принципы LLM-кодинга.
Проблема — в структуре типичного Java-проекта: там везде глубокая вложенность пакетов, сложные цепочки наследования. Чтобы понять, что происходит в одной функции, LLM нужно проанализировать много связанного кода.
Это требует огромного окна контекста: меньше 64к токенов — почти бесполезно для серьёзного Java-кодинга. К счастью, модели с большими окнами появились.
Ещё нужны агенты для исследования кодовой базы. Инструменты вроде Cursor, Cline позволяют LLM «ходить» по проекту. Но и тут проблема: системный промпт агента (который сам по себе может быть большим, на тысячи токенов), прочитанные файлы классов и интерфейсов, дерево проекта — всё это быстро забивает даже большое окно контекста, особенно учитывая, что в Java много мелких лексем (точки, скобки), каждая из которых — токен.
То есть сама структура проектов на Java такая, что нужно не только смотреть тот блок, где сейчас идёт редактирование, но и держать «в голове» вообще всё то, что происходит в зависимостях. Это, кстати, причина тех самых мемов про состояние потока программиста. Вот у LLM то же самое.

Идеальное решение (которого пока нет в массовом использовании) — агенты, способные хранить состояние проекта в долговременной памяти, а не только в текущем окне контекста. Тогда LLM сможет «помнить» всю структуру и историю изменений. Сейчас же каждый новый агент начинает почти с нуля.
Сравните с Go: там часто достаточно контекста одного файла + импортов, чтобы понять, что происходит. Добавьте нашему вымышленному программисту не только отвлекающие звонки, но и болезнь Альцгеймера, чтобы он забывал задачу каждые 15 минут, — и вы получите примерное представление о LLM-кодинге на Java.

JavaScript
Динамическая типизация, язык многое прощает, разные стили, потенциально огромное количество некачественного кода в обучающей выборке. LLM сложнее строить логические цепочки, одна и та же лексема может иметь разный смысл.
TypeScript показывает заметно лучшие результаты благодаря статической типизации.

Регулярные выражения
В целом LLM пишут их неплохо. Но из-за того, что регулярки состоят из очень маленьких лексем (часто одиночных символов), а модели часто работают с ненулевой «температурой» (параметр, отвечающий за креативность/случайность ответа), они могут быстро начать «галлюцинировать» и вставлять не те символы, ломая логику выражения. С математикой тоже бывают проблемы, хотя современные модели умеют подключать внешних «экспертов» или писать код для вычислений, это не всегда работает идеально.

Про Python рекомендую вот эту публикацию.
github.blog/news-insights/octoverse/octoverse-2024/



Что получается
Для Go-проектов и ряда других LLM уже применимы на уровне мидлов, которые хорошо кодят, но которым надо давать точное техническое задание.

От разработчика нужны глубокие архитектурные знания и умение делать качественное ревью, иначе никак.

Если это есть и он готов выступать тимлидом LLM-агентов, то эффективность растёт в разы.

Разработчик общается с LLM так же, как раньше с джунами — ставит задачу, проверяет, корректирует.

Рутинные задачи, написание бойлерплейта, стандартных функций — всё это автоматизируется. Время освобождается. Фокус смещается с написания строк кода на архитектуру, декомпозицию задач, правильную постановку технического задания, которое теперь превращается в промптинг.

Код-ревью становится важнее: генерируемый код нужно внимательно читать.

Понимание архитектуры и умение читать чужой код становятся критически важными.

Меняется структура команд: потребность в джунах, которые в основном занимаются рутиной, снижается. Мидлы должны быстро расти до уровня Middle+, способных работать с архитектурой. Сильно растёт ценность Senior и лидов, способных грамотно ставить задачи и контролировать результат.

Результат: проект, который силами небольшой команды делался бы минимум месяц до начального рабочего состояния, у нас был собран за три дня. Ещё примерно столько же ушло на ревью (в том числе по ИБ), ручное тестирование крайних случаев и подготовку к продакшену. Затраты на токены — около 150 $.

Уверенность в коде? После моего ревью — высокая. Если сравнивать сгенерированный код до ревью с кодом джуна до ревью — уверенности в LLM-коде у меня больше. Он сразу пишет с учётом observability, тестов, лучших практик (если правильно попросить), даже с интеграцией токенов для защиты вызовов. Джуна этому ещё учить и учить.

Но это не освобождает от финального ручного ревью и тестирования крайних случаев, чтобы убедиться в отсутствии явных дырок, особенно в части информационной безопасности. Но пока тесты, которые генерируются в нашем флоу на этапе описания и документации, дырок не оставили.

Правильное техническое задание становится самой дорогой и важной частью.

Пайплайн «задача -> реализация» у нас уже радикально упростился. При обсуждении фич мы меньше зависим от опыта конкретного разработчика в конкретной технологии. Нужно интегрировать Cassandra? Не проблема, даже если у человека нет 5 лет опыта с ней. LLM выдаст «курс молодого бойца», поможет спланировать интеграцию, сгенерирует код. Разработчик контролирует процесс, вносит правки с учётом специфики нашего Go-кода. Стек стал гибче. Мы можем выбирать лучшие технологии под задачу, не ограничиваясь текущими знаниями команды. LLM помогает быстро вкатиться и интегрировать. Разработчик при этом получает реальный опыт с новыми инструментами.

Практическая скорость выросла, по нашим оценкам, примерно вдвое.

За один спринт (две недели) команда делает то, что раньше заняло бы месяц, и это при работе над новым проектом с нуля. Создать новый микросервис по образу и подобию существующих? Даёшь LLM пример, и он генерирует всю обвязку. Остаётся наполнить бизнес-логикой.

Время разработчиков перераспределилось: меньше совещаний (экономия оценивается примерно в 8 часов за две недели на человека), так как синхронизироваться по архитектуре нужно меньше.

И давайте ещё раз: меньше совещаний. Это важно. Синки только по необходимости.

Освободившееся время уходит на ревью, продумывание сложной логики и тот самый «вайб-кодинг» — параллельную работу, где на одном экране код генерит LLM, на другом — правишь или пишешь сам, потом меняешься ролями для ревью. Работа становится более «дирижёрской». Даже DevOps-задачи частично можно переложить на LLM (генерация Dockerfile, K8s-манифестов).

Но есть и проблема контроля. Иногда тяжело ограничить место изменений. Просишь LLM поправить что-то в одном конкретном месте, пишешь «только здесь, только это», но нет гарантии, что он не затронет что-то ещё в другом файле или модуле.

Интересно, что даже размер микросервиса теперь может определяться не только бизнес-контекстом, но и размером контекста LLM — микросервисы стали де-факто стандартом, потому что с ними LLM справляются легче.

Как мы теперь нанимаем
Мы требуем уметь хорошо кодить руками на входе.

LLM — это мощнейший ускоритель, но он не заменит фундаментального понимания принципов разработки, алгоритмов, структур данных, архитектуры. Без этого вы не сможете ни правильно поставить задачу LLM, ни адекватно оценить и отревьюить результат.

Про джунов есть опасения. Возможно, входной барьер в профессию станет выше — придётся больше учиться самостоятельно, на пет-проектах, прежде чем сможете претендовать на позицию, где ваши навыки постановки задач и ревью будут востребованы.

Этап джуна придётся проскакивать на тренировках, а не на реальных проектах.

Сам промпт-инжиниринг из области заученных лайфхаков превратился в умение сформулировать задачу. Модели достаточно развились, чтобы понимать свободные формулировки. Осталось только внести в них смысл — ради смысла и нужен профессионал. Нужно декомпозировать задачу, учесть все нюансы: версии библиотек и фреймворков (сказать: «Next.js», не уточнив App Router vs Pages Router — получить не то), протоколы взаимодействия (не указать gRPC — получить HTTP по умолчанию), конкретные требования к архитектуре, базам данных, безопасности.

Промптинг становится итерационным. Мы часто сначала генерируем верхнеуровневую архитектуру (например, в Markdown), правим её руками. Потом генерируем схемы взаимодействия между микросервисами (Protobuf, GraphQL, OpenAPI, SQL DDL) — это становится критически важным шагом, и только потом используем эту схему как часть промпта для генерации кода самих сервисов. Потом — документацию. Потом генерируем тесты (интеграционные тут особенно важны). Потом — структуру файлов и сигнатуры функций с комментариями. И только потом — сам код.

У новых людей меняется отношение к коду. Он становится расходным материалом, а не домашним питомцем — если что-то пошло не так, часто проще откатиться, доработать промпт и сгенерировать заново (иногда и 10 раз), чем пытаться исправить сложный баг в машинном коде.

Ценность навыка написания кода снижается в пользу навыка чтения чужого кода. Однако и тут есть нюанс: после оперативного запуска нового кода ценность смещается в сторону знания кодовой базы. И именно этот фактор делает разработчиков незаменимыми (вспоминаем про bus factor, которого боятся все инвесторы).

Тим О'Райли недавно написал отличную статью о том, как меняется кодинг. Его мысль перекликается с нашими наблюдениями: LLM — это следующий уровень абстракции после фреймворков. Если раньше многие разработчики использовали фреймворк, не до конца понимая, как он работает «под капотом», то скоро появится целый класс специалистов, которые будут «просить LLM сделать», не зная деталей реализации. Программирование как навык и как бизнес ждут серьёзные трансформации в ближайшие 5–10 лет. Да, похожие вещи говорили с появлением BASIC и других высокоуровневых языков, и это нормально — каждая такая революция меняла ландшафт.

Как реагируют программисты? Похоже, сообщество разделилось на несколько групп, как отмечалось в Wired. Первая группа верит, что разработчики будут не нужны. Вторая считает LLM продвинутыми стажёрами, верит в рутину, но не верит в понимание. И реалисты — видят усилитель возможностей и личной эффективности. Мы скорее относим себя к реалистам. LLM не убьёт профессию, но сильно её изменит. Мир разработки переживает переломный момент, и важно адаптироваться. Работы не становится меньше, она становится другой.

beta.h3llo.cloud
h3llo.cloud

Не просто ещё одна локация: рассказываем, как мы запустили выделенные серверы в Германии



Мы могли бы просто рассказать о характеристиках серверов — но это было бы слишком просто. Вместо этого поделимся тем, что осталось за кадром: нюансами запуска, вызовами и результатами, которыми по-настоящему гордимся. Поэтому мы хотим поделиться всей внутренней кухней запуска выделенных серверов в другой стране. Нюансы, трудности, конечно, результаты, которыми мы очень гордимся. Ведь работа с выделенными серверами в Германии оказалось намного насыщеннее, чем нам могло показаться на первый взгляд.

В начале были долгие размышления
Идея запустить выделенные серверы в Германии зрела давно. Но каждый раз, когда мы подходили к ней вплотную, возникал вопрос — а получится ли? Германия — не просто развитый рынок. Это одна из самых конкурентных IT-локаций в Европе. Здесь достаточно хостинг-провайдеров, которые работают с минимальными ценами и предлагают действительно мощное «железо». Казалось бы, куда уж тут влезать? К тому же мы рискуем достаточно большим бюджетом. Запуск выделенных серверов в другой стране — это далеко не дешевое удовольствие, так как устанавливается сразу много серверов в различных конфигурациях.

Но, если честно, похожие мысли у нас были и когда мы только выходили на рынок Франции. Тогда тоже казалось, что все позиции давно заняты, что есть «коллеги по цеху», которых не обойти ни по ценам, ни по предложению. Однако мы рискнули. Сначала запустили виртуальные серверы, затем — выделенные серверы. И, к нашему удивлению, Франция быстро стала одной из самых востребованных точек в нашей инфраструктуре. Именно этот опыт дал нам уверенность: стоит попробовать.

Нужно больше электричества
Идея всегда звучит интересно и легко. Гораздо важнее реализации. Вот тут действительно кроется огромный объем работы, причем не самой очевидной. Прежде всего, нужно найти дата-центр. Не хоть какой-нибудь, а с необходимым запасом питания, со свободными стойками, с нужными операторами и, самое главное, с возможностью масштабирования в будущем.

И вот тут начались трудности. Мы уже работали в Германии с дата-центром Equinix, но на момент подготовки проекта у них полностью закончился доступный запас электропитания. И это не единичный случай. Сейчас большинство дата-центров в Германии находятся в похожей ситуации: государство официально сообщило, что дополнительных мощностей не будет. По сути, вся индустрия получила коллективное письмо с этим предупреждением. Делать из него публичный документ мы, разумеется, не будем — но оно действительно существует.

Тем не менее, мы нашли площадку, которая соответствовала всем нашим требованиям. Там были и нужные нам провайдеры связи, и подходящие условия для размещения, и возможность расширения.

Нам удалось зарезервировать машинный зал под свои нужды и закрепить за собой 240 киловатт питания. Этого объема должно хватить на длительный период. Кроме того, в дата-центре достаточно свободных стоек — можно размещать оборудование партиями, не разрывая инфраструктуру на разные объекты в пределах одной страны. А такое, поверьте, встречается чаще, чем хотелось бы.

Казалось бы, всё готово. Но нет.


Диета из «немецких завтраков»
Для полноценной работы нам нужно было соединить новую площадку с Equinix — через кроссировки. Нам пообещали, что всё будет готово к концу февраля. Ждали. Напоминали. В итоге — получили соединение 1 апреля. Да, именно в День смеха. Но нам было не до смеха: за всё это время мы неоднократно переносили запуск, передвигали сроки и занимались внутренней логистикой.

План был простой — заполнить сразу пять стоек разом. Чтобы отправить команду один раз, установить всё оборудование и не тратить в будущем деньги на «удалённые руки». В Европе такие услуги стоят от 100 до 400 евро в час, и каждый вызов — это минус из бюджета.

Но планы, как это бывает, столкнулись с реальностью. Пока ждали кроссировки, мы начали использовать складские запасы для других локаций. В какой-то момент выяснилось, что на Германию банально не хватает дисков. Решили не откладывать и купить их на месте. Конечно же, в магазине не оказалось нужного количества в наличии — пришлось ждать поставку. Всё это слегка затормозило запуск, но останавливаться было нельзя.

Оборудование собрано, команда в деле
Когда всё, наконец, сошлось — и кроссировки, и диски, и доступ к стойкам — мы поехали. Сборку провела наша опытная команда, и на этот раз, к счастью, обошлось без форс-мажоров. Мы намеренно не называем точное имя нового дата-центра — это не принципиально для клиента, а вот для «коллег по рынку» это могла бы стать подсказка, которой мы предпочитаем не делиться. Ведь за каждым таким решением — огромная работа, десятки звонков, сложные переговоры и много времени.


От первой идеи до запуска прошло ровно полгода. Один из самых долгих проектов на нашей памяти. Рекордсмен сейчас Индия. Её запуск мы тоже готовим и надеемся закончить до конца апреля. Там работа длится уже больше года. Но это уже другая история.

Что предлагают выделенные серверы PQ.Hosting в Германии
А теперь теперь можно и немного характеристик — ну куда без этого!


Наша конфигурация построена на проверенных и производительных решениях. Каждый сервер оснащен двумя процессорами Intel Xeon E5-2697Av4 — это 32 физических ядра и 64 потока на одну машину. Частота начинается от 2.60 GHz и в Turbo-режиме может достигать 3.60 GHz. Оперативной памяти — от 64 до 384 гигабайт ECC DDR4, в зависимости от задач. Дисковая подсистема — от двух до четырёх SSD по 960 гигабайт каждый, уровня Enterprise.

Все оборудование подключено к стойкам с двумя независимыми блоками питания, что обеспечивает отказоустойчивость. Подключение — через порт на 10 Gbps, без ограничения скорости и учета трафика.

Полный доступ к серверу предоставляется через DCI-панель и интерфейс iLO. Установка системы и базовых скриптов выполняется автоматически. Активация сервера занимает не больше 30 минут после оплаты.


Никаких скрытых платежей. Никакой платы за установку. Всё прозрачно, просто и быстро. А главное — цена на выделенные серверы остается единой во всех странах. Это наш принцип.

А если потребуется индивидуальная сборка, то мы без проблем ее сделаем. Особенно часто это заказывают хостинг-провайдеры, для которых мы собираем «ноды» под ключ, с учётом всех требований. Кстати, эта опция доступна и в других странах — не только в Германии. По вопросам кастомных конфигураций лучшие пишите напрямую в Telegram: @pqhosting_sale

Работает круглосуточная техническая поддержка. Отдел продаж тоже всегда на связи. Мы переносим проекты с других хостингов бесплатно и поддерживаем все популярные операционные системы и CMS.


Все подробности — на странице локации. Кстати, сейчас у вас есть возможность неплохо сэкономить — по промокоду GERMANY20 серверы в Германии доступны со скидкой 20%. Спешите — промокод будет действовать только до 19 апреля 2025 года. А перед заказом вы можете бесплатно протестировать выделенные серверы! Для этого нужно написать запрос через тикет-систему.


Сухие факты о выделенных серверах в Германии:
  • 2 процессора Intel Xeon E5-2697Av4 (в сумме 32 ядра и 64 потока) — с высокой тактовой частотой (до 384 GB ECC RAM DDR4 и скоростными SSD-накопителями);
  • сетевой порт 10 Gbps и безлимитный трафик — идеально для ресурсов с высокой нагрузкой;
  • полный контроль над сервером: IPMI, собственная ОС, панели управления, доступ к оборудованию;
  • мгновенная активация — сервер будет готов к работе в течение 30 минут после оплаты;
  • никаких скрытых платежей и прозрачные условия аренды.

И самое главное, что так важно каждому клиенту PQ.Hosting: каждый сервер оснащён двумя блоками питания — для максимальной надёжности и отказоустойчивости.


Дополнительно:
  • Круглосуточная поддержка и администрирование.
  • Персональные скидки при долгосрочной аренде.
  • Бесплатный перенос проектов с других хостингов.
  • Поддержка всех популярных CMS и ОС.
  • Конфигурация «под ключ» с учётом всех ваших пожеланий.

А мы тем временем уже готовим следующий запуск. Следите за нашими новостями и обновлениями на сайте и в социальных сетях, впереди вас ждёт много интересного!

https://pq.hosting

Корабли Восток 3.0 отправляются с космодрома FirstVDS!



В честь Дня космонавтики запускаем акцию со скидками на виртуальные серверы, уникальными тарифами и…продолжением прошлогодней игры! В этот раз после долгой жизни на Марсе вам предстоит вернуться домой, на Землю.

Виртуальный помощник уже проложил курс, двигатели прогреты. Никаких гарантий, что это будет легко, но призы того стоят. Забирайте до 28 апреля:

Лимитированные спецтарифы «Восток 3.0»
  • 6 CPU
  • 10 Гб RAM
  • от 100 до 240 Гб SSD или NVMe-накопителя
  • Москва или Амстердам



Продолжение игры «Space adventure» с крутыми призами:
  • скидка до 30% на покупку нового VDS
  • до 500 ₽ на баланс
  • крутецкий мерч
  • LEGO Technic

firstvds.ru/spaceday2025

Ispmanager на Demo Day от Рег.ру!



Хотите разобраться, как использовать облако для роста бизнеса? Добро пожаловать на Demo Day — день глубокого погружения в облачную инфраструктуру вместе с экспертами ispmanager и Рег.ру.
  • 18 апреля | с 10:00 до 14:00 (по МСК)
  • Онлайн | Бесплатная регистрация (Количество участников ограничено)

Максим Дарулис, коммерческий директор ispmanager, выступит с докладом «Лёгкий старт в облаке, или как ispmanager упрощает жизнь пользователей».

Что обсудим:
  • ispmanager в облаке vs обычный shared-хостинг;
  • как экономить 100+ часов работы сисадмина с панелью управления;
  • что нового в панели ispmanager;
  • почему платные панели — разумная инвестиция;
  • как ispmanager защитит ваш сервер и причем здесь… ниндзя?

Кому пригодится:
  • вы хотите перейти в облако, но не знаете, с чего начать;
  • вы уже используете облачные технологии и ищите больше возможностей для экономии ресурсов и масштабирования бизнеса.

Регистрируйтесь сейчас по кнопке ниже, чтобы забронировать место regru.timepad.ru/event/3281349/

После прохождения идентификации через Госуслуги мы начислим 1000 бонусов




В соответствии с Правилами регистрации доменных имен в доменах .ru и.рф недостоверность хранящихся в Реестре данных об администраторе может послужить причиной прекращения делегирования доменного имени.

Для поддержания актуальности данных в Реестре по домену, проверьте корректность сведений в договоре Руцентра, а также привяжите к договору вашу учетную запись на Госуслугах.

Это позволит вам:
  • авторизовываться в личном кабинете Руцентра через Госуслуги без необходимости вводить номер договора и пароль;
  • при изменении паспортных данных обновлять их в договоре с Руцентром без предоставления заявления и копии нового паспорта;
  • соответствовать требованиям, предъявляемым к пользователям услуг хостинга Руцентра.
После прохождения идентификации через Госуслуги мы начислим 1000 бонусов на ваш бонусный счет. 1 бонус = 1 рубль. Бонусы можно использовать для оплаты до 50% стоимости регистрации доменных имен .ru и.рф в течение месяца.

www.nic.ru/help/kak-fizicheskomu-licu-projti-identifikaciyu-cherez-gosuslugi_12188.html

Почта для бизнеса на вашем домене со скидкой 30%!




Почта для вашего домена со скидкой 30%

Уважаемый клиент!
Корпоративный почтовый адрес — признак серьезности бизнеса и показатель уровня развития компании. Используйте почту для бизнеса — профессиональное решение с защитой от спама и вирусов, неограниченным трафиком и количеством почтовых ящиков.

В течение 14 дней для вас действует скидка 30% по персональному промокоду 5JH3Y9BJS5 на любой тариф почты с любым периодом. Выберите подходящий тариф и введите промокод на этапе подтверждения заказа.
Вернем 20% от стоимости заказа на бонусный счет. Кешбэк можно использовать для оплаты нового заказа.
www.nic.ru/catalog/mail/on-domain/

Протестировали DeepSeek-R1 на наших серверах за вас





Современные языковые модели (LLM) помогают бизнесу автоматизировать задачи, анализировать данные и создавать контент. Но их использование связано с рисками: утечки данных в облаке или сложности локального развёртывания.

Мы протестировали DeepSeek-R1 – новую модель от DeepSeek (2025) – в локальной среде и делимся результатами.

В первой части исследования:
  • Запуск полной версии на CPU
  • Анализ потребления ресурсов и качества работы
  • Сравнение с облегчёнными дистиллятами
  • Цель – понять, насколько локальные LLM подходят для бизнес-задач.

1dedic.ru/content/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo

Интуиция или ML?



В книжном магазине работает дедушка Алексей. Он продает книги уже 40 лет и с первого взгляда может понять, что порекомендовать покупателю. Учитывает все: погоду, настроение людей и свой богатый опыт.

Но недавно в магазин пришли аналитики и внедрили ML-модель. Она анализирует тренды, акции, лайки и данные о продажах за последние 10 лет.

Проблема
ML-модель ошибается. Она не ловит неожиданные всплески спроса. А дедушка по-прежнему продает лучше.

Вопрос
Как сделать так, чтобы ML обошел человека?

Публикуйте ответ в Telegram-сообществе MLечный путь. Авторы трех самых интересных решений получат эксклюзивный мерч от Selectel.
t.me/+A_B1wfTwXVRiYzYy

Также в чате мы обсуждаем все новости о технологическом митапе MLечный путь 2025 — 23 апреля. Региструйтесь, чтобы занять место на офлайн-встрече!

Потребовались месяцы



Потребовались месяцы, чтобы этот пост был готов, но это потому, что 2024 год стал для нас еще одним большим годом! Мы создали множество замечательных новых вещей, преодолели невероятные трудности и встретили и поддержали еще больше членов сообщества. Я очень старался сделать этот обзор работы 2024 года кратким, но, как оказалось, вы просто не можете даже начать подчеркивать все влияние этого огромного и активного сообщества, не сделав его слишком длинным.

Во-первых: спасибо.
Прежде чем перейти к списку достижений сообщества AlmaLinux в этом году, я хочу выразить свою благодарность.

Поддержка нашего сообщества гарантирует, что мы продолжим достигать нашей цели — быть самым стабильным, безопасным и простым в использовании корпоративным дистрибутивом Linux. Будь то финансовая поддержка, помощь в распространении информации, укомплектование стендов на мероприятиях, улучшение переводов на нашем веб-сайте, помощь друг другу на форумах или в чате или просто ношение значка AlmaLinux — все, что вы делаете, помогает, и я не могу достаточно вас отблагодарить.

Новые версии ОС AlmaLinux и больше платформ для ее запуска!
Наша главная цель — продолжать предоставлять стабильные, безопасные, совместимые с Red Hat Enterprise Linux выпуски AlmaLinux. В 2024 году мы выпустили AlmaLinux 9.4 и AlmaLinux 9.5, а также последнюю младшую версию 8 — AlmaLinux 8.10. Мы легко продолжили оправдывать ожидания пользователей AlmaLinux, выпустив нашу новую версию AlmaLinux менее чем через неделю после RHEL.

Если вам интересно, есть две причины, по которым мы постоянно выпускаем через 6 дней после RHEL. Во-первых: с нашим новым процессом сборки у нас больше работы и тестирования, прежде чем мы будем готовы выпустить AlmaLinux для вас. Раньше эта работа выполнялась чуть больше чем за день, но теперь она занимает около 2 дней. Поскольку новые второстепенные версии RHEL обычно выпускаются во вторник, мы обычно готовы выпустить их ближе к вечеру в четверг, но мы слишком заботимся о нашем сообществе, чтобы выпускать их в пятницу. :D

Мы также анонсировали нашу совершенно новую версию AlmaLinux OS Kitten, которая представляет собой версию AlmaLinux OS, ориентированную на разработку, и в настоящее время является стабильной предварительной версией AlmaLinux OS 10.


Хотя их и не так много по сравнению с 1,4 млн+ AlmaLinux OS 8 и 9, у нас уже есть несколько тысяч устройств, зарегистрированных в нашем публичном зеркале, на которых работает AlmaLinux OS Kitten 10! Для ветки разработки это довольно круто. Она также служит в качестве апстрима для нескольких проектов и уже помогает проектам на основе AlmaLinux подготовиться к AlmaLinux OS 10 — именно то, на что мы надеялись!

Как всегда, мы должны поблагодарить наших замечательных Core, Infra и Build SIG за эти быстрые релизы! Они очень сосредоточены на удовлетворении потребностей нашего сообщества пользователей, и быстрый выпуск обновлений для них — это своего рода одержимость.

Говоря о нуждах сообщества — ваши отзывы помогают сделать эти релизы успешными! Вы можете помочь, тестируя бета-релизы по мере их выхода, сообщая об ошибках и отвечая на комментарии и вопросы на форумах или в нашем чате.

В этом году мы также добавили поддержку Raspberry Pi 5 и начали работать с нашими друзьями из Fedora и CentOS, чтобы подготовиться к будущей поддержке RISC-V!

Продолжаем принимать нашу свободу
Когда мы были удивлены изменениями Red Hat в 2023 году, нам дали новую свободу, которой мы были очень рады воспользоваться. Однако из-за внезапного характера этих изменений обсуждения о том, где отклониться от RHEL и какие изменения мы могли бы захотеть внести, проходили в относительно закрытом режиме.

Чтобы исправить это, мы создали Руководящий комитет по инженерии AlmaLinux, или ALESCo! Короче говоря, ALESCo — это группа инженеров, активно участвующих в использовании и разработке AlmaLinux, сформированная в комитет, который в целом руководит техническим прогрессом и ростом AlmaLinux как операционной системы. Он выступает в качестве центральной точки сотрудничества для SIG AlmaLinux и сообщества в целом и является движущей силой любых отклонений, которые AlmaLinux берет из наших апстримов, гарантируя при этом полную совместимость с RHEL.

Например, узнав о таких уязвимостях CVE, как CVE-2024-6387 (regreSSHion) и CVE-2024-6409, компания ALESCo приняла решение создать обновление и запустить пакет в производство самостоятельно, не дожидаясь обновления CentOS Stream/RHEL.

Мы с нетерпением ждем, что ALESCo продолжит публично руководить развитием ОС, способствуя достижению нашей цели — обеспечению полной прозрачности в отношении технических решений, касающихся AlmaLinux.

ELevate получает еще 3 ОС и еще большую гибкость
В апреле 2024 года мы расширили ELevate для поддержки обновления устройств под управлением CentOS 6 до поддерживаемой операционной системы (которая практически сразу же начала использоваться в производстве). Мы также добавили поддержку обновления с Scientific Linux 7 и CentOS Stream 8.


Одной из распространенных болевых точек было то, что ELevate имел такое ограниченное количество репозиториев, которые он мог поддерживать во время обновления, и мы расширили и это! Вы можете увидеть полный список поддерживаемых репозиториев на нашей вики, и даже внести свой вклад в поддержку дополнительных репозиториев для ELevate самостоятельно!

Рост сообщества AlmaLinux
В 2024 году мы расширили сообщество AlmaLinux всеми возможными способами! Мы анонсировали два новых SIG: HPC и AI SIG, а также Certification SIG! Мы увеличили количество членов-спонсоров на 9, доведя общее число до 34. Мы увеличили количество индивидуальных спонсоров на GitHub и Open Collective до более чем 40. Мы увеличили количество зеркал в нашей глобальной системе зеркал до более чем 450.

Один из самых простых способов, с помощью которых мы увидели доказательства нашего роста, — это экспоненциальный рост устройств, обращающихся к зеркальной системе за обновлениями. Хотя это число показывает лишь часть устройств, работающих под управлением AlmaLinux (потому что не все используют публичную систему обновлений), оно является хорошим представлением продолжающегося расширения нашего глобального сообщества.



Фонд ОС AlmaLinux продолжал расширять членство, и мы приветствовали еще больше спонсоров в фонде. К декабрю мы довели общее число корпоративных спонсоров до 34.

Для нас было честью приветствовать CloudLinux, Tuxcare, Cybertrust Japan, black.host, procomputers.com, Hivelocity, Mattermost, Codenotary, ATIX AG (orcharhino), World4You Internet Services (бренд IONOS Group), KnownHost, WebPros, IPInfo, AWS, Microsoft Azure, arm, Equinix, OSU OSL, algolia и Sine Nomine в качестве постоянных спонсоров.

Мы очень благодарны, что в 2024 году к нам в качестве новых спонсоров присоединились CERN, Megware, Virtuozzo, StorPool Storage AD, Fastly, Fsas Technologies (компания Fujitsu), SIE LADÓN, Litmus information Systems и Meta Platforms!



Дни AlmaLinux — Германия и Токио!
В 2023 году мы провели самый первый AlmaLinux Day в Токио, а в 2024 году мы смогли провести второй AlmaLinux Day: Tokyo, а также AlmaLinux Day: Germany! С более чем 30 докладчиками и более чем 400 участниками на этих двух мероприятиях мы смогли охватить совершенно новую аудиторию и распространить информацию об AlmaLinux совершенно новым способом. С этими мероприятиями за плечами мы определенно планируем продолжать охватывать нашу аудиторию совершенно новыми и уникальными способами!

Видеоролики с мероприятия AlmaLinux Day: Germany уже доступны на Youtube, а видео с мероприятия AlmaLinux Day: Tokyo должны появиться в ближайшее время!

Поощрение помощи в более широком сообществе разработчиков ПО с открытым исходным кодом
С нашим постоянно растущим сообществом и охватом AlmaLinux мы постоянно ищем способы гарантировать, что мы взаимодействуем с большим миром открытого исходного кода. Некоторые из них относительно незначительны — например, помощь с комнатой Distros на FOSDEM и укомплектование стенда Valkey на OpenSource Summit EU.

Некоторые из них более масштабны и имеют более далеко идущие последствия, например, отправка исправлений ошибок и обновлений функций в проекты, которые мы используем, или расширение количества пакетов, доступных в корпоративной экосистеме Linux, путем поощрения тех, кто запрашивает упаковку своего программного обеспечения для AlmaLinux, вместо этого становиться сопровождающими пакетов для EPEL.

Эти неосязаемые способы, которыми мы стремимся улучшить всю экосистему, — это то, с чем вы столкнетесь, если зайдете в чат AlmaLinux.

2025 и далее
Это был еще один напряженный год, но мы так благодарны каждому члену нашего сообщества AlmaLinux! Вы причина, по которой мы существуем, и я не перестаю удивляться людям, которые работают вместе ради наших общих целей.

Пока часть из нас была на FOSDEM в начале этого года, мы провели день, обсуждая вещи, которые больше всего влияют на AlmaLinux, поскольку мы вступаем в наш 5-й год. Все эти планы и обсуждения будут опубликованы в другом посте в ближайшее время. Следите за новостями, чтобы узнать, что мы планируем дальше!

Если вы хотите быть в курсе событий, подписывайтесь/следите/присоединяйтесь/и т. д. на нашем форуме, Reddit, X, Mastodon, Bluesky, LinkedIn, Facebook и YouTube. В этом году мы также запустили рассылку новостей, на которую вы можете подписаться на LinkedIn или по электронной почте в нашем списке рассылки.
Также есть много возможностей и способов (больше) поучаствовать в AlmaLinux, так что если вам это интересно, ознакомьтесь с этой записью в блоге для получения дополнительной информации!