Рейтинг
0.00

Yandex Cloud

5 читателей, 272 топика

Мы запустили Monium — единую observability-платформу



Отличные новости: технология управления состоянием IT-систем в реальном времени, которую каждый день используют более 16 000 наших коллег, теперь доступна и внешним пользователям.

Знакомьтесь: Monium
Это умная платформа для observability, которая объединяет все данные о работе ваших систем. Больше не нужно переключаться между окнами: метрики, трейсы и логи связаны между собой и живут в одном месте. Телеметрия в одном окне даёт полную картину.
Yandex Monium поможет не просто зафиксировать инцидент в IT-системе, а быстро понять его первопричину. Платформа уже доступна в консоли.
monium.yandex.cloud



С Monium ваша команда сможет:
  • оперативно выявлять и устранять инциденты;
  • наглядно контролировать доступность и производительность систем;
  • автоматизировать рутинные задачи и освободить ресурсы;
  • оптимизировать затраты на observability.

Снизили цены на выделенные серверы в Yandex BareMetal



Рады сообщить, что до 17 апреля 2026 года вам доступны выделенные физические серверы Yandex BareMetal в аренду со скидками до 48%.



Серверы будут доступны по сниженной стоимости в течение всего периода аренды.

console.yandex.cloud
yandex.cloud

Новая зона доступности ru‑central1‑e введена в эксплуатацию





Спасибо, что используете Yandex Cloud. Мы постоянно работаем над тем, чтобы ваш опыт взаимодействия с сервисами был еще лучше, и сегодня хотим поделиться отличной новостью.
Мы ввели в эксплуатацию новую зону доступности — ru‑central1‑e.

Зона базируется в новом дата-центре Яндекса, с независимой системой питания и сети. Ru‑central1‑e расположена совсем рядом с зоной ru-central1-a, поэтому задержка передачи данных между ними минимальна — меньше 1 мс.

Новая зона доступности — полноценный дата‑центр с независимой системой питания и сети. Её ключевые характеристики:
  • Расположение рядом с зоной ru‑central1‑a обеспечивает минимальную задержку передачи данных (менее 1 мс).
  • Мощность — 40 МВт, 2,8 тыс. стоек.
  • Пропускная способность — 25,6 Тб/сек.
  • Энергоэффективность: средний показатель PUE — 1,1 (на 27% ниже мировых средних значений). Достичь такого результата позволила технология фрикулинга — охлаждения серверных стоек уличным воздухом круглый год.

Какие платформы доступны в ru‑central1‑e
Пользователи новой зоны могут подключать:
  • платформа прошлого поколения: standard‑v3;
  • новые платформы.
Новые платформы значительно превосходят предыдущие по производительности и vCPU. Они идеально подойдут для 1С, OLTP- и OLAP‑нагрузок, высокопроизводительных СУБД, приложений в реальном времени.



Как новая зона улучшает работу с управляемыми базами данных
Низкая задержка между ru‑central1‑a и ru‑central1‑e (~1 мс) кардинально меняет возможности построения отказоустойчивых кластеров. Теперь можно создавать решения, которые работают практически как «в одном дата-центре», сохраняя сценарии высокой доступности и аварийного восстановления без роста задержки.

Основные преимущества:
  • Высокая доступность без заметного штрафа по задержкам. Синхронная или кворумная репликация «стоит» ~1 мс — подтверждение записи ускоряется.
  • Разнесение приложения и базы данных по зонам без ощущения «разных дата-центров». Если приложение находится в зоне A, а кластер «растянут» между A и E, доступ к базе данных выглядит почти как локальный.
  • Снижение потребности «отключать надёжность ради скорости». При задержке в 1 мс многие сценарии можно держать на безопасных настройках без потери производительности.
  • Более предсказуемые задержки. Меньше шансов, что кворумные подтверждения упрутся в таймауты на пиках нагрузки — кластеры стабильнее переживают всплески без каскадных эффектов.

Кроме того:
Кластер A‑E (мастер в зоне A, реплика в зоне E) быстрее кластера A‑D (реплика в зоне D) по всем метрикам записи.
Снижение задержки (latency):
  • p50 при write_update — на ~36% (35 мс против 55 мс);
  • p99 при write_update — на ~30% (115 мс против 165 мс).
Рост пропускной способности (QPS) при 128 потоках:
  • write_update — на ~33% (2000 против 1500 QPS);
  • write_insert — на ~37% (2000 против 1460 QPS);
  • mixed_rw — на ~25% (3500 против 2800 QPS).
Лучше масштабируется при росте нагрузки: при 128 потоках p50 растёт плавно (25 → 58 мс), у кластера A‑D — резче (45 → 79 мс).
Стабильнее по динамике задержек: у A‑E снижение задержки держится в диапазоне 60–65 мс, у A‑D — колеблется от 75 до 127 мс.
Меньше «медленных» запросов: кривая распределения задержек у A‑E левее, хвост (p99) короче.
Общий выигрыш по QPS — 25–45% в зависимости от нагрузки и уровня конкурентности.



Конкретные выгоды для разных СУБД
Yandex Managed Service for MySQL и синхронная или кворумная репликации
  • Ускорение подтверждения транзакции за счёт меньшей задержки по времени между дата-центрами.
  • «Как в одном дата-центре». Раньше из‑за задержек приложение приходилось держать в одной зоне, и распределять хосты кластера по зонам было бессмысленно. Теперь вы можете повысить отказоустойчивость: разместить и приложение, и базы данных в разных зонах — если приложение поддерживает такую конфигурацию.
  • Больше свободы в топологии. Межзональная высокая доступность становится стандартом, а не премиум‑опцией.

Yandex StoreDoc
Раньше клиенты сталкивались с проблемой: при массовых записях с writeConcern: 1 реплики начинали отставать, а последующие запросы с writeConcern: majority падали по таймаутам. Это выглядело так, будто кластер недоступен на запись. Низкая межзональная задержка снижает мотивацию включать асинхронные подтверждения, которые ускоряют запись ценой надёжности. В результате повышается и доступность на запись, и устойчивость при отказах.

При задержке ~1 мс можно:
  • держать первичную и вторичную реплики в двух зонах (A–E);
  • писать с безопасным writeConcern (например, majority или в кворумном режиме);
  • получать скорость, близкую к «одному дата-центру», без задержки репликации и рисков для высокой доступности.

Кому особенно полезна новая зона
Пользователи, для которых критичны задержки, теперь могут:
  • уже имеющееся приложение в зоне А разнести и на зону E;
  • «растянуть» кластер базы данных между ними;
  • получить межзональную отказоустойчивость без заметной потери по задержкам.
Это снижает влияние отказов отдельных хостов, узлов или зоны: система остаётся работоспособной, а время ответа не выходит за приемлемые рамки.

yandex.cloud

Обновление тарифов ряда сервисов c 1 мая 2026 года



Обращаем ваше внимание, что с 1 мая 2026 года изменится стоимость ряда сервисов Yandex Cloud.
За последний год себестоимость серверного оборудования и компонентов инфраструктуры значительно выросла. Также увеличивается стоимость разработки и поддержки.
Это делает корректировку тарифов вынужденной мерой, которая позволит нам и дальше развивать инфраструктуру и внедрять новые сервисы. Рост тарифов остаётся значительно ниже динамики роста стоимости оборудования на рынке.

По большинству сервисов Yandex Cloud тарифы вырастут на 5‑8%. Некоторые продукты останутся без изменений — в их числе ИИ‑решения на платформе Yandex AI Studio и средства информационной безопасности.
Мы ценим доверие наших клиентов и продолжаем инвестировать в развитие технологий, безопасность и устойчивость платформы.

Специальные условия, скидки и резервы
Цены и скидки, которые были зафиксированы в рамках специальных условий или резервов до 6 марта 2026 года, остаются в силе и продолжат действовать в соответствии с согласованным сроком и объёмом потребления.
Также в консоли продолжит действовать резервирование ресурсов (CVoS). На новые резервы, купленные с 6 марта 2026 года, цены будут проиндексированы с 1 мая 2026 года.

В ответе за Тех: новый облик Yandex Cloud



Большое событие в Yandex Cloud: мы провели редизайн!
Теперь у нас новый облик. Логотип, стиль, теглайн и визуальный драйв — всё новое.
Когда мы запускали платформу в 2018 году, нас вдохновляла идея сделать технологии ближе и понятнее пользователям. Поэтому Yandex Cloud постоянно меняется внутри: появляются новые сервисы и инструменты для решения ваших бизнес‑задач.
Теперь мы меняемся и внешне — масштабно, но с верностью нашим смыслам и принципам. Давайте знакомиться заново!






yandex.cloud

Вы — герой Yandex Cloud



Вы — герой Yandex Cloud!
Задачи и проекты 2025 года сложились в яркую историю, а мы превратили её в ваш праздничный символ! Просто зайдите в консоль — и всё увидите сами.
Поздравляем вас с наступающим и желаем новых историй, достижений, запусков, вебинаров, интенсивов, удачных деплоев и смелых решений!
Спасибо, что вы с нами! Самый лучший герой.

Топ запусков 2025
Yandex AI Studio
Платформа для создания ИИ‑приложений и агентов, объединяющая все необходимые технологии, инструменты и парк ИИ‑моделей.

Yandex Cloud Stackland
Платформа контейнеризации с интегрированными PaaS‑сервисами Yandex Cloud для управления микросервисными и ИИ‑приложениями в закрытом контуре.

SourceCraft
Облачная платформа для командной разработки в Git‑репозиториях, где ИИ‑ассистент встроен в полный цикл создания ПО.

Нейроаналитик
ИИ‑помощник Yandex DataLens, который будет искать инсайты и делать выводы по вашим данным, а также создавать кастомные визуализации (c помощью JavaScript).

Yandex Identity Hub
IdP-сервис, который позволяет построить корпоративную систему SSO в организации без необходимости разворачивать on‑premises решения.

Yandex Cloud Detection and Response
Управляемый сервис по сбору событий, проактивному мониторингу и реагированию на инциденты.

Yandex Managed Service for Apache Spark
Управляемый сервис кластерных вычислений. В связке с Yandex Managed Service for Trino можно развернуть архитектуру Lakehouse!

Yandex BareMetal
Сервис по аренде выделенного физического сервера, все ресурсы которого доступны для решения только ваших задач. Есть и готовые, и кастомные конфигурации.

Большое обновление консоли
В консоли вы увидите не только ваш символ 2025 года, но и множество новых фич и улучшений.
  • Настраиваемый дашборд: добавляйте и убирайте секции, расставляйте карточки сервисов в удобном порядке (Drag‑and‑drop!)
  • Скрывайте дерево каталогов и облаков, чтобы освободить место на экране
  • Быстро переходите к квотам, правам доступа и уведомлениям прямо на главной странице
  • Избранные ресурсы: добавляйте виртуальные машины в «Избранное» для удобного доступа
  • Управление правами на облака и каталоги теперь доступно на одной странице
И это лишь небольшая часть обновлений!

yandex.cloud

Снизили цены на аренду выделенных серверов



Мы стремимся предоставлять нашим пользователям доступные варианты инфраструктуры, поэтому снизили цены на готовые серверные конфигурации Yandex BareMetal.

Сейчас это особенно важно, так как за последние несколько недель рынок столкнулся с существенным удорожанием оперативной памяти и SSD.



На сайте вы можете изучить конфигурации, цены и количество доступных серверов. Если не нашли нужную конфигурацию или вам нужно большее количество серверов — напишите вашему аккаунт-менеджеру или в техподдержку.

Для чего подойдут данные серверы
  • In-memory сервисы
  • Виртуализация и контейнеризация
  • Базы данных и ML‑инфраструктура без GPU
  • Корпоративные системы: 1С, почтовые/файловые серверы
  • Веб-приложения

Интеграция с экосистемой Yandex Cloud
Объедините серверы BareMetal с облачной или локальной инфраструктурой с помощью Yandex Cloud Interconnect — сервиса для создания приватных выделенных сетевых соединений.
А ещё вы можете буквально по кнопке подключить Yandex Cloud Backup — и настроить резервное копирование.
yandex.cloud/ru/services/interconnect
yandex.cloud/ru/services/backup

Изменение ставки НДС с 1 января



Здравствуйте!
Спасибо, что выбираете Yandex Cloud.

Обратите внимание: с 1 января 2026 года базовая ставка НДС в России увеличится с 20% до 22% — в соответствии с новым налоговым законодательством.

Почему это важно
Стоимость услуг Yandex Cloud формируется из тарифов и налоговой составляющей. Тарифы останутся прежними, но налоговая составляющая изменится, а это повлияет на конечную стоимость услуг.

Мы ценим ваше сотрудничество и будем заранее информировать об обновлениях, чтобы вы могли всё учесть при планировании расходов. Подробности — в нашем блоге.

storage.yandexcloud.net/cloud-www-assets/blog-assets/ru/posts/2025/11/vat-changes-ru-2025/%D0%A2%D0%B0%D1%80%D0%B8%D1%84%D1%8B_Yandex_%D0%A1loud_RU.pdf

Изменение юридической документации с 5 декабря



С 5 декабря 2025 года вступят в силу изменения в юридической документации Yandex Cloud. Ниже в письме подробно разбираем конкретные документы и изменения.

Оферта
  • П. 5.1, 5.1.1: внесены изменения в условия тарификации сервисов. В частности, тарифы указываются на сайте с учётом всех применимых налогов, если прямо не указано иное; в случае установления новых ставок НДС стороны соглашаются автоматически применять такие изменения с даты их вступления в силу — путём изменения тарифов (стоимости услуг) на размер изменения ставок НДС.
  • П. 7.2.12, 13.6: зафиксировано, что Яндекс может передавать кредитным организациям по их запросу информацию о клиенте, если клиент использует для оплаты сервисов платёжные данные третьего лица и указанное лицо оспаривает операции, связанные со списанием денежных средств.
  • П. 15.2: зафиксировано, что Яндекс вправе направлять клиентам уведомления, сообщения и документы посредством использования мессенджеров, в том числе с привлечением для этого третьих лиц, оказывающих Яндексу услуги по использованию мессенджеров.
  • Раздел 14: изложены условия об обработке персональных данных в новой редакции.
  • Раздел 18: уточнено понятие «Контент».
yandex.ru/legal/cloud_oferta/ru/

Условия использования сервиса «Платформа Яндекс.Облако»
  • П. 4.6: зафиксировано, что определённая информация об использовании клиентом платформы и сервисов может быть использована Яндексом для достижения ряда целей, связанных с совершенствованием качества и усилением безопасности платформы и сервисов.
  • Раздел 4: внесены уточнения в иные условия раздела «Персональная информация».
yandex.ru/legal/cloud_termsofuse/ru/

Соглашение об обработке данных
  • П. 1.2: добавлена ссылка на страницу с актуальным заключением о соответствии системы защиты персональных данных требованиям законодательства о персональных данных.
  • П 3.2: уточнён состав данных, обрабатываемых по поручению клиентов.
  • П 3.9: указаны случаи, когда Яндекс вправе допускать своих сотрудников, подрядчиков и иных третьих лиц к обрабатываемым персональным данным.
  • Раздел 2: удалены те обязанности клиента как оператора персональных данных, которые он должен осуществлять самостоятельно в силу закона, вне связи с поручением на обработку данных.
  • Уточнены формулировки некоторых текущих условий.
yandex.ru/legal/cloud_dpa/ru/

Превращение в «жука»: эволюция IT-оборудования в дата-центрах Яндекса

Меня зовут Владимир Аксёнов, я работаю в Yandex Infrastructure и руковожу IT‑поддержкой в том самом дата‑центре Яндекса, который стал первой площадкой в собственности компании. Это определило его судьбу первопроходца: именно здесь мы тестируем множество технологий, которые затем распространяются на другие дата‑центры.

За 13 лет на этой площадке мы наблюдали радикальные изменения форм‑фактора сетевого и серверного оборудования, что повлекло за собой серьёзные метаморфозы во всём дата‑центре. Мы прошли путь от стандартной 19-дюймовой стойки до четвёртого поколения стоек собственного дизайна, а от холодных коридоров с доохлаждением — пришли к энергоэффективному фрикулингу.

В этой статье покажу, как за это время поменялось IT‑оборудование, как это повлияло на облик дата‑центров, и что интересного ждём в наших дата‑центрах в 2026 году.

2012: построили свой дата-центр!


Наша первая собственная площадка была построена в бывших помещениях станкостроительного завода. На тот момент это было оптимальное решение: есть надёжный источник питания, который даст электричество в нужном количестве, есть подвод природного газа, а в просторных помещениях можно строить машинные залы круглый год, невзирая на погодные условия.

Сначала здесь появился минимальный набор IT‑инфраструктуры для запуска: NOC‑room и два первых кластера. Туда мы устанавливали оборудование, которое зарекомендовало себя и на предыдущих площадках: серверы и дисковые полки в стойки 19".

Чтобы поддерживать нужную температуру в кластерах, было необходимо охлаждение. С инженерной точки зрения, существующая на тот момент схема кондиционирования использовала доохлаждение — для получения холода требовалась дополнительная энергия. Поэтому был запущен Центр холодоснабжения с абсорбционными холодильными машинами:


Нагретый серверами воздух удалялся из каждой стойки по индивидуальным вентканалам. Стойка была скорее частью инженерной системы.

Наши масштабы росли всё быстрее, и нам было нужно всё больше таких стоек с серверами. Деплой каждой требовал времени:
  • Каждый сервер вынуть из коробки.
  • Снять упаковочные материалы.
  • В стойку установить 360+ сухарей/собачек.

  • Накрутить 94 салазки.
  • Установить 47 серверов.
  • Распаковать и скоммутировать сеть управления, сеть передачи данных, подключить кабели питания.


На каждую стойку уходило примерно 1,5–2 человекодня… Мы стали думать, как сократить это время.

2013: первые стоечные решения
В следующем году запустился новый модуль с разделением на горячий и холодный коридор, где можно было ставить не только стандартные стойки 19", но и стоечные решения по стандарту The Open Rack.


Это стойка, в которой серверы не имеют собственного активного охлаждения и блоков питания, а подключены к централизованной системе: всё подключение к питанию предусмотрено в задней части с помощью специальной шины питания — тогда она была на 12 В. Охлаждение тоже интегрированное.


Самое главное — такие решения можно доставить в дата‑центр уже в собранном виде. Некоторые модели приезжали даже с коммутацией, и это был настоящий прорыв. Первые подобные стойки мы заказали у сторонних производителей, а затем наладили своё производство с опорой на стандарты Open Compute Project Foundation (OCP) и стали устанавливать стоечные решения, разработанные Яндексом.

2017: переход на фрикулинг
Следующие годы были посвящены повышению эффективности работы всей системы. Инженеры дата‑центра тестировали фрикулинг — систему, где всё оборудование охлаждается исключительно уличным воздухом. В плане инженерной инфраструктуры это также было прорывное решение, которое обещало серьёзную экономию ресурсов, так что мы использовали его при проектировании и строительстве новых модулей в нашем дата‑центре.


Суть фрикулинга в том, что в холодный коридор поступает воздух БЕЗ доохлаждения: летом — это уличный воздух, а зимой используется уличный воздух с подмесом нагретого воздуха из горячего коридора, чтобы довести минусовую температуру до комфортных 20 градусов. Такое решение позволило отказаться от использования громоздких, сложных в эксплуатации холодильных машин.

На Хабре уже было несколько статей о разных системах охлаждения дата‑центров, поэтому лишь вкратце напомню, как именно в случае фрикулинга поддерживается нужная температура:


  • В приточной установке установлены фильтры грубой и тонкой очистки.
  • В холодном коридоре поддерживается положительное давление, в горячем — отрицательное.
  • Сам расход холодного воздуха определяется потребностью стоек.

С точки зрения IT‑поддержки важно, что отказ от доохлаждения помогает улучшить PUE (Power Usage Effectiveness) — коэффициент, отражающий эффективность использования энергии в дата‑центре. При использовании доохлаждения PUE находился в районе 1,5, а без него — держится на отметке 1,1, а иногда и меньше. Это значит, что только 10% от всего потребления дата‑центра уходит не на IT‑нужды.

К тому моменту мы уже разработали стоечные решения, которые умели работать при температурах до +40 градусов. Поскольку все наши дата‑центры находятся в средней полосе России, такая температура — скорее аномалия. Но периодически кратковременные периоды жары всё же случаются, и было важно убедиться, что система справится.

Поэтому даже стойки OCP первого и второго поколения подвергались самым разным испытаниям в нашей термолаборатории, и показали хорошую работоспособность при высоких температурах. А следующие поколения стоек нашей разработки изначально проектировались для нормальной работы в таких условиях. Это делало систему ещё эффективнее, так как доохлаждать было не нужно.

2017: новый дата-центр с новыми подходами


В том же году запустился новый дата‑центр во Владимире, который изначально был спроектирован под фрикулинг и построен с нулевого цикла — такие строительные работы включали целый комплекс подготовительных мер, например, создание фундамента, прокладку необходимых коммуникаций и так далее. Если в старом дата‑центре для строительства кластера на фрикулинге в бывшем заводском помещении понадобилось убирать старые полы и заливать новые, чтобы разместить инженерное оборудование по высоте, то здесь эти моменты учли ещё на старте строительства. Заодно избавились от проблемы строительной пыли, которая неизбежно появлялась при модернизации старого здания.

Новый дата‑центр спроектировали как четыре отдельных помещения с сетевой связностью между ними. Строили его по мере роста масштабов: как только начинало заполняться первое здание — вводилось в эксплуатацию следующее. Так мы могли избежать простаивающих помещений. Строительной пыли тоже стало меньше.

Но со временем стало понятно, что нам не очень удобно перемещаться по улице между отдельными зданиями, а тем более транспортировать стойки из здания в здание.

2022: проектирование «жука»
Учитывая весь накопленный опыт эксплуатации, новую площадку мы задумали как возможность объединить всё лучшее из существующих дата‑центров, а также избежать тех неудобств, которые возникли со временем. Так появился новый проект дата‑центров:
  • с фрикулингом;
  • с безразрывной крышей, как в первом дата-центре;
  • с помещениями машинных залов, которые отделены друг от друга дверями.

Сверху на плане выглядело так: в центре складские помещения и офис, а в стороны расходятся четыре помещения для строительства кластеров. Было похоже на насекомое, поэтому мы прозвали этот проект «жук».


В таком едином помещении нет пыли, корпуса по‑прежнему можно вводить в эксплуатацию по мере заполнения, но поскольку они расположены близко, то перемещение в любую погоду комфортное, а переезд IT‑оборудования между модулями проходит беспрепятственно.

В недавно прошедший день работников дата‑центров мы даже заказали торт, вдохновлённый этим проектом:


2025: жизнь первых дата-центров
Ввод новых площадок в эксплуатацию не означает, что мы забываем про прежние дата‑центры.

К настоящему моменту в серверных стойках мы перешли уже к четвёртому поколению серверов, и для них требуется совсем другая инфраструктура, чем было 10–12 лет назад:


Сервер 4.0 предусматривает:
  • более эффективное охлаждение на 10–15%;
  • питание 48 В на сервер (ноду);
  • вместо четырёх NVMe‑дисков теперь шесть, и есть возможность установки двух дисков M2;
  • возможность установки GPU.

Само стоечное решение выглядит уже так:


С 2023 года мы ведём работы по модернизации старой части нашей первой площадки.

Это позволяет полностью отказаться от доохлаждения и демонтировать оставшееся холодильное оборудование, которое не позволяло установить в старые модули современные устройства.

2026: что будет дальше?


Дата‑центры будущего уже рядом с нами, и вот как они выглядят для нас сейчас:
  • современное помещение, которое сочетает удобство и надёжность;
  • возможность запускать площадку даже с одним модулем и достраивать остальные по мере необходимости;
  • экономичное расходование энергии с PUE не более 1,1;
  • стойки приезжают в дата‑центр в сборе и отправляются в тестирование через 30–40 минут с момента разгрузки фуры.

Уже можно представить, как это будет развиваться дальше:
  • Виден рост потребностей в мощностях для ML‑задач, которые потребляют много электроэнергии. Поэтому площадки будут заполняться очень быстро.
  • Если первые кластеры потребляли киловатты, а существующие якорные дата‑центры — 40–60 МВт, то площадки ближайшего будущего проектируется уже с мощностью 120 и более МВт.
  • Масштабироваться мы и дальше будем площадками, и это будет несколько обособленных сооружений в непосредственной близости, например, как наш «жук».
  • Постоянно увеличивающийся TDP чипов обязывает постепенно переходить к системам жидкостного охлаждения, как в инженерных системах дата‑центров, так и внутри серверов.



Иногда я спрашиваю коллег, работающих в дата‑центре, как они видят будущее нашей площадки. Многие отвечают, что чинить серверы будут роботы (а сотрудники IT‑поддержки, по‑видимому, будут чинить роботов). Но с точки зрения эксплуатации это не так уж далеко от истины. В идеале хочется, чтобы это выглядело так:
  • прихожу в дата‑центр, иду в офис;
  • умная колонка меня приветствует и рассказывает про запланированные на день задачи в формате саммари, докладывает об уровне SLA и каких‑либо изменениях;
  • по цеху ходят сотрудники службы контроля качества в очках дополненной реальности, на которых видны необходимые операции с оборудованием;
  • роботы‑доставщики вокруг развозят компоненты на склад и со склада до места проведения работ;
  • в офисе сидят IT‑специалисты, которые выполняют сложную диагностику, давая задачи AI‑ассистентам.

Пока часть из этого ещё не сбылось, но многие из технологий мы уже тестируем. Так что поживём‑увидим!

yandex.cloud/ru