Рейтинг
0.00

Google Cloud Platform

4 читателя, 52 топика

Облачные функции: серверная платформа, как правило, доступна

Это была насыщенная неделя для безсерверных вычислений в Google Cloud Next '18 в Сан-Франциско. В дополнение к обновлениям, которые мы поделились с шоу, мы рассмотрели технологию облачных функций в более чем 15 технических сессиях. Есть много вещей для распаковки, начиная от новых выпусков функций и заканчивая передовыми методами. Этот пост — это одноразовое резюме функций облака: что нового, инструкции по регистрации для ранних функций доступа и некоторые советы о том, где вы можете найти дополнительную информацию о полезных технических сессиях и проницательности из следующего «18».

Облачные функции — это серверная платформа, управляемая событиями Google Cloud, которая предлагает гибкую и быструю разработку облачных приложений. Мы запустили Cloud Function для бета-версии в прошлом году в Google Cloud Next'17 с использованием среды исполнения Node.js и важных функций, таких как HTTP / S, что позволяет вам развернуть функцию и вызвать ее напрямую без каких-либо дополнительных услуг. Cloud Function beta также поставляется с мелкозернистым ценообразованием, поэтому вы платите только за то, что ваш код работает, выставленный счету до ближайших 100 миллисекунд. Облачные функции также были разработаны, чтобы хорошо работать с существующими облачными платформами Google (GCP), такими как Cloud Storage, Cloud Pub / Sub и Stackdriver. В то время между нами и сейчас мы много работаем, добавляя новые возможности на платформу и повышая ее надежность и производительность.

В течение следующего '18 мы объявили, что облачные функции теперь в целом доступны и готовы к производству, с предсказуемым сервисом, гарантированным SLA и глобальным охватом с новыми регионами в Европе и Азии. Вот что еще нового.



Теперь вы можете писать функции облаков с помощью Node 8, который поддерживает поддержку async / await и новую подпись функции. Облачные функции теперь предоставляют данные и контекст, а не событие, и вы можете использовать ключевое слово ожидания для ожидания результатов асинхронных операций. Это делает гораздо лучшую ментальную модель для работы с несколькими асинхронными операциями. Вот посмотрите на различия кода между порядком Node 6 и Node 8:

Current (Node 6) behavior

   exports.helloCallback = (event, callback) => {
  const payload = event.data.data;
  doSomething(payload, callback);
};

exports.helloPromise = (event) => {
  const payload = event.data.data;
  return doSomethingWithAPromise(payload)
};

New (Node 8+) behavior

   // Note the new (optional) context object
exports.helloPubsub = async (data, context) => {
  return await doSomethingAsynchronous(data)
};

// HTTP Functions are unchanged, but also support async/await
exports.helloHTTP = async (req, res) => {
  return await doSomethingAsynchronous(req)
};


Вы также можете теперь записывать облачные функции с помощью Python 3.7. Как и в случае с узлом, вы получаете данные и контекст для своих фоновых функций и запрашиваете HTTP. Python HTTP-функции основаны на популярной микрофрейме Flask, которая позволяет вам быстро и быстро вставать и работать. Вот посмотрите на запрос к фляге:
def hello_pubsub(data, context):
  return do_something(data)
  
def hello_http(request):
  return do_something(request)


Запросы основаны на flask.Request и ответы просто должны быть совместимы с flask.make_response. Как и в случае с узлом, вы получаете данные (dict) с фоновыми функциями и контекстом Python (google.cloud.functions.Context). Для завершения сигнала вам просто нужно вернуться из вашей функции или вызвать исключение, а обработка ошибок Stackdriver начнется. И, подобно Node (package.json), Cloud Function автоматически выполнит установку всех ваших зависимостей Python (требования .txt) и построить в облаке.



Облачные функции для Firebase также доступны и имеют полную поддержку узла 8, включая ECMAScript 2017 и async / await. Этот выпуск также поставляется с дополнительными подробными элементами управления для параметров конфигурации времени выполнения, включая регион, память и тайм-аут, что позволяет вам точно настраивать поведение ваших приложений. Здесь вы можете найти более подробную информацию.

События Firebase (Analytics, Firestore, Realtime Database, Authentication) также доступны непосредственно в консоли Cloud Functions на GCP. Это обеспечивает дополнительную степень гибкости в вашем стеке приложений, позволяя вам запускать ваши функции в ответ на события Firebase непосредственно из вашего проекта GCP.

Мы также перезаряжаем базовую операционную систему Cloud Functions на Ubuntu 18.04 LTS, чтобы расширить объем доступных библиотек. В дополнение к imagemagick, доступному с момента запуска бета-версии, теперь вы получаете доступ к дополнительным системным библиотекам, таким как ffmpeg и libcairo2, а также ко всему, что требуется для запуска Chrome без Chrome. Например, теперь вы можете обрабатывать видео и снимать скриншоты веб-страниц в Chrome из облачных функций.


Теперь вы можете передать конфигурацию своим функциям, указав пары ключ-значение, привязанные к функции, но не существующие в вашем исходном коде. Переменные среды устанавливаются во время развертывания с использованием аргумента -set-env-vars и вводятся в среду во время выполнения. Здесь вы можете найти более подробную информацию.
cloud.google.com/functions/docs/env-var


Скоро в облачные функции
У нас также есть много новых функций, которые скоро появятся в Cloud Function. Вот что вы можете ожидать:

Масштабирование
С добавлением управления масштабированием -max-экземпляров вы можете ограничить количество экземпляров для каждой функции, чтобы ограничить трафик. Это может помочь справиться с внезапными сценариями роста трафика, когда функции облачности быстро масштабируются и перегружают базу данных или общую приоритизацию между более и менее важными частями вашей системы. Подпишитесь на альфа здесь.


Безсерверное планирование
С Cloud Scheduler вы сможете запланировать облачные функции до одноминутных интервалов, вызываемых через HTTP (S) или Pub / Sub. Это позволяет выполнять функции Cloud в повторяющемся расписании, что особенно полезно для таких вещей, как ежедневное создание отчетов или регулярная обработка очередей мертвых букв. Подпишитесь на альфа здесь.


Вычислить доступ VM VM
Теперь вы можете подключиться к компьютерам Compute Engine, работающим в частной сети, используя опцию --connected-vpc. Это обеспечивает прямое подключение для вычисления ресурсов во внутреннем диапазоне IP-адресов. Подпишитесь на альфа здесь.


Контроль безопасности IAM
Облачные функции упрощают показ конечной точки HTTP (ов): просто разверните свою функцию с помощью триггера HTTP, и мы предоставим выделенный URL HTTPS. Новая роль IAM для функций Cloud Function Invoke позволяет вам добавить защиту IAM к этому URL-адресу, чтобы вы могли контролировать, кто может вызывать эту функцию, используя те же элементы управления безопасностью, которые вы используете в других местах Cloud Platform. Подпишитесь на альфа здесь.


Бесконтактные контейнеры
В безсерверных контейнерах мы предоставляем одну и ту же базовую инфраструктуру, которая обеспечивает функции облачных функций, но вы сможете просто предоставить изображение Docker в качестве входных данных. Это позволит вам развернуть произвольные среды выполнения и произвольные системные библиотеки в произвольных дистрибутивах Linux, сохраняя при этом те же самые серверные характеристики, что и облачные функции. Подпишитесь на альфа здесь.

Product updates | August 6, 2018

NETWORKING
Новый Лос-Анджелес, Калифорния, регион: GA
Новый регион Лос-Анджелес в настоящее время и работает. По сравнению с хостингом приложений в следующем ближайшем регионе, их приютили в новом регионе может значительно сократить время задержки для конечных пользователей, в Южный и Северной Калифорнии и юго-западе.
cloudplatform.googleblog.com/2018/07/our-los-angeles-cloud-region-is-open-for-business.html

COMPUTE
типы машин Ultramem: GA
Вы можете предоставление памяти оптимизированные типы машин с до 160 виртуальных ЦП и почти 4 ТБ памяти. Обладая более чем 14 ГБ памяти на VCPU, они хорошо подходят для в памяти баз данных и аналитики, такие как SAP HANA и рабочие нагрузки бизнеса-хранилищах.
cloud.google.com/compute/docs/machine-types
cloudplatform.googleblog.com/2018/07/now-shipping-ultramem-machine-types-with-up-to-4tb-of-ram.html

MARKETPLACE
Google Cloud Platform Marketplace
GCP Marketplace, ранее Cloud Launcher, теперь предлагает производство готового Kubernetes приложений. С упрощенным биллингом и лицензированием третьих сторон, теперь вы можете быстро развернуть в различных средах: на территории, на кластерах Kubernetes, работающие на GCP, или на Kubernetes Engine, а также другие общественных облаках.
cloud.google.com/marketplace/
cloudplatform.googleblog.com/2018/07/introducing-commercial-kubernetes-applications-in-gcp-marketplace.html
Cloud Filestore: beta
Облако FILESTORE теперь позволяет предсказуемо высокую производительность для рабочих нагрузок на основе файлов. Она обеспечивает отечественный опыт для управляемых стоя сетевое устройство хранения данных с Compute Engine и Kubernetes Engine экземпляров.
cloud.google.com/filestore/docs/
COMPUTE
Kubernetes Engine minimum CPU platform: GA
Теперь вы можете выбрать базовый минимум платформу процессора при создании кластера или узел бассейна. Повысьте скорость и производительность ресурсоемких рабочих нагрузок для графики, игр, а также аналитику, обеспечивая при этом узлы никогда не использовать платформу процессора, что это не подходит для их нужд.
cloud.google.com/kubernetes-engine/docs/how-to/min-cpu-platform

Compute Engine instance templates: GA
Эта функция позволяет создавать и управлять шаблонами экземпляра из экземпляров виртуальных машин, что позволяет быстро дублировать, резервное копирование, и воссоздать экземпляры.
cloud.google.com/sdk/gcloud/reference/beta/dataproc/workflow-templates/instantiate

VM rightsizing recommendations: GA
VM рекомендация проклейки — которые предоставляют Вам рекомендуемое экземпляр размера для существующих экземпляров виртуальных машин, основанных на прошлых Memory- и CPU-метрике утилизации — доступна для всех экземпляров Compute Engine, на основе данных мониторинга от хоста VM.
cloud.google.com/compute/docs/instances/apply-sizing-recommendations-for-instances

IDENTITY & SECURITY
Cloud Identity and Access Management domain restricted policies: beta
Политика организации совместного использования домена ограниченно позволяет гарантировать, что только тождества из настроенных доменов могут быть добавлены к политике Cloud IAM, в том числе учетных записей служб. Это предотвращает ресурсы общего доступа с идентичностей вне домена (ов) вашей организации.
cloud.google.com/resource-manager/docs/organization-policy/restricting-domains

STORAGE & DATABASES
Key Visualizer for Cloud Bigtable: beta
Получите лучшее понимание того, как получить доступ к данным, хранящимся в облаке Bigtable с ключевым визуализатором, который генерирует визуальные отчеты ключевых моделей доступа. Устранение неполадок, связанных с производительностью и получить понимание моделей использования в масштабе.
cloud.google.com/bigtable/docs/keyvis-overview

Import/export support for Cloud Spanner: GA
Это очень Запрошенная функция позволяет легко перемещать данные для улучшения аварийного восстановления, тестирования и переноса базы данных. Экспорт любой базы данных Cloud Spanner в облачном хранилище в формате Apache Avro и импортировать файлы из Cloud Storage в новую базу данных Cloud Spanner.
cloudplatform.googleblog.com/2018/07/cloud-spanner-adds-import-export-functionality-to-ease-data-movement.html

NETWORKING
Virtual Private Cloud Flow Logs: GA
запись сеть VPC поток Бревно потоков послана или получена с помощью экземпляров VM на пять-секундные интервалах, и включает в себя богатый набор аннотаций. Вы можете использовать эти журналы для мониторинга сети, судебно-медицинской экспертизы, анализа безопасности в режиме реального времени, а также оптимизации расходов.
cloud.google.com/vpc/docs/using-flow-logs

Cloud Dataproc workflow templates: beta
Облако Dataflow обработки потоков теперь позволяет автору потокового задания и запускать их на облаке DataFlow. Неподвижные, раздвижные и сеансовые окна, а также основная триггерная семантика, все поддерживаются.
cloud.google.com/dataproc/docs/concepts/workflows/workflow-parameters

BigQuery Data Transfer Service for Google Ads: GA
BigQuery Data Transfer Service для объявлений Google (ранее известный как AdWords) позволяет автоматически планировать, запускать и управлять повторяющейся объемными задания загрузки данных экспорта для Google Ads
cloud.google.com/bigquery/docs/adwords-transfer

API MANAGEMENT
Service Usage: beta
Использование службы, служба ГКП инфраструктуры, позволяет обнаружить, включать и отключать службы и их API-интерфейсы для ваших проектов. Они включают в себя услуги и их интерфейсы, созданные Google или третьими лицами с использованием облачных Endpoints
cloud.google.com/service-usage/docs/overview

MARKETPLACE
GCP Marketplace no-obligation software trials: GA
Вы можете теперь выбрать назначенный программное обеспечение с GCP Marketplace на без обязательств экспериментальной основе. Это делает его легче найти оптимальные решения в соответствии с вашими потребностями.
cloud.google.com/marketplace/docs/understanding-billing

GOOGLE MAPS PLATFORM
Google Maps Платформа введена единая плата, поскольку Вы идете ценовой план его основных карт, маршрутов и мест продукции, без ежегодных, авансовых обязательств, прекращение платежей или ограничений на использование. Все разработчики получат $ 200 стоит свободного ежемесячного использования по отношению к основной продукции.
cloud.google.com/maps-platform/user-guide/pricing-changes/

Представляем графические процессоры NVIDIA Tesla P4 для ускорения работы виртуальных рабочих станций и вывода ML на Compute Engine

Сегодня мы рады объявить о новом дополнении к семейству GPU для Google Cloud Platform (GCP), которое оптимизировано для приложений с интенсивным графическим интерфейсом и вывода машинного обучения: графический процессор NVIDIA Tesla P4.

Мы прошли долгий путь с тех пор, как мы представили наш ускоритель вычислений первого поколения — графический процессор K80, добавляющий по графическим процессорам P100 и V100, которые оптимизированы для машинного обучения и рабочих нагрузок HPC. Новые P4-ускорители, теперь в бета-версии, обеспечивают хороший баланс цены / производительности для приложений удаленного отображения и вывода машинного обучения в режиме реального времени.

Графические приложения, которые работают в облаке, значительно выигрывают от графических процессоров на рабочих станциях. Теперь мы поддерживаем виртуальные рабочие станции с помощью NVIDIA GRID на P4 и P100, позволяя вам превратить любой экземпляр с одним или несколькими GPU в высокопроизводительную рабочую станцию, оптимизированную для использования с графическим ускорением. Теперь художники, архитекторы и инженеры могут создавать захватывающие 3D-сцены для своего следующего блокбастера или создавать компьютерную фотореалистичную композицию. P4s обеспечивают 8 ГБ памяти GDDR5 — достаточную мощность для чрезвычайно требовательных интерактивных и захватывающих 3D-приложений.



Один из ранних клиентов Schlumberger был впечатлен гибкостью, которую виртуальные рабочие станции Google Cloud предлагают клиентам нефти и газа.

Виртуальные рабочие станции Compute Engine, работающие на графических процессорах NVIDIA, позволяют нам решать самые сложные задачи визуализации облачных пользователей. Эксперты по теме «Нефть и газ» теперь могут использовать Petrotechnical Suite в когнитивной E & P среде DELFI от Schlumberger на различных устройствах с расширяющимся глобальным охватом. Благодаря сети Google Cloud и увеличению пропускной способности GPU для обеспечения низкой латентности, производительности виртуальных рабочих станций, наши клиенты могут использовать возможности облачных вычислений, чтобы принимать более обоснованные решения от разведки нефти и газа до производства
Raj Kannan, Advisor Solution Architect, Шлюмберже

Использование графических процессоров для облачных 3D-приложений является обязательным. Чтобы помочь создать максимально возможные виртуальные рабочие станции, мы также сотрудничаем с Teradici, который предлагает клиента, который работает на Compute Engine и доступен через GCP Marketplace.

Комбинация Teradici Cloud Access Software, облачной платформы Google и экземпляров NVIDIA P4 и P100 помогает предоставлять высокопроизводительные виртуальные рабочие станции. Теперь клиенты в таких отраслях, как медиа и развлечения, нефть и газ и производство, могут предоставить своим конечным пользователям возможность запускать вычислительные инструменты практически с любого устройства, практически в любой точке мира
Дэн Cordingley, генеральный директор, Teradici

Графические процессоры NVIDIA Tesla P4 также отлично подходят для случаев использования вывода ML, таких как визуальный поиск, интерактивные речевые и видео-рекомендации. Эти ускорители предлагают до 22 ТОПов производительности INT8 и могут сократить время ожидания на 40X по сравнению с традиционными процессорами. Наконец, P4s хорошо подходят для работы с транскодированием видео. Процессоры P4 с одним декодированием и двумя кодировками могут транскодировать до 35 видеопотоков HD в режиме реального времени.



Как и в других наших предложениях для GPU, вы можете присоединить один или несколько P4 к любому типу машины и заплатить только за ресурсы, которые вам нужны. Мы поддерживаем все наши графические процессоры, в том числе P4, на Kubernetes Engine и движок для обучения машинам в облачной машине, визуализацию zync, и они могут воспользоваться преимуществами постоянных дисконтов и преимущественной ценой. P4s доступны сегодня в отдельных зонах в us-central1 (Айова), us-east4 (N. Virginia), Монреале (northamerica-северо-восток1) и europe-west4 (Нидерланды), с большим количеством регионов (включая LA). В приведенной ниже таблице представлен наш полный набор предложений GPU.



Наша цель — сотрудничать с вами и предоставлять аппаратные ресурсы, такие как ускорители, для управления всеми вашими рабочими нагрузками — будь то машинное обучение и обучение, моделирование, геномика, HPC, рендеринг и теперь, трехмерная визуализация. Чтобы узнать больше о P4 и виртуальных рабочих станциях на GCP, просмотрите страницу GPU или NVIDIA. Затем посетите консоль и приступайте к работе!

Обзор разрешения ваших пользователей GCP, чтобы просмотреть затраты по отдельным проектам

Мы пишем, чтобы вы знали, что новое облако Billing billing.resourceCosts.get Identity Management Access (IAM) разрешение вступает в силу 20 августа 2018 года.

Что мне нужно знать?
Мы слышали от многих клиентов, что они хотели бы более точный контроль над тем, что данные о расходах могут видеть своих пользователей. Для решения этой обратной связи, мы добавляем новое разрешение IAM Cloud Billing, billing.resourceCosts.get, что позволяет предоставлять конкретный проект доступа к данным о расходах, как отчеты счетов. Все существующие владельцы проекта и зрители получат это новое разрешение проекта. Ранее единственный вариант видимости с помощью разрешения на расчетный счете, который дал пользователям доступ ко всем расходам по биллинговому счету проекта. Начиная с 20 августа 2018, пользователь должен иметь либо платежный счет разрешения billing.accounts.getSpendingInformation или разрешение billing.resourceCosts.get проекта для того, чтобы просмотреть стоимость проекта в консоли (в том числе платежных карт на домашней странице консоли).

Что мне нужно сделать?
Если вы хотите, чтобы пользователи имели доступ к данным о расходах, они должны иметь либо зритель проекта, владелец проекта или пользовательскую роль с разрешением billing.resourceCosts.get. Если вы хотите, чтобы ограничить видимость, сохраняя при этом одни и те же права доступа, вы можете создать пользовательскую IAM роль. Пожалуйста, ознакомьтесь, что видимость необходимо и предоставить каждому пользователю правильной IAM роль до 20 августа, чтобы сохранить видимость стоимости проекта для правильных пользователей.

Вы должны быть администратором организации, владелец проекта, или администратор роль в управлении пользовательских ролей.

Чтобы узнать больше о том, как работать с учетными записями ролей и разрешений, обзор IAM документации.

Если у вас есть какие — либо вопросы или нужна помощь, пожалуйста, свяжитесь с Платежной поддержкой Google Cloud.

Спасибо за то, что ценится Google Cloud Platform клиент.

Мы переехали! Приходите посмотреть наш новый дом!

Десять лет, три месяца и 30 дней назад мы написали наш первый пост в этом блоге, и теперь мы пишем наш последний на этом конкретном веб-адресе. Сегодня с большим волнением мы представляем вам блог Google Cloud, ваш дом для всех последних новостей о продуктах GCP, практических рекомендациях, перспективах и историях клиентов, к которым вы привыкли, и все они живут счастливо на блестящем новом мобильном устройстве дружественная платформа.
cloud.google.com/blog



Мы очень рады этому изменению. Мало того, что новый блог выглядит очень красиво, но он включает в себя весь контент со всего семейства Google Cloud — GCP, G Suite, Google Maps Platform и Chrome Enterprise, поэтому вы можете увидеть, как они все подходят друг другу. И поскольку анализ данных и искусственный интеллект настолько важны для всего, что сегодня создают люди, мы также сместили наш блог с большими данными и машинным обучением на эту новую платформу.

Помимо сбора всего содержимого блога Google Cloud в одном месте, мы думаем, что вы действительно выиграете от богатых возможностей пометки блога. Теперь вы можете просматривать сообщения в блогах на платформе, а также переходить к конкретным технологическим областям, таким как Application Development, Networking или Open Source, чтобы вы могли быстро найти связанный контент. Существуют также специальные страницы для партнеров, клиентов, тренинги и сертификаты, а также решения и инструкции, чтобы назвать несколько. И поскольку мы можем также помещать сообщения в несколько продуктов и тем, вы обязательно найдете то, что ищете.
Это всего лишь изменения на высоком уровне. Существует множество новых функций для использования и изучения, и мы рекомендуем вам просматривать сайт и познакомиться с ним. Что нового не является нашей задачей: предоставить вам честный, технический контент, чтобы показать вам, как построить свой бизнес на GCP.

На сегодняшний день мы перешли на более чем двухгодичные расходы в блогах GCP в этот новый дом, причем еще больше. Сообщите нам, если вы найдете какие-либо неработающие ссылки, опечатки или просто отсутствующий контент. И, конечно же, нам понравятся ваши отзывы о нашем контенте, дизайне или любых функциях, которые вы хотели бы видеть. Спасибо за прочтение!
google-cloud-blog-team@google.com

Announcing resource-based pricing for Google Compute Engine

Обещание и преимущество облака всегда были гибкостью, низкой стоимостью и оплатой за использование. С помощью Google Compute Engine пользовательские типы машин позволяют создавать экземпляры виртуальных машин любого размера и формы, и мы автоматически применяем скидки на использование и постоянное использование, чтобы снизить ваши затраты. Сегодня мы используем концепцию оплаты за использование в Compute Engine еще дальше с ценой на основе ресурсов.
Благодаря ценообразованию на основе ресурсов мы делаем несколько изменений за кулисами, которые выравнивают, как мы относимся к измерению пользовательских и предопределенных типов машин, а также к тому, как мы применяем скидки для скидок с постоянным использованием. Проще говоря, мы внесли изменения, чтобы автоматически предоставить вам больше сбережений и простой для понимания ежемесячный счет. Кто этого не любит?

Ценообразование на основе ресурсов рассматривает использование на гранулированном уровне. Вместо того, чтобы оценивать свое использование на основе используемых вами типов машин, он оценивает, сколько ресурсов вы потребляете за определенный период времени. Что это значит? Это означает, что ядро ​​является ядром, а ГБ ОЗУ — ГБ ОЗУ. Неважно, какая комбинация заданных типов машин вы используете. Теперь мы смотрим на них на уровне ресурсов — в совокупности. Это становится лучше, потому что скидки с постоянным использованием теперь рассчитываются на региональном уровне, а не только внутри зон. Это означает, что вы можете быстрее получать скидки на использование, поэтому вы можете экономить еще более автоматически.
Чтобы лучше понять эти изменения и получить представление о том, как вы можете сэкономить, давайте посмотрим, как работали сдержанные скидки на использование, и как они будут работать дальше.
Раньше, если вы использовали конкретный тип машины (например, n1-standard-4) с четырьмя vCPU в течение 50% месяца, вы получили эффективную скидку 10%. Если вы использовали его в течение 75% месяца, вы получили эффективную скидку в размере 20%. Если вы используете его в течение 100% месяца, вы получите эффективную скидку в размере 30%.

Хорошо. Теперь, что, если вы использовали разные типы машин?
Предположим, вы используете веб-сервис. Вы начали месяц с n1-standard-4 с четырьмя vCPU. На второй неделе пользовательский спрос на ваш сервис увеличился, и вы увеличили емкость. Вы начали запускать n1-standard-8 с восемью vCPU. Когда-либо растущий спрос заставлял вас снова увеличиваться. На третьей неделе вы начали запускать n1-standard-16 с шестнадцатью vCPU. Из-за вашего успеха вы снова закончили масштабирование, закончив месяц, когда n1-standard-32 с тридцатью двумя vCPU. В этом случае вы не получили бы скидку, потому что вы не запускали ни один из типов машин до 50% месяца.



С ценой на основе ресурсов мы больше не рассматриваем ваш тип машины, и вместо этого мы объединяем все ресурсы, которые вы используете на всех ваших компьютерах, в одну общую сумму, а затем применяете скидку. Вам не нужно предпринимать никаких действий. Вы автоматически сохраняете. Давайте снова рассмотрим пример масштабирования, но на этот раз с ценой на основе ресурсов.
Вы начали месяц, на котором было четыре vCPU, а затем были увеличены до восьми vCPU, шестнадцати vCPU и, наконец, тридцать два vCPU. Вы запускали четыре vCPU весь месяц или 100% времени, поэтому вы получаете 30% скидку на эти vCPU. Вы потратили еще четыре vCPU на 75% от месяца, так что вы получаете 20% скидку на эти vCPU. И, наконец, вы потратили еще восемь vCPU на половину месяца, так что вы получаете 10% скидку на эти vCPU. Шестнадцать vCPU выполнялись в течение одной недели, поэтому они не получили скидку. Давайте посмотрим, как это работает, чтобы укрепить то, что мы узнали.


И поскольку ценообразование на основе ресурсов применяется на региональном уровне, теперь вам будет легче пользоваться скидками на использование, независимо от типа используемой вами машины, или количеством зон в регионе, в котором вы работаете. В ближайшие месяцы вступит в силу ценовая политика на основе ресурсов. Посетите страницу ценообразования на основе ресурсов, чтобы узнать больше.

Drilling down into Stackdriver Service Monitoring

Если вы несете ответственность за производительность и доступность приложений, вы знаете, как трудно это увидеть глазами ваших клиентов и конечных пользователей. Мы думаем, что это действительно изменится после внедрения на прошлой неделе Stackdriver Service Monitoring, нового инструмента для мониторинга того, как ваши клиенты воспринимают ваши приложения, а затем позволяет вам перейти к базовой инфраструктуре, когда есть проблема.

Большинство инструментов ИТ-операций занимают мало внимания в отношении ИТ-систем: они смотрят на вычисления, хранилища и сетевые показатели, чтобы выявить опыт работы с клиентами. Средства управления эффективностью приложений (APM), такие как системы трассировки, отладчики и профилировщики, рассматривают приложение с уровня кода, но упускают из виду базовую инфраструктуру. Иногда решение аналитики журналов может обеспечить клей между этими двумя слоями, но часто с большими усилиями и расходами.

У ИТ-операторов отсутствует экономичный и простой в использовании инструмент общего назначения для мониторинга поведения своих приложений, ориентированного на клиента. Трудно понять, как конечные пользователи испытывают ваше программное обеспечение, и сложно стандартизовать службы и приложения. Персонал Ops рискует выгорать из всех ложных предупреждений. Результатом всего этого является то, что среднее время-разрешение (MTTR) больше, чем необходимо, и удовлетворенность клиентов ниже желаемого. Ситуация усугубляется с помощью микросервисных архитектур, где само приложение разбито на множество мелких кусочков, что затрудняет понимание того, как все части подходят друг другу и где начать расследование, когда есть проблема.
Все это происходит с выпуском Stackdriver Service Monitoring. Мониторинг сервисов использует сервисную, «укомплектованную» инфраструктуру, поэтому вы можете отслеживать, как конечные пользователи воспринимают ваши системы, позволяя вам, когда это необходимо, перейти на уровень инфраструктуры. Первоначально мы поддерживаем эту функциональность для Google App Engine и сервисов Istio, работающих в Google Kubernetes Engine. С течением времени мы будем расширяться до большего количества платформ.

С помощью Stackdriver Service Monitoring вы получаете ответы на следующие вопросы:
  • Каковы ваши услуги? Какую функциональность предоставляют эти услуги для внутренних и внешних клиентов?
  • Каковы ваши обещания и обязательства относительно доступности и эффективности этих услуг, а также ваши услуги, связанные с ними?
  • Что такое межсервисные зависимости для приложений на основе микросервисов? Как вы можете использовать эти знания для двойной проверки новых версий кода и проблем с сортировкой в ​​случае ухудшения обслуживания?
  • Можете ли вы посмотреть на все сигналы мониторинга для целостного сервиса, чтобы уменьшить MTTR?

Анатомия мониторинга службы стоп-приводов
Сервисный мониторинг состоит из трех частей: графика обслуживания, целей уровня обслуживания (SLO) и панелей мониторинга с несколькими сигналами. Вместе они дают вам список ваших услуг, визуально отображают зависимости между ними, позволяют устанавливать и оценивать возможности доступности и производительности, помогать вам устранять проблемы приложений, чтобы быстро найти основную причину и, наконец, помочь вам быстрее отлаживать сломанные услуги чем когда-либо. Давайте посмотрим на каждую часть по очереди.
Сервисный график: это представление о вашей инфраструктуре, относящееся к услугам. Он начинается с отображения верхнего уровня в реальном времени всех сервисов в сервисной сетке Istio и связей между ними. При выборе одной услуги отображаются графики с коэффициентами ошибок и метриками задержки. Двойной щелчок по сервису позволяет развернуть свою базовую инфраструктуру Kubernetes, обеспечивая длинную неуловимую связь между поведением приложения и инфраструктурой. Существует также ползунок времени, который позволяет вам видеть график в предыдущие моменты времени. Используя сервисный график, вы можете увидеть свою архитектуру приложения для справочных целей или для сортировки проблем. Вы можете изучить показатели поведения службы и определить, вызывает ли восходящий сервис проблемы с последующей службой. Наконец, вы можете сравнить график обслуживания в разные моменты времени, чтобы определить, было ли значительное архитектурное изменение прямо перед сообщением проблемы. Существует не более быстрый способ начать изучение и понимание сложных мультисервисных приложений.



SLO: внутренне в Google наша команда инженеров по надежности сайта (SRE) только предупреждает себя о проблемах, связанных с клиентами, и не во всех потенциальных причинах. Это лучше согласовывает их с интересами клиентов, снижает их трудность, освобождает их, чтобы делать надёжную инженерию с добавленной стоимостью и повышает удовлетворенность работой. Stackdriver Service Monitoring позволяет вам устанавливать, контролировать и предупреждать о SLO. Поскольку Istio и App Engine имеют укрупненный способ, мы точно знаем, что подсчет транзакций, количество ошибок и распределение задержек находятся между службами. Все, что вам нужно сделать, — установить целевые показатели доступности и производительности, и мы автоматически генерируем графики для индикаторов уровня обслуживания (SLI), соответствия вашим целям с течением времени и вашего оставшегося бюджета ошибок. Вы можете настроить максимально допустимую скорость снижения для бюджета ошибок; если эта ставка превышена, мы уведомляем вас и создаем инцидент, чтобы вы могли принять меры. Чтобы узнать больше о концепциях SLO, включая бюджет ошибок, мы рекомендуем вам прочитать главу SLO в книге SRE.



Service Dashboard: В какой-то момент вам нужно будет углубиться в сигналы службы. Возможно, вы получили оповещение SLO, и нет очевидной причины восходящего потока. Возможно, услуга связана с графиком обслуживания как возможная причина для оповещения SLO другого сервиса. Возможно, у вас есть жалоба клиента за пределами предупреждения SLO, которое вам нужно изучить. Или, может быть, вы хотите увидеть, как происходит развертывание новой версии кода.
Панель управления сервисов обеспечивает единый когерентный вывод всех сигналов для конкретной службы, причем все они привязаны к одному и тому же таймфрейму с одним элементом управления, предоставляя вам самый быстрый способ преодолеть проблему с вашим сервисом. Мониторинг сервиса позволяет вам глубоко погрузиться в поведение службы по всем сигналам, не отрываясь от разных продуктов, инструментов или веб-страниц для показателей, журналов и трасс. Панель управления дает вам представление о SLO на одной вкладке, показатели обслуживания (скорости транзакций, частоты ошибок и задержки) на второй вкладке, а также диагностику (трассировки, отчеты об ошибках и журналы) на третьей вкладке.



После того, как вы проверили отклонение бюджета на первой вкладке и изолированный аномальный трафик во второй вкладке, вы можете продолжить дальше на вкладке диагностики. Для проблем с производительностью вы можете развернуть длинные хвостовые следы, а оттуда легко попасть в Stackdriver Profiler, если ваше приложение приспособлено для этого. Для проблем с доступностью вы можете просматривать журналы и отчеты об ошибках, проверять трассировки стека и открывать отладчик Stackdriver, если приложение предназначено для этого.



Мониторинг служб Stackdriver дает вам совершенно новый способ просмотра архитектуры приложения, причины его поведения, ориентированного на клиента, и вникать в корень любых возникающих проблем. Он использует преимущества усовершенствования программного обеспечения в области инфраструктуры, которые Google отстаивает в мире с открытым исходным кодом, и использует трудно завоеванные знания наших команд SRE. Мы считаем, что это в корне преобразует опыт работы с операционными командами разработчиков облачных вычислений и микросервисов. Чтобы узнать больше, ознакомьтесь с презентацией и демонстрацией с Лабораториями Декарта на GCP. На прошлой неделе. Мы надеемся, что вы подпишетесь, чтобы попробовать и поделиться своими отзывами.

Партнерство с Intel и SAP на постоянной памяти Intel Optane DC для SAP HANA

Нан Боден, старший директор, Глобальные технологические партнерства, Google Cloud и Parthasarathy Ranganathan, заслуженный инженер

Наши клиенты делают необычные вещи своими данными. Но по мере роста их данных они сталкиваются с такими проблемами, как стоимость ресурсов, необходимых для их обработки и хранения, а также общие ограничения по размеру при низкой рабочей нагрузке в памяти.

Использование нашими клиентами рабочих нагрузок в памяти с помощью SAP HANA для использования в новых случаях использования данных приводит к увеличению емкости памяти. Мы постоянно подталкиваем границы размеров экземпляров GCP и исследуем все более рентабельные способы выполнения рабочих нагрузок SAP на GCP.

Сегодня мы объявляем о партнерстве с Intel и SAP для предоставления виртуальных машин GCP, поддерживающих предстоящую постоянную память Intel® Optane ™ DC Persistent Memory для рабочих нагрузок SAP HANA. Эти виртуальные машины GCP будут оснащены будущими процессорами Intel® Xeon® Scalable (под кодовым названием Cascade Lake), тем самым расширяя размер ресурсов VM и предоставляя преимущества для клиентов.

Compute Engine VM с постоянной памятью Intel Optane DC обеспечит более высокую общую емкость памяти с более низкой стоимостью по сравнению с экземплярами только с динамической оперативной памятью (DRAM). Это поможет вам расширить масштабы ваших экземпляров, одновременно контролируя затраты. Compute Engine постоянно фокусировался на сокращении ваших служебных накладных расходов за счет таких возможностей, как Live Migration. В сочетании с преимуществами постоянной стойкости Intel Optane DC Persistent Memory вы получите более быстрое время перезагрузки для наиболее важных бизнес-приложений.

Экземпляры Google Cloud в постоянной памяти Intel Optane DC для SAP HANA и другие рабочие нагрузки будут доступны в альфа в этом году для тестирования клиентов. Чтобы узнать больше, заполните эту форму, чтобы зарегистрировать свой интерес.

Чтобы узнать больше об этом партнерстве, посетите наши страницы партнерства Intel и SAP.
cloud.google.com/intel/
cloud.google.com/sap

UltraMem типы машин с объемом памяти до 4 Тбайт

Сегодня мы объявляем об общей доступности типов компьютеров, оптимизированных для работы с памятью с помощью Google Compute Engine «ultramem». Вы можете предоставить ультрамарочные виртуальные машины до 160 vCPU и почти 4TB памяти — самые vCPU, которые вы можете предоставить по требованию в любом общедоступном облаке. Эти сверхширокие типы машин отлично подходят для работы интенсивных рабочих нагрузок, таких как SAP HANA, при одновременном использовании производительности и гибкости облачной платформы Google (GCP).

Типы ультрамассивных машин предлагают наибольшее количество ресурсов на ВМ любого типа машины Compute Engine, поддерживая инновационные дифференциаторы Compute Engine, в том числе:
  • Живая миграция
  • Возможность создавать превентивные экземпляры для пакетных рабочих нагрузок
  • Гибкая биллинг в секунду
  • Поддержка постоянного использования и скидки на использование
  • SAP-сертифицированный для OLAP и OLTP рабочих нагрузок

Поскольку мы объявили о нашем партнерстве с SAP в начале 2017 года, мы быстро расширили нашу поддержку SAP HANA с новыми мощными машинами Compute Engine с интенсивной памятью. Мы также тесно сотрудничали с SAP для тестирования и сертификации этих типов машин, чтобы предоставить вам проверенные решения для ваших критически важных рабочих нагрузок. Наши поддерживаемые размеры VM для SAP HANA теперь соответствуют широкому спектру требований клиентов Google Cloud Platform. За последний год размер наших сертифицированных экземпляров вырос более чем на 10X для развертывания масштабирования и масштабирования. Имея до 4 ТБ памяти и 160 vCPU, сверхмарочные типы компьютеров являются крупнейшими экземплярами, сертифицированными SAP, для GCP для ваших рабочих нагрузок OLAP и OLTP.



Мы также предлагаем другие возможности для управления вашей средой HANA на GCP, включая автоматическое развертывание и мониторинг Stackdriver. Нажмите здесь, чтобы более подробно ознакомиться с экосистемой SAP HANA на GCP.

Скидка до 70% за использование
Мы также рады сообщить, что GCP теперь предлагает более глубокие скидки на использование до 70% для типов машин с оптимизированной памятью, что поможет вам повысить общую стоимость владения (TCO) для устойчивого, прогнозируемого использования. Это позволяет вам контролировать затраты с помощью различных моделей использования: использование по требованию, чтобы начать тестирование типов машин, использовать скидки, когда вы готовы к развертыванию производства, и скидки на использование для зрелого, предсказуемого использования. Более подробную информацию о фиксированных скидках на использование для этих типов машин проверяйте наши документы или используйте калькулятор цен, чтобы оценить ваши сбережения на GCP.

Клиенты GCP используют ультрамарочные виртуальные машины для различных интенсивных рабочих нагрузок, включая базы данных в памяти, приложения HPC и аналитические рабочие нагрузки.
Colgate сотрудничает с SAP и Google Cloud как ранним пользователем ультрамассивных виртуальных машин для S / 4 HANA.

В рамках нашего партнерства с SAP и Google Cloud мы были ранним тестировщиком экземпляров GoogleTool 4TB для рабочих нагрузок SAP. Машины хорошо зарекомендовали себя, и результаты были положительными. Мы рады продолжить сотрудничество с SAP и Google Cloud совместно создавать инновационные изменения на рынке, основанные на платформе SAP Cloud Platform, работающей на GCP
Хавьер Ллинас, вице-президент, GIT, Colgate

Эти ultramem типы машин доступны в нас — central1, us-east1 и europe-west1, и в скором времени планируется создание более глобальных регионов. Будьте в курсе событий в других регионах, посетив нашу страницу с доступными регионами и зонами.
Легко настраивать и предоставлять программные типы n1-ultramem, а также через консоль. Чтобы узнать больше о запуске вашей базы данных SAP HANA в памяти на GCP с помощью типов ультрамассивных машин, посетите нашу страницу SAP и перейдите на консоль GCP, чтобы начать.

cloud.google.com/sap/saphana/
console.cloud.google.com/

Kubernetes выиграл премию OSCON Most Impact Award

Сегодня на церемонии открытия Open Source Awards на OSCON 2018 Кубернетес выиграл первую премию за лучший удар, в которой признан проект, который в прошлом году оказал «значительное влияние на то, как написано программное обеспечение и приложения». Спасибо O'Reilly OSCON за признание, и, что еще более важно, спасибо огромному сообществу Кубернетов, который привел проект туда, где он сегодня.
kubernetes.io/blog/2018/07/19/kubernetes-wins-2018-oscon-most-impact-award/

Когда мы выпустили Kubernetes всего четыре года назад, мы никогда не представляли себе, насколько успешным будет проект. Мы разработали Kubernetes из десятилетнего опыта работы с рабочими нагрузками в Google, но мы не знали, примет ли его внешний мир. Однако мы полагали, что если мы останемся открытыми для новых идей и новых голосов, сообщество предоставит обратную связь и вклад в продвижение проекта для удовлетворения потребностей пользователей во всем мире.
ai.google/research/pubs/pub43438

Эта открытость привела к быстрому принятию Кубернете — и это также один из основных столпов Google Cloud: наша вера в открытое облако, чтобы вы могли собирать и перемещать свое приложение там, где хотите. Независимо от того, является ли это Tensorflow, библиотека с открытым исходным кодом для машинного обучения, Asylo, платформа для конфиденциальных вычислений или Istio, открытая платформа для подключения микросервисов, открытость остается основной ценностью здесь в Google Cloud.

Для всех, кто помог Кубернесу добиться успеха сегодня, большое спасибо.
Если вы не пробовали Kubernetes, легко начать работу с Google Kubernetes Engine. Если вам интересно узнать больше о Кубернете и экосистеме, которую она породила, а затем подписаться на Podcast от Kubernetes от Google, чтобы услышать еженедельную информацию от лидеров сообщества.

cloud.google.com/kubernetes-engine/