Product updates | August 6, 2018

NETWORKING
Новый Лос-Анджелес, Калифорния, регион: GA
Новый регион Лос-Анджелес в настоящее время и работает. По сравнению с хостингом приложений в следующем ближайшем регионе, их приютили в новом регионе может значительно сократить время задержки для конечных пользователей, в Южный и Северной Калифорнии и юго-западе.
cloudplatform.googleblog.com/2018/07/our-los-angeles-cloud-region-is-open-for-business.html

COMPUTE
типы машин Ultramem: GA
Вы можете предоставление памяти оптимизированные типы машин с до 160 виртуальных ЦП и почти 4 ТБ памяти. Обладая более чем 14 ГБ памяти на VCPU, они хорошо подходят для в памяти баз данных и аналитики, такие как SAP HANA и рабочие нагрузки бизнеса-хранилищах.
cloud.google.com/compute/docs/machine-types
cloudplatform.googleblog.com/2018/07/now-shipping-ultramem-machine-types-with-up-to-4tb-of-ram.html

MARKETPLACE
Google Cloud Platform Marketplace
GCP Marketplace, ранее Cloud Launcher, теперь предлагает производство готового Kubernetes приложений. С упрощенным биллингом и лицензированием третьих сторон, теперь вы можете быстро развернуть в различных средах: на территории, на кластерах Kubernetes, работающие на GCP, или на Kubernetes Engine, а также другие общественных облаках.
cloud.google.com/marketplace/
cloudplatform.googleblog.com/2018/07/introducing-commercial-kubernetes-applications-in-gcp-marketplace.html
Cloud Filestore: beta
Облако FILESTORE теперь позволяет предсказуемо высокую производительность для рабочих нагрузок на основе файлов. Она обеспечивает отечественный опыт для управляемых стоя сетевое устройство хранения данных с Compute Engine и Kubernetes Engine экземпляров.
cloud.google.com/filestore/docs/
COMPUTE
Kubernetes Engine minimum CPU platform: GA
Теперь вы можете выбрать базовый минимум платформу процессора при создании кластера или узел бассейна. Повысьте скорость и производительность ресурсоемких рабочих нагрузок для графики, игр, а также аналитику, обеспечивая при этом узлы никогда не использовать платформу процессора, что это не подходит для их нужд.
cloud.google.com/kubernetes-engine/docs/how-to/min-cpu-platform

Compute Engine instance templates: GA
Эта функция позволяет создавать и управлять шаблонами экземпляра из экземпляров виртуальных машин, что позволяет быстро дублировать, резервное копирование, и воссоздать экземпляры.
cloud.google.com/sdk/gcloud/reference/beta/dataproc/workflow-templates/instantiate

VM rightsizing recommendations: GA
VM рекомендация проклейки — которые предоставляют Вам рекомендуемое экземпляр размера для существующих экземпляров виртуальных машин, основанных на прошлых Memory- и CPU-метрике утилизации — доступна для всех экземпляров Compute Engine, на основе данных мониторинга от хоста VM.
cloud.google.com/compute/docs/instances/apply-sizing-recommendations-for-instances

IDENTITY & SECURITY
Cloud Identity and Access Management domain restricted policies: beta
Политика организации совместного использования домена ограниченно позволяет гарантировать, что только тождества из настроенных доменов могут быть добавлены к политике Cloud IAM, в том числе учетных записей служб. Это предотвращает ресурсы общего доступа с идентичностей вне домена (ов) вашей организации.
cloud.google.com/resource-manager/docs/organization-policy/restricting-domains

STORAGE & DATABASES
Key Visualizer for Cloud Bigtable: beta
Получите лучшее понимание того, как получить доступ к данным, хранящимся в облаке Bigtable с ключевым визуализатором, который генерирует визуальные отчеты ключевых моделей доступа. Устранение неполадок, связанных с производительностью и получить понимание моделей использования в масштабе.
cloud.google.com/bigtable/docs/keyvis-overview

Import/export support for Cloud Spanner: GA
Это очень Запрошенная функция позволяет легко перемещать данные для улучшения аварийного восстановления, тестирования и переноса базы данных. Экспорт любой базы данных Cloud Spanner в облачном хранилище в формате Apache Avro и импортировать файлы из Cloud Storage в новую базу данных Cloud Spanner.
cloudplatform.googleblog.com/2018/07/cloud-spanner-adds-import-export-functionality-to-ease-data-movement.html

NETWORKING
Virtual Private Cloud Flow Logs: GA
запись сеть VPC поток Бревно потоков послана или получена с помощью экземпляров VM на пять-секундные интервалах, и включает в себя богатый набор аннотаций. Вы можете использовать эти журналы для мониторинга сети, судебно-медицинской экспертизы, анализа безопасности в режиме реального времени, а также оптимизации расходов.
cloud.google.com/vpc/docs/using-flow-logs

Cloud Dataproc workflow templates: beta
Облако Dataflow обработки потоков теперь позволяет автору потокового задания и запускать их на облаке DataFlow. Неподвижные, раздвижные и сеансовые окна, а также основная триггерная семантика, все поддерживаются.
cloud.google.com/dataproc/docs/concepts/workflows/workflow-parameters

BigQuery Data Transfer Service for Google Ads: GA
BigQuery Data Transfer Service для объявлений Google (ранее известный как AdWords) позволяет автоматически планировать, запускать и управлять повторяющейся объемными задания загрузки данных экспорта для Google Ads
cloud.google.com/bigquery/docs/adwords-transfer

API MANAGEMENT
Service Usage: beta
Использование службы, служба ГКП инфраструктуры, позволяет обнаружить, включать и отключать службы и их API-интерфейсы для ваших проектов. Они включают в себя услуги и их интерфейсы, созданные Google или третьими лицами с использованием облачных Endpoints
cloud.google.com/service-usage/docs/overview

MARKETPLACE
GCP Marketplace no-obligation software trials: GA
Вы можете теперь выбрать назначенный программное обеспечение с GCP Marketplace на без обязательств экспериментальной основе. Это делает его легче найти оптимальные решения в соответствии с вашими потребностями.
cloud.google.com/marketplace/docs/understanding-billing

GOOGLE MAPS PLATFORM
Google Maps Платформа введена единая плата, поскольку Вы идете ценовой план его основных карт, маршрутов и мест продукции, без ежегодных, авансовых обязательств, прекращение платежей или ограничений на использование. Все разработчики получат $ 200 стоит свободного ежемесячного использования по отношению к основной продукции.
cloud.google.com/maps-platform/user-guide/pricing-changes/

Представляем графические процессоры NVIDIA Tesla P4 для ускорения работы виртуальных рабочих станций и вывода ML на Compute Engine

Сегодня мы рады объявить о новом дополнении к семейству GPU для Google Cloud Platform (GCP), которое оптимизировано для приложений с интенсивным графическим интерфейсом и вывода машинного обучения: графический процессор NVIDIA Tesla P4.

Мы прошли долгий путь с тех пор, как мы представили наш ускоритель вычислений первого поколения — графический процессор K80, добавляющий по графическим процессорам P100 и V100, которые оптимизированы для машинного обучения и рабочих нагрузок HPC. Новые P4-ускорители, теперь в бета-версии, обеспечивают хороший баланс цены / производительности для приложений удаленного отображения и вывода машинного обучения в режиме реального времени.

Графические приложения, которые работают в облаке, значительно выигрывают от графических процессоров на рабочих станциях. Теперь мы поддерживаем виртуальные рабочие станции с помощью NVIDIA GRID на P4 и P100, позволяя вам превратить любой экземпляр с одним или несколькими GPU в высокопроизводительную рабочую станцию, оптимизированную для использования с графическим ускорением. Теперь художники, архитекторы и инженеры могут создавать захватывающие 3D-сцены для своего следующего блокбастера или создавать компьютерную фотореалистичную композицию. P4s обеспечивают 8 ГБ памяти GDDR5 — достаточную мощность для чрезвычайно требовательных интерактивных и захватывающих 3D-приложений.



Один из ранних клиентов Schlumberger был впечатлен гибкостью, которую виртуальные рабочие станции Google Cloud предлагают клиентам нефти и газа.

Виртуальные рабочие станции Compute Engine, работающие на графических процессорах NVIDIA, позволяют нам решать самые сложные задачи визуализации облачных пользователей. Эксперты по теме «Нефть и газ» теперь могут использовать Petrotechnical Suite в когнитивной E & P среде DELFI от Schlumberger на различных устройствах с расширяющимся глобальным охватом. Благодаря сети Google Cloud и увеличению пропускной способности GPU для обеспечения низкой латентности, производительности виртуальных рабочих станций, наши клиенты могут использовать возможности облачных вычислений, чтобы принимать более обоснованные решения от разведки нефти и газа до производства
Raj Kannan, Advisor Solution Architect, Шлюмберже

Использование графических процессоров для облачных 3D-приложений является обязательным. Чтобы помочь создать максимально возможные виртуальные рабочие станции, мы также сотрудничаем с Teradici, который предлагает клиента, который работает на Compute Engine и доступен через GCP Marketplace.

Комбинация Teradici Cloud Access Software, облачной платформы Google и экземпляров NVIDIA P4 и P100 помогает предоставлять высокопроизводительные виртуальные рабочие станции. Теперь клиенты в таких отраслях, как медиа и развлечения, нефть и газ и производство, могут предоставить своим конечным пользователям возможность запускать вычислительные инструменты практически с любого устройства, практически в любой точке мира
Дэн Cordingley, генеральный директор, Teradici

Графические процессоры NVIDIA Tesla P4 также отлично подходят для случаев использования вывода ML, таких как визуальный поиск, интерактивные речевые и видео-рекомендации. Эти ускорители предлагают до 22 ТОПов производительности INT8 и могут сократить время ожидания на 40X по сравнению с традиционными процессорами. Наконец, P4s хорошо подходят для работы с транскодированием видео. Процессоры P4 с одним декодированием и двумя кодировками могут транскодировать до 35 видеопотоков HD в режиме реального времени.



Как и в других наших предложениях для GPU, вы можете присоединить один или несколько P4 к любому типу машины и заплатить только за ресурсы, которые вам нужны. Мы поддерживаем все наши графические процессоры, в том числе P4, на Kubernetes Engine и движок для обучения машинам в облачной машине, визуализацию zync, и они могут воспользоваться преимуществами постоянных дисконтов и преимущественной ценой. P4s доступны сегодня в отдельных зонах в us-central1 (Айова), us-east4 (N. Virginia), Монреале (northamerica-северо-восток1) и europe-west4 (Нидерланды), с большим количеством регионов (включая LA). В приведенной ниже таблице представлен наш полный набор предложений GPU.



Наша цель — сотрудничать с вами и предоставлять аппаратные ресурсы, такие как ускорители, для управления всеми вашими рабочими нагрузками — будь то машинное обучение и обучение, моделирование, геномика, HPC, рендеринг и теперь, трехмерная визуализация. Чтобы узнать больше о P4 и виртуальных рабочих станциях на GCP, просмотрите страницу GPU или NVIDIA. Затем посетите консоль и приступайте к работе!

Обзор разрешения ваших пользователей GCP, чтобы просмотреть затраты по отдельным проектам

Мы пишем, чтобы вы знали, что новое облако Billing billing.resourceCosts.get Identity Management Access (IAM) разрешение вступает в силу 20 августа 2018 года.

Что мне нужно знать?
Мы слышали от многих клиентов, что они хотели бы более точный контроль над тем, что данные о расходах могут видеть своих пользователей. Для решения этой обратной связи, мы добавляем новое разрешение IAM Cloud Billing, billing.resourceCosts.get, что позволяет предоставлять конкретный проект доступа к данным о расходах, как отчеты счетов. Все существующие владельцы проекта и зрители получат это новое разрешение проекта. Ранее единственный вариант видимости с помощью разрешения на расчетный счете, который дал пользователям доступ ко всем расходам по биллинговому счету проекта. Начиная с 20 августа 2018, пользователь должен иметь либо платежный счет разрешения billing.accounts.getSpendingInformation или разрешение billing.resourceCosts.get проекта для того, чтобы просмотреть стоимость проекта в консоли (в том числе платежных карт на домашней странице консоли).

Что мне нужно сделать?
Если вы хотите, чтобы пользователи имели доступ к данным о расходах, они должны иметь либо зритель проекта, владелец проекта или пользовательскую роль с разрешением billing.resourceCosts.get. Если вы хотите, чтобы ограничить видимость, сохраняя при этом одни и те же права доступа, вы можете создать пользовательскую IAM роль. Пожалуйста, ознакомьтесь, что видимость необходимо и предоставить каждому пользователю правильной IAM роль до 20 августа, чтобы сохранить видимость стоимости проекта для правильных пользователей.

Вы должны быть администратором организации, владелец проекта, или администратор роль в управлении пользовательских ролей.

Чтобы узнать больше о том, как работать с учетными записями ролей и разрешений, обзор IAM документации.

Если у вас есть какие — либо вопросы или нужна помощь, пожалуйста, свяжитесь с Платежной поддержкой Google Cloud.

Спасибо за то, что ценится Google Cloud Platform клиент.

Мы переехали! Приходите посмотреть наш новый дом!

Десять лет, три месяца и 30 дней назад мы написали наш первый пост в этом блоге, и теперь мы пишем наш последний на этом конкретном веб-адресе. Сегодня с большим волнением мы представляем вам блог Google Cloud, ваш дом для всех последних новостей о продуктах GCP, практических рекомендациях, перспективах и историях клиентов, к которым вы привыкли, и все они живут счастливо на блестящем новом мобильном устройстве дружественная платформа.
cloud.google.com/blog



Мы очень рады этому изменению. Мало того, что новый блог выглядит очень красиво, но он включает в себя весь контент со всего семейства Google Cloud — GCP, G Suite, Google Maps Platform и Chrome Enterprise, поэтому вы можете увидеть, как они все подходят друг другу. И поскольку анализ данных и искусственный интеллект настолько важны для всего, что сегодня создают люди, мы также сместили наш блог с большими данными и машинным обучением на эту новую платформу.

Помимо сбора всего содержимого блога Google Cloud в одном месте, мы думаем, что вы действительно выиграете от богатых возможностей пометки блога. Теперь вы можете просматривать сообщения в блогах на платформе, а также переходить к конкретным технологическим областям, таким как Application Development, Networking или Open Source, чтобы вы могли быстро найти связанный контент. Существуют также специальные страницы для партнеров, клиентов, тренинги и сертификаты, а также решения и инструкции, чтобы назвать несколько. И поскольку мы можем также помещать сообщения в несколько продуктов и тем, вы обязательно найдете то, что ищете.
Это всего лишь изменения на высоком уровне. Существует множество новых функций для использования и изучения, и мы рекомендуем вам просматривать сайт и познакомиться с ним. Что нового не является нашей задачей: предоставить вам честный, технический контент, чтобы показать вам, как построить свой бизнес на GCP.

На сегодняшний день мы перешли на более чем двухгодичные расходы в блогах GCP в этот новый дом, причем еще больше. Сообщите нам, если вы найдете какие-либо неработающие ссылки, опечатки или просто отсутствующий контент. И, конечно же, нам понравятся ваши отзывы о нашем контенте, дизайне или любых функциях, которые вы хотели бы видеть. Спасибо за прочтение!
google-cloud-blog-team@google.com

Announcing resource-based pricing for Google Compute Engine

Обещание и преимущество облака всегда были гибкостью, низкой стоимостью и оплатой за использование. С помощью Google Compute Engine пользовательские типы машин позволяют создавать экземпляры виртуальных машин любого размера и формы, и мы автоматически применяем скидки на использование и постоянное использование, чтобы снизить ваши затраты. Сегодня мы используем концепцию оплаты за использование в Compute Engine еще дальше с ценой на основе ресурсов.
Благодаря ценообразованию на основе ресурсов мы делаем несколько изменений за кулисами, которые выравнивают, как мы относимся к измерению пользовательских и предопределенных типов машин, а также к тому, как мы применяем скидки для скидок с постоянным использованием. Проще говоря, мы внесли изменения, чтобы автоматически предоставить вам больше сбережений и простой для понимания ежемесячный счет. Кто этого не любит?

Ценообразование на основе ресурсов рассматривает использование на гранулированном уровне. Вместо того, чтобы оценивать свое использование на основе используемых вами типов машин, он оценивает, сколько ресурсов вы потребляете за определенный период времени. Что это значит? Это означает, что ядро ​​является ядром, а ГБ ОЗУ — ГБ ОЗУ. Неважно, какая комбинация заданных типов машин вы используете. Теперь мы смотрим на них на уровне ресурсов — в совокупности. Это становится лучше, потому что скидки с постоянным использованием теперь рассчитываются на региональном уровне, а не только внутри зон. Это означает, что вы можете быстрее получать скидки на использование, поэтому вы можете экономить еще более автоматически.
Чтобы лучше понять эти изменения и получить представление о том, как вы можете сэкономить, давайте посмотрим, как работали сдержанные скидки на использование, и как они будут работать дальше.
Раньше, если вы использовали конкретный тип машины (например, n1-standard-4) с четырьмя vCPU в течение 50% месяца, вы получили эффективную скидку 10%. Если вы использовали его в течение 75% месяца, вы получили эффективную скидку в размере 20%. Если вы используете его в течение 100% месяца, вы получите эффективную скидку в размере 30%.

Хорошо. Теперь, что, если вы использовали разные типы машин?
Предположим, вы используете веб-сервис. Вы начали месяц с n1-standard-4 с четырьмя vCPU. На второй неделе пользовательский спрос на ваш сервис увеличился, и вы увеличили емкость. Вы начали запускать n1-standard-8 с восемью vCPU. Когда-либо растущий спрос заставлял вас снова увеличиваться. На третьей неделе вы начали запускать n1-standard-16 с шестнадцатью vCPU. Из-за вашего успеха вы снова закончили масштабирование, закончив месяц, когда n1-standard-32 с тридцатью двумя vCPU. В этом случае вы не получили бы скидку, потому что вы не запускали ни один из типов машин до 50% месяца.



С ценой на основе ресурсов мы больше не рассматриваем ваш тип машины, и вместо этого мы объединяем все ресурсы, которые вы используете на всех ваших компьютерах, в одну общую сумму, а затем применяете скидку. Вам не нужно предпринимать никаких действий. Вы автоматически сохраняете. Давайте снова рассмотрим пример масштабирования, но на этот раз с ценой на основе ресурсов.
Вы начали месяц, на котором было четыре vCPU, а затем были увеличены до восьми vCPU, шестнадцати vCPU и, наконец, тридцать два vCPU. Вы запускали четыре vCPU весь месяц или 100% времени, поэтому вы получаете 30% скидку на эти vCPU. Вы потратили еще четыре vCPU на 75% от месяца, так что вы получаете 20% скидку на эти vCPU. И, наконец, вы потратили еще восемь vCPU на половину месяца, так что вы получаете 10% скидку на эти vCPU. Шестнадцать vCPU выполнялись в течение одной недели, поэтому они не получили скидку. Давайте посмотрим, как это работает, чтобы укрепить то, что мы узнали.


И поскольку ценообразование на основе ресурсов применяется на региональном уровне, теперь вам будет легче пользоваться скидками на использование, независимо от типа используемой вами машины, или количеством зон в регионе, в котором вы работаете. В ближайшие месяцы вступит в силу ценовая политика на основе ресурсов. Посетите страницу ценообразования на основе ресурсов, чтобы узнать больше.

Drilling down into Stackdriver Service Monitoring

Если вы несете ответственность за производительность и доступность приложений, вы знаете, как трудно это увидеть глазами ваших клиентов и конечных пользователей. Мы думаем, что это действительно изменится после внедрения на прошлой неделе Stackdriver Service Monitoring, нового инструмента для мониторинга того, как ваши клиенты воспринимают ваши приложения, а затем позволяет вам перейти к базовой инфраструктуре, когда есть проблема.

Большинство инструментов ИТ-операций занимают мало внимания в отношении ИТ-систем: они смотрят на вычисления, хранилища и сетевые показатели, чтобы выявить опыт работы с клиентами. Средства управления эффективностью приложений (APM), такие как системы трассировки, отладчики и профилировщики, рассматривают приложение с уровня кода, но упускают из виду базовую инфраструктуру. Иногда решение аналитики журналов может обеспечить клей между этими двумя слоями, но часто с большими усилиями и расходами.

У ИТ-операторов отсутствует экономичный и простой в использовании инструмент общего назначения для мониторинга поведения своих приложений, ориентированного на клиента. Трудно понять, как конечные пользователи испытывают ваше программное обеспечение, и сложно стандартизовать службы и приложения. Персонал Ops рискует выгорать из всех ложных предупреждений. Результатом всего этого является то, что среднее время-разрешение (MTTR) больше, чем необходимо, и удовлетворенность клиентов ниже желаемого. Ситуация усугубляется с помощью микросервисных архитектур, где само приложение разбито на множество мелких кусочков, что затрудняет понимание того, как все части подходят друг другу и где начать расследование, когда есть проблема.
Все это происходит с выпуском Stackdriver Service Monitoring. Мониторинг сервисов использует сервисную, «укомплектованную» инфраструктуру, поэтому вы можете отслеживать, как конечные пользователи воспринимают ваши системы, позволяя вам, когда это необходимо, перейти на уровень инфраструктуры. Первоначально мы поддерживаем эту функциональность для Google App Engine и сервисов Istio, работающих в Google Kubernetes Engine. С течением времени мы будем расширяться до большего количества платформ.

С помощью Stackdriver Service Monitoring вы получаете ответы на следующие вопросы:
  • Каковы ваши услуги? Какую функциональность предоставляют эти услуги для внутренних и внешних клиентов?
  • Каковы ваши обещания и обязательства относительно доступности и эффективности этих услуг, а также ваши услуги, связанные с ними?
  • Что такое межсервисные зависимости для приложений на основе микросервисов? Как вы можете использовать эти знания для двойной проверки новых версий кода и проблем с сортировкой в ​​случае ухудшения обслуживания?
  • Можете ли вы посмотреть на все сигналы мониторинга для целостного сервиса, чтобы уменьшить MTTR?

Анатомия мониторинга службы стоп-приводов
Сервисный мониторинг состоит из трех частей: графика обслуживания, целей уровня обслуживания (SLO) и панелей мониторинга с несколькими сигналами. Вместе они дают вам список ваших услуг, визуально отображают зависимости между ними, позволяют устанавливать и оценивать возможности доступности и производительности, помогать вам устранять проблемы приложений, чтобы быстро найти основную причину и, наконец, помочь вам быстрее отлаживать сломанные услуги чем когда-либо. Давайте посмотрим на каждую часть по очереди.
Сервисный график: это представление о вашей инфраструктуре, относящееся к услугам. Он начинается с отображения верхнего уровня в реальном времени всех сервисов в сервисной сетке Istio и связей между ними. При выборе одной услуги отображаются графики с коэффициентами ошибок и метриками задержки. Двойной щелчок по сервису позволяет развернуть свою базовую инфраструктуру Kubernetes, обеспечивая длинную неуловимую связь между поведением приложения и инфраструктурой. Существует также ползунок времени, который позволяет вам видеть график в предыдущие моменты времени. Используя сервисный график, вы можете увидеть свою архитектуру приложения для справочных целей или для сортировки проблем. Вы можете изучить показатели поведения службы и определить, вызывает ли восходящий сервис проблемы с последующей службой. Наконец, вы можете сравнить график обслуживания в разные моменты времени, чтобы определить, было ли значительное архитектурное изменение прямо перед сообщением проблемы. Существует не более быстрый способ начать изучение и понимание сложных мультисервисных приложений.



SLO: внутренне в Google наша команда инженеров по надежности сайта (SRE) только предупреждает себя о проблемах, связанных с клиентами, и не во всех потенциальных причинах. Это лучше согласовывает их с интересами клиентов, снижает их трудность, освобождает их, чтобы делать надёжную инженерию с добавленной стоимостью и повышает удовлетворенность работой. Stackdriver Service Monitoring позволяет вам устанавливать, контролировать и предупреждать о SLO. Поскольку Istio и App Engine имеют укрупненный способ, мы точно знаем, что подсчет транзакций, количество ошибок и распределение задержек находятся между службами. Все, что вам нужно сделать, — установить целевые показатели доступности и производительности, и мы автоматически генерируем графики для индикаторов уровня обслуживания (SLI), соответствия вашим целям с течением времени и вашего оставшегося бюджета ошибок. Вы можете настроить максимально допустимую скорость снижения для бюджета ошибок; если эта ставка превышена, мы уведомляем вас и создаем инцидент, чтобы вы могли принять меры. Чтобы узнать больше о концепциях SLO, включая бюджет ошибок, мы рекомендуем вам прочитать главу SLO в книге SRE.



Service Dashboard: В какой-то момент вам нужно будет углубиться в сигналы службы. Возможно, вы получили оповещение SLO, и нет очевидной причины восходящего потока. Возможно, услуга связана с графиком обслуживания как возможная причина для оповещения SLO другого сервиса. Возможно, у вас есть жалоба клиента за пределами предупреждения SLO, которое вам нужно изучить. Или, может быть, вы хотите увидеть, как происходит развертывание новой версии кода.
Панель управления сервисов обеспечивает единый когерентный вывод всех сигналов для конкретной службы, причем все они привязаны к одному и тому же таймфрейму с одним элементом управления, предоставляя вам самый быстрый способ преодолеть проблему с вашим сервисом. Мониторинг сервиса позволяет вам глубоко погрузиться в поведение службы по всем сигналам, не отрываясь от разных продуктов, инструментов или веб-страниц для показателей, журналов и трасс. Панель управления дает вам представление о SLO на одной вкладке, показатели обслуживания (скорости транзакций, частоты ошибок и задержки) на второй вкладке, а также диагностику (трассировки, отчеты об ошибках и журналы) на третьей вкладке.



После того, как вы проверили отклонение бюджета на первой вкладке и изолированный аномальный трафик во второй вкладке, вы можете продолжить дальше на вкладке диагностики. Для проблем с производительностью вы можете развернуть длинные хвостовые следы, а оттуда легко попасть в Stackdriver Profiler, если ваше приложение приспособлено для этого. Для проблем с доступностью вы можете просматривать журналы и отчеты об ошибках, проверять трассировки стека и открывать отладчик Stackdriver, если приложение предназначено для этого.



Мониторинг служб Stackdriver дает вам совершенно новый способ просмотра архитектуры приложения, причины его поведения, ориентированного на клиента, и вникать в корень любых возникающих проблем. Он использует преимущества усовершенствования программного обеспечения в области инфраструктуры, которые Google отстаивает в мире с открытым исходным кодом, и использует трудно завоеванные знания наших команд SRE. Мы считаем, что это в корне преобразует опыт работы с операционными командами разработчиков облачных вычислений и микросервисов. Чтобы узнать больше, ознакомьтесь с презентацией и демонстрацией с Лабораториями Декарта на GCP. На прошлой неделе. Мы надеемся, что вы подпишетесь, чтобы попробовать и поделиться своими отзывами.

UltraMem типы машин с объемом памяти до 4 Тбайт

Сегодня мы объявляем об общей доступности типов компьютеров, оптимизированных для работы с памятью с помощью Google Compute Engine «ultramem». Вы можете предоставить ультрамарочные виртуальные машины до 160 vCPU и почти 4TB памяти — самые vCPU, которые вы можете предоставить по требованию в любом общедоступном облаке. Эти сверхширокие типы машин отлично подходят для работы интенсивных рабочих нагрузок, таких как SAP HANA, при одновременном использовании производительности и гибкости облачной платформы Google (GCP).

Типы ультрамассивных машин предлагают наибольшее количество ресурсов на ВМ любого типа машины Compute Engine, поддерживая инновационные дифференциаторы Compute Engine, в том числе:
  • Живая миграция
  • Возможность создавать превентивные экземпляры для пакетных рабочих нагрузок
  • Гибкая биллинг в секунду
  • Поддержка постоянного использования и скидки на использование
  • SAP-сертифицированный для OLAP и OLTP рабочих нагрузок

Поскольку мы объявили о нашем партнерстве с SAP в начале 2017 года, мы быстро расширили нашу поддержку SAP HANA с новыми мощными машинами Compute Engine с интенсивной памятью. Мы также тесно сотрудничали с SAP для тестирования и сертификации этих типов машин, чтобы предоставить вам проверенные решения для ваших критически важных рабочих нагрузок. Наши поддерживаемые размеры VM для SAP HANA теперь соответствуют широкому спектру требований клиентов Google Cloud Platform. За последний год размер наших сертифицированных экземпляров вырос более чем на 10X для развертывания масштабирования и масштабирования. Имея до 4 ТБ памяти и 160 vCPU, сверхмарочные типы компьютеров являются крупнейшими экземплярами, сертифицированными SAP, для GCP для ваших рабочих нагрузок OLAP и OLTP.



Мы также предлагаем другие возможности для управления вашей средой HANA на GCP, включая автоматическое развертывание и мониторинг Stackdriver. Нажмите здесь, чтобы более подробно ознакомиться с экосистемой SAP HANA на GCP.

Скидка до 70% за использование
Мы также рады сообщить, что GCP теперь предлагает более глубокие скидки на использование до 70% для типов машин с оптимизированной памятью, что поможет вам повысить общую стоимость владения (TCO) для устойчивого, прогнозируемого использования. Это позволяет вам контролировать затраты с помощью различных моделей использования: использование по требованию, чтобы начать тестирование типов машин, использовать скидки, когда вы готовы к развертыванию производства, и скидки на использование для зрелого, предсказуемого использования. Более подробную информацию о фиксированных скидках на использование для этих типов машин проверяйте наши документы или используйте калькулятор цен, чтобы оценить ваши сбережения на GCP.

Клиенты GCP используют ультрамарочные виртуальные машины для различных интенсивных рабочих нагрузок, включая базы данных в памяти, приложения HPC и аналитические рабочие нагрузки.
Colgate сотрудничает с SAP и Google Cloud как ранним пользователем ультрамассивных виртуальных машин для S / 4 HANA.

В рамках нашего партнерства с SAP и Google Cloud мы были ранним тестировщиком экземпляров GoogleTool 4TB для рабочих нагрузок SAP. Машины хорошо зарекомендовали себя, и результаты были положительными. Мы рады продолжить сотрудничество с SAP и Google Cloud совместно создавать инновационные изменения на рынке, основанные на платформе SAP Cloud Platform, работающей на GCP
Хавьер Ллинас, вице-президент, GIT, Colgate

Эти ultramem типы машин доступны в нас — central1, us-east1 и europe-west1, и в скором времени планируется создание более глобальных регионов. Будьте в курсе событий в других регионах, посетив нашу страницу с доступными регионами и зонами.
Легко настраивать и предоставлять программные типы n1-ultramem, а также через консоль. Чтобы узнать больше о запуске вашей базы данных SAP HANA в памяти на GCP с помощью типов ультрамассивных машин, посетите нашу страницу SAP и перейдите на консоль GCP, чтобы начать.

cloud.google.com/sap/saphana/
console.cloud.google.com/

Приведение GPU-ускоренной аналитики в GCP Marketplace с помощью MapD



Сегодня мы слышим от нашего партнера MapD, платформа данных которого использует графические процессоры для ускорения запросов и визуализации. Читайте дальше, чтобы узнать, как MapD и Google Cloud работают вместе.

MapD и общедоступное облако отлично подходят. Объединение облачной инфраструктуры графического процессора с производительностью, интерактивностью и простотой использования MapD — большая победа для наших клиентов, позволяющая ученым и аналитикам данных визуально изучать миллиардные ряды данных с плавностью и минимальными проблемами.

Наши изображения Community и Enterprise Edition доступны на AWS, контейнеры докеров MapD доступны в NVIDIA GPU Cloud (NGC), а также в нашем собственном облаке MapD. Сегодня мы очень рады объявить о доступности MapD на рынке Google Cloud Platform (GCP), помогая нам привносить интерактивность в масштабе как можно более широкую аудиторию. Обладая такими областями, как Cloud DataFlow, Cloud BigTable и Cloud AI, GCP стала отличной платформой для интенсивных данных. Объединение MapD и этих сервисов позволяет нам определять масштабируемые высокопроизводительные рабочие процессы визуальной аналитики для различных вариантов использования.

На GCP вы найдете как наши выпуски Community, так и Enterprise для экземпляров K80, Pascal и Volta GPU в GCP Marketplace. Гибкий подход Google к прикреплению графических процессоров к стандартным типам экземпляров на базе процессора означает, что вы можете набирать или уменьшать необходимую емкость GPU для своих экземпляров в зависимости от размера ваших наборов данных и потребностей в вычислении.

Мы уверены, что доступность MapD на рынке GCP еще больше ускорит принятие графических процессоров в качестве ключевой части рабочих нагрузок на корпоративную аналитику, в дополнение к их очевидной применимости к AI, графическим и общим вычислениям. Нажмите здесь, чтобы опробовать MapD на GCP.

Our Los Angeles cloud region is open for business

Эй, ЛА — настал день! Области облачной платформы Лос-Анджелеса официально открыты для бизнеса. Теперь вы можете хранить данные и создавать высокодоступные, эффективные приложения в Южной Калифорнии.
Мэр Лос-Анджелеса Эрик Гаркетти сказал, что это лучше всего
Лос-Анджелес — глобальный центр моды, музыки, развлечений, аэрокосмической техники и многое другое. Технологии необходимы для укрепления нашего статуса как центра изобретений и творчества. Мы рады, что Google Cloud выбрала Лос-Анджелес для предоставления инфраструктурных и технологических решений для наших предприятий и предпринимателей



Область облака Лос-Анджелеса, us-west2, является нашей семнадцатой общей и нашей пятой в Соединенных Штатах.
Приложения для хостинга в новом регионе могут значительно улучшить латентность для конечных пользователей в Южной Калифорнии и до 80% в Северной Калифорнии и на юго-западе по сравнению с их размещением в ближайшем регионе Орегон. Вы можете посетить www.gcping.com, чтобы узнать, насколько быстро регион Лос-Анджелеса для вас.

Сервисы
В регионе Лос-Анджелеса есть все необходимое для создания следующего отличного приложения:


Следует отметить, что регион Лос-Анджелеса дебютировал с одним из наших новейших продуктов: Cloud Filestore BETA, наша управляемая служба хранения файлов для приложений, для которых требуется интерфейс файловой системы и общая файловая система для данных.

В регионе также есть три зоны, позволяющие вам распространять приложения и хранилище в разных зонах для защиты от сбоев в работе служб. Вы также можете получить доступ к нашим многорегиональным сервисам (например, BigQuery) в Соединенных Штатах и ко всем другим службам GCP через нашу сеть Google и объединить любые службы, которые вы развертываете в Лос-Анджелесе, с другими службами GCP по всему миру. Для получения подробной информации о наших возможностях хранения данных, пожалуйста, ознакомьтесь с нашими Условиями обслуживания.

Облачная сеть Google
Глобальная сетевая инфраструктура Google Cloud является самой большой облачной сетью, измеряемой количеством точек присутствия. Эта частная сеть обеспечивает высокоскоростную, высоконадежную связь с низкой задержкой для каждого региона по всему миру. С его помощью вы можете достичь региона LA так же легко, как и любой регион. Кроме того, глобальная балансировка облачной нагрузки Google позволяет легко развертывать действительно глобальные приложения.
Кроме того, если вы хотите подключиться к региону Лос-Анджелеса в частном порядке, мы предлагаем Dedicated Interconnect в двух местах: Equinix LA1 и CoreSite LA1.

Празднование Лос-Анджелеса
Мы отпраздновали запуск облака облака Лос-Анджелеса лучшим способом, которым мы знаем как: с нашими клиентами. На праздновании мы объявили о новых услугах, чтобы помочь создателям контента воспользоваться облаком: Filestore, Transfer Appliance и, конечно же, новый регион, в центре медиа и развлечений. Близость региона к создателям контента имеет решающее значение для облачных визуальных эффектов и рабочих нагрузок анимации. С близостью приходит низкая латентность, которая позволяет обрабатывать облако, как если бы оно было частью вашей локальной инфраструктуры, или даже перенести всю вашу студию на облако.



Что говорят клиенты

«Google Cloud делает город Лос-Анджелес более плавным и эффективным, чтобы лучше обслуживать Ангелос по всему городу. Мы очень рады иметь облачную область, которая позволяет компаниям, крупным или малым, использовать новейшие технологии облачных вычислений и способствовать инновациям ».
— Тед Росс, генеральный директор и главный информационный сотрудник Агентства информационных технологий города Лос-Анджелеса, г. Лос-Анджелес


«Использование Google Cloud для визуализации визуальных эффектов позволяет нашей команде быть быстрым, гибким и одновременно работать над несколькими крупными проектами, не опасаясь голода в ресурсах. Cloud лежит в основе нашей ИТ-стратегии, и Google предоставляет нам возможность рендеринга для создания графики, основанной на Оскаре, в пост-продакшн-работе ».
— Стив Макферсон, главный технический директор, Framestore


«Многие из наших проектов с короткой формой неожиданно появляются, поэтому наличие дополнительных возможностей в регионе может помочь нам быстро воспользоваться этими возможностями. Дополнительная скорость, которую дает нам район Лос-Анджелеса, поможет нам освободить наших художников, чтобы сделать больше творческой работы. Мы также расширяемся на международном уровне и нанимаем больше художников за рубежом, и мы обнаружили, что Google Cloud обладает наилучшим сочетанием глобального охвата, высокой производительности и стоимости, чтобы помочь нам достичь наших амбиций».
— Том Тейлор, начальник отдела машиностроения, мельница

Что говорят партнеры SoCal
Наши партнеры могут помочь в разработке и поддержке ваших потребностей в развертывании, миграции и обслуживании.


«Облако и данные — это новые эквалайзеры, которые преобразуют структуру организации, работают и создают ценность. Премиальное партнерство с облачной платформой Google позволяет нам помогать нашим клиентам в цифровом преобразовании посредством таких усилий, как модернизация приложений, аналитика данных, ML и AI. Новый облачный облако Лос-Анджелеса Google улучшит доступность этих решений и поможет нам лучше обслуживать рынки Лос-Анджелеса и Orange County — место, где Neudesic решил разместить свой корпоративный дом ».
— Тим Маршалл, технический директор и соучредитель, Neudesic


«Предприятия повсюду путешествуют, чтобы использовать мощь облака, чтобы ускорить бизнес-цели, реализовать разрушительные функции и снизить затраты. Партнерство Taos и Google Cloud помогает компаниям внедрять инновации и масштабировать, и мы рады новому областью Google Cloud LA. Центр обработки данных принесет новый уровень бесперебойной работы и обслуживания нашей команде и клиентам в Южной Калифорнии ».
— Гамильтон Ю, президент и главный операционный директор, Таос


«Являясь стартовым партнером Google Cloud и многолетним получателем награды« Партнер года Google », мы очень рады, что в регионе Лос-Анджелеса, нашей домашней базе и где у нас сильный клиентский охват, появился новый облачный регион Google. SADA Systems имеет опыт предоставления отраслевой экспертизы и инновационных технических услуг для клиентов по всей стране. Мы рады использовать масштаб и мощь Google Cloud вместе с опытом SADA для наших клиентов в районе Лос-Анджелеса, чтобы продолжить путешествие по облачным преобразованиям ».
— Тони Сафоян, генеральный директор и президент SADA Systems

cloud.google.com/about/locations/la
cloudonair.withgoogle.com/events/americas
cloud.google.com/about/locations/
goo.gl/forms/U5qAZB1tGR9NUlgB2

Google Cloud Platform New Third-Party Subprocessor

Привет Google Cloud Platform клиентов

Мы отправили это сообщение, чтобы обновить вас на сторонних subprocessors, которые предоставляют клиенту и техническую поддержку для Google Cloud Platform (GCP). Никаких действий не требуется. В ближайшее время мы добавим следующие объекты в наш список третьих сторон subprocessors:
  • Accenture International Limited
  • EPAM Systems Japan GK
Эти subprocessors будет предоставлять услуги, которые включают в себя, но не ограничиваются ими, телефон и поддержку по электронной почте; ответ, диагностике и разрешения; отслеживание инцидента; маркировка и транскрипции; и отвечать на запросы клиентов. Проверим, что наши поставщики услуг необходимый технический опыт, и что они поддерживают наши стандарты безопасности и конфиденциальности. Мы работаем только с поставщиками службы поддержки доверенными.

Вы можете просмотреть наш список сторонних subprocessors cloud.google.com/terms/subprocessors