Рейтинг
0.00

Google Cloud Platform

4 читателя, 36 топиков

Product updates | June 20, 2018



Региональные Стойкие Диски для Google Kubernetes Engine
В настоящее время в бета-версии, региональные Стойкие Диски репликации данных между двумя зонами, в одном регионе, что позволяет высокий уровень доступности для рабочих нагрузок с состоянием. В случае зонального отключения, переход на другой ресурс автоматически обрабатываются другой зоной.
cloudplatform.googleblog.com/2018/05/Get-higher-availability-with-Regional-Persistent-Disks-on-Google-Kubernetes-Engine.html

Самостоятельно управляемые ключи шифрования с БКА и Cloud КМС
Это бета запуск позволяет клиентам использовать службы управления ключами Cloud для защиты ресурсов Google Compute Engine, такие как диски, изображения и снимки.
cloud.google.com/compute/docs/disks/customer-managed-encryption?hl=en/

Поддержка TLS сертификатов на GKE Ingress
Это бета-версия добавляет поддержку TLS сертификатов на GKE Ingress.
cloud.google.com/kubernetes-engine/docs/how-to/ingress-multi-ssl

Новые региональные кластеры для Kubernetes Engine
Теперь пользователи могут получить 99,95% время бесперебойной работы и повысить доступность своих кластеров путем создания региональных кластеров. В отличии от других типов кластеров, региональные кластеры создают три кластера мастеров на три зон в регионе.
cloud.google.com/kubernetes-engine/docs/concepts/multi-zone-and-regional-clusters

Быстрее вращение сертификат Cloud SQL SSL
Теперь пользователи могут вращаться SSL сертификатов, используемых для подключения к их экземплярам Cloud SQL без простоев. Показать еще
cloud.google.com/sql/docs/postgres/configure-ssl-instance

GPUs as a service with Kubernetes Engine are now generally available



Сегодня мы рады объявить об общей доступности графических процессоров в Google Kubernetes Engine, которые стали одной из самых быстрорастущих функций платформы, так как они вступили в бета-версию в начале этого года, а основные часы выросли на 10X с конца 2017 года.

Совместно с GA Kubernetes Engine 1.10 графические процессоры делают Kubernetes Engine отличным для рабочих нагрузок для машинного обучения (ML). Используя GPU в Kubernetes Engine для ваших рабочих нагрузок CUDA, вы получаете максимальную вычислительную мощность графических процессоров, когда вам нужно, без необходимости управлять оборудованием или даже виртуальными машинами. Недавно мы представили новейший и самый быстрый NVIDIA Tesla V100 в портфолио, и P100, как правило, доступен. И последнее, но не менее важное: мы также предлагаем начальный уровень K80, который в значительной степени отвечает за популярность графических процессоров.

Все наши модели графических процессоров доступны в качестве превентивных графических процессоров, что позволяет снизить затраты при использовании графических процессоров в Google Cloud. Ознакомьтесь с последними ценами на графические процессоры здесь.
По мере роста основных часов GPU наши пользователи в восторге от GPU в Kubernetes Engine. Ocado, крупнейший в мире онлайн-магазин продуктов питания, всегда стремится применять современные модели машинного обучения для клиентов Ocado.com и партнеров по розничной торговле Ocado Smart Platform и запускает модели на превентивных экземплярах с ускорением GPU на Двигатель Кубернетеса.

Присоединенные к GPU узлы вместе с Kubernetes обеспечивают мощную, экономичную и гибкую среду для машинного обучения на уровне предприятия. Ocado выбрала Kubernetes за ее масштабируемость, мобильность, сильную экосистему и огромную поддержку сообщества. Он легче, гибче и удобнее в обслуживании по сравнению с кластером традиционных виртуальных машин. Он также имеет большую простоту в использовании и возможность прикреплять аппаратные ускорители, такие как графические процессоры и TPU, обеспечивая огромный прирост по сравнению с традиционными процессорами
— Мартин Николов, инженер-разработчик программного обеспечения, Ocado

Графические процессоры в Kubernetes Engine также имеют ряд уникальных возможностей:
  • Узел пулов позволяет вашему существующему кластеру использовать графические процессоры, когда вам нужно.
  • <a href=«cloud.google.com/kubernetes-engine/docs/concepts/cluster-autoscaler
  • автоматически создает узлы с графическими процессорами, когда планируются графические процессоры, и масштабируются до нуля, когда графические процессоры больше не потребляются никакими активными модулями.
Технология Taint и toleration гарантирует, что на узлах с графическими процессорами будут запланированы только те модули, которые запрашивают графические процессоры, и предотвращают запуск блоков, которые не требуют использования графических процессоров.
Квота ресурсов, которая позволяет администраторам ограничить потребление ресурсов на пространство имен в большом кластере, совместно используемом несколькими пользователями или командами.

Мы также слышали от вас, что вам нужен простой способ понять, как работают ваши задачи GPU: насколько заняты графические процессоры, сколько памяти доступно и сколько памяти выделено. Мы очень рады сообщить, что теперь вы можете отслеживать эту информацию из консоли GCP. Вы также можете визуализировать эти показатели в Stackdriver.


Рис. 1. Использование памяти GPU и рабочий цикл
Общая доступность графических процессоров в Kubernetes Engine представляет собой тяжелую работу за кулисами, полировку внутренних компонентов для корпоративных нагрузок. Jiaying Zhang, технический лидер в этой общей доступности, возглавил усилия Device Plugins в Kubernetes 1.10, тесно сотрудничая с сообществом OSS, чтобы понять его потребности, определить общие требования и разработать план выполнения для создания готовой к производству системы.
Попробуйте их сегодня

Чтобы начать использовать графические процессоры в Kubernetes Engine с помощью бесплатной пробной версии в размере 300 долларов США, вам необходимо обновить свою учетную запись и подать заявку на получение квоты на использование графического процессора для вступления в силу кредитов. Для более подробного объяснения Kubernetes Engine с графическими процессорами, например, как установить драйверы NVIDIA и как настроить контейнер для использования графических процессоров, ознакомьтесь с документацией.
В дополнение к графическим процессорам в Kubernetes Engine облачные TPU также теперь доступны в Google Cloud. Например, RiseML использует Cloud TPU в Kubernetes Engine для простой в использовании инфраструктуры машинного обучения, которая проста в использовании, обладает высокой масштабируемостью и экономичностью. Если вы хотите быть одним из первых, кто получил доступ к Cloud TPU в Kubernetes Engine, присоединяйтесь к нашей программе раннего доступа сегодня.
Спасибо за ваши отзывы о том, как формировать нашу дорожную карту, чтобы лучше удовлетворить ваши потребности. Продолжайте разговор, соединившись с нами на канале Cubernetes Engine Slack.

Product updates



DNS-based service for discovery support for Internal Load Balancing
With this beta release, users can specify a service label when configuring a forwarding rule, automatically creating a fully qualified domain name in the Google Cloud Platform internal DNS.
cloud.google.com/compute/docs/load-balancing/internal/

GCE: Creating multiple disks at VM creation
To make VM creation more convenient, Google Compute Engine now lets users create multiple disks for VM instances in addition to the boot disk at the time of creation. You can easily create data or application disks for a VM in one go with this feature.
cloud.google.com/compute/docs/instances/create-start-instance

New App Engine scheduler
Designed to improve efficiency, control, and simplicity, a new instance scheduler offers a full rebuild of the Google App Engine standard autoscaling and scheduling features.
cloud.google.com/appengine/docs/standard/python/config/appref

VPC-native clusters using Alias IPs
This GA release of Alias IPs allows Google Kubernetes Engine clusters to be more scalable, and enables them to better interact with other GCP products and services.
cloud.google.com/kubernetes-engine/docs/how-to/alias-ips

CLOUD AI
TPUs now available for Cloud ML Engine
Now in beta on Cloud Machine Learning Engine, Tensor Processing Units are purpose-built for machine learning workloads with up to 180 teraflops of performance and 64 GB of ultra-high bandwidth memory for on-demand ML supercomputing.
cloud.google.com/ml-engine/docs/tensorflow/using-tpus

BIG DATA
BigQuery adds NUMERIC data type
Now in beta, this new feature adds the NUMERIC data type to Google BigQuery standard SQL. NUMERIC supports an exact numeric value with 38 digits of precision and nine decimal digits of scale, and is suitable for financial calculations.
cloud.google.com/bigquery/docs/reference/standard-sql/data-types

Self-service cost controls for BigQuery
Users can now self-manage cost controls for project-level quotas for BigQuery without having to submit support requests.
cloud.google.com/bigquery/docs/custom-quotas

NETWORKING
Introducing Network Service Tiers
Network Service Tiers, now in beta, make GCP the first major public cloud to offer a tiered cloud network. Choose a Premium or Standard tier to optimize your cloud network for performance or price.
cloud.google.com/network-tiers/

DEVELOPER TOOLS
Zync Render update
Zync Render now provides improved job start time and performance. It adds 96-core VM support, and the ability for admins to set limits on the number of machines that can be used on a per-user and a per-project basis.
www.zyncrender.com/

MANAGEMENT TOOLS
New programmatic budget notifications in Google Cloud Billing
Now GA, Google Cloud Billing programmatic budget notifications let users set rules to communicate, control, and cap costs.
cloudplatform.googleblog.com/2018/05/Better-cost-control-with-Google-Cloud-Billing-programmatic-notifications.html

New condition editor for Stackdriver Alerting UI
Now in beta, users can opt in to Stackdriver’s new condition editor in the Alerting UI for an intuitive, visual way to create, edit, and manage alerting policies.
cloud.google.com/monitoring/alerts/using-alerting-ui

Opening a third zone in Singapore

Когда в прошлом году мы открыли региональную платформу Google Cloud Platform (GCP) в Сингапуре, она была запущена с двумя зонами. Сегодня мы рады объявить третью зону (asia-southeast1-c) и несколько новых услуг. Это расширение облегчит клиентам, особенно в Юго-Восточной Азии, создание высокодоступных услуг, которые отвечают потребностям их бизнеса.


Это 46-я зона GCP в глобальном масштабе, и теперь все 15 регионов GCP имеют три или более зоны. Мы строим каждый регион с целью предоставления как минимум трех зон, потому что мы понимаем важность высокой доступности. Клиенты могут распространять свои приложения и хранилища в нескольких зонах для защиты от сбоев в работе служб.
Новые услуги
На старте в Сингапурском регионе был основной набор услуг, и мы продолжаем добавлять такие сервисы, как Cloud KMS и Cloud Bigtable. Теперь мы добавили три новых сервиса в регион: Cloud Spanner, Cloud SQL и Managed Instance Groups.




GCP is building a region in Zürich



Switzerland is a country famous for pharmaceuticals, manufacturing and banking, and its central location in Europe makes it an attractive location for cloud. Today, we’re announcing a Google Cloud Platform (GCP) region in Zürich to make it easier for businesses to build highly available, performant applications. I am originally from Switzerland, so this cloud infrastructure investment is personally exciting for me.

Zürich will be our sixth region in Europe, joining our future region in Finland, and existing regions in the Netherlands, Belgium, Germany, and the United Kingdom. Overall, the Swiss region brings the total number of existing and announced GCP regions around the world to 20—with more to come!

The Swiss region will open in the first half of 2019. Customers in Switzerland will benefit from lower latency for their cloud-based workloads and data, and the region is also designed for high availability, launching with three zones to protect against service disruptions.

Расширение нашего портфолио GPU с помощью NVIDIA Tesla V100

Облачные аппаратные ускорители, такие как графические процессоры или графические процессоры, являются отличным выбором для вычислительных нагрузок, таких как машинное обучение и высокопроизводительные вычисления (HPC). Мы стремимся предоставить самый широкий выбор популярных ускорителей на Google Cloud, чтобы удовлетворить ваши потребности в гибкости и стоимости. С этой целью, мы рады сообщить, что графические процессоры NVIDIA Tesla и твердотельного накопителя v100, если сейчас публично доступна в бета-версии на Вычислительные машины и двигателя Kubernetes, и что NVIDIA Тесла Р100 графических процессоров стала общедоступна.

Сегодняшние самые требовательные рабочие нагрузки и индустрии требуют самых быстрых акселераторов оборудования. Теперь вы можете выбрать до восьми графических процессоров NVIDIA Tesla V100, 96 vCPU и 624 ГБ системной памяти в одной виртуальной машине, получая до 1 петафлопа смешанной точности аппаратного ускорения. Следующее поколени соединений NVLINK поставляет до 300GB/s ширины полосы частот GPU-к-GPU, 9X над PCIe, форсируя представление на глубоком учить и рабочих нагрузках HPC до 40%. NVIDIA V100s доступны для следующих регионов: us-west1, us-central1 и Европа-west4. Каждый V100 GPU по цене всего $2.48 в час по требованию ВМ и $1,24 на час для операционных систем виртуальных машин. Как и наши другие графические процессоры, V100 также оплачивается вторым и действуют постоянные скидки.

Наши клиенты часто спрашивают, какой Графический процессор лучше всего подходит для их вычислительной нагрузки с поддержкой CUDA. Если вы ищете баланс между ценой и производительностью, Графический процессор NVIDIA Tesla P100 хорошо подходит. Можно выбрать до четырех графических процессоров P100, 96 vcpu и 624 ГБ памяти на виртуальную машину. Кроме того, Р100, теперь доступна и в Европе-западе4 (Нидерланды) в дополнение к нам-запад1, нам-central1, нам-восток1, Европа-запад1 и Азии-восток1.

Наше портфолио GPU предлагает широкий выбор вариантов производительности и цен, чтобы помочь удовлетворить ваши потребности. Вместо того чтобы выбирать универсальную виртуальную машину одного размера, вы можете подключить наши графические процессоры к пользовательским формам виртуальных машин и воспользоваться широким выбором вариантов хранения, оплачивая только необходимые ресурсы.



Google Cloud упрощает управление рабочими нагрузками GPU как для виртуальных машин, так и для контейнеров. В Google Compute Engine клиенты могут использовать шаблоны экземпляров и управляемые группы экземпляров для простого создания и масштабирования инфраструктуры GPU. Вы также можете использовать NVIDIA V100s и другие наши предложения GPU в Kubernetes Engine, где Кластерный Автоскалер помогает обеспечить гибкость, автоматически создавая узлы с графическими процессорами и масштабируя их до нуля, когда они больше не используются. Вместе с Вытесняемыми графическими процессорами группы управляемых экземпляров Compute Engine и Автосалон Kubernetes Engine позволяют оптимизировать затраты и упростить операции инфраструктуры.
LeadStage, поставщик автоматизации маркетинга, впечатлен стоимостью и масштабом графических процессоров в Google Cloud.

«Графические процессоры NVIDIA отлично подходят для сложных задач оптического распознавания символов на наборах данных низкого качества. Мы используем графические процессоры V100 и P100 в Google Compute Engine для преобразования миллионов рукописных документов, чертежей съемки и инженерных чертежей в машиночитаемые данные. Возможность развертывания тысяч экземпляров GPU в считанные секунды значительно превосходила возможности и стоимость предыдущего поставщика облачных вычислений.»
Адам Сибрук, Главный Исполнительный Директор, LeadStage

Если у вас есть вычислительно требовательные рабочие нагрузки, графические процессоры могут стать настоящим игровым чейнджером. Проверьте нашу страницу GPU, чтобы узнать больше о том, как вы можете извлечь выгоду из P100, V100 и других Google Cloud GPU!

cloud.google.com/free-trial

cloudplatform.googleblog.com/2018/04/Expanding-our-GPU-portfolio-with-NVIDIA-Tesla-V100.html

Product updates



QUIC with HTTPS load balancing
With this beta release, HTTPS load balancing now supports the QUIC transport in connections to clients, improving performance by providing enhanced congestion control and security.
cloud.google.com/compute/docs/load-balancing/http/

User-defined request headers
In this beta release, customers can now specify additional headers that the Google Cloud Load Balancer can add to requests, helping improve the client experience and simplifying backend implementation.
cloud.google.com/compute/docs/load-balancing/http/backend-service

Creating a GCE VM instance with an existing instance template
With this GA release, Google Compute Engine customers can now create a VM instance based on an existing instance template with the ability to override certain instance-template fields.
cloud.google.com/compute/docs/instances/create-vm-from-instance-template

CLOUD AI
Cloud ML Engine – XGBoost and scikit-learn support
With this beta release, customers can now serve trained scikit-learn and XGBoost models on Cloud Machine Learning Engine, using its online prediction service to support scalable prediction requests against their trained models.
cloud.google.com/ml-engine/docs/scikit/

MANAGEMENT TOOLS
Structured data from Stackdriver Logging agent
Customers can now use the Stackdriver Logging agent to convert their logs to a structured JSON format for many common log types with this GA release.
cloud.google.com/logging/docs/structured-logging

NETWORKING
VPC Flow Logs for cloud network monitor
Now in beta, VPC Flow Logs for cloud network monitor increases transparency into your network and allows you to track network flows all the way down to an individual virtual interface in near real time.
cloud.google.com/vpc/docs/using-flow-logs

API PLATFORM & ECOSYSTEMS
Apigee compliance with GDPR requirements
Apigee Edge has been updated to comply with the EU General Data Protection Regulation, allowing customers to disable Apigee Support from being able to trace their proxy traffic, among other changes.
docs.apigee.com/api-platform/faq/privacy-security-settings

Присоединяйтесь к Google Cloud цифровой конференции для ускорения облачной миграции

Вы приглашены присоединиться к нам для глобальной цифровой конференции: Модернизация ИТ в облачную Первой мировой. Узнайте, как инженеры и клиенты Google сокращают расходы и ОПС нагрузку, увеличивая производительность, и получить инновационные преимущества современной облачной платформы — все время вождения согласованности между проводимыми помещениями, организованы и средами общественного облака. Присоединяйтесь к нам для более чем 15 лейтмотив, секционных заседаний и тренингов по темам, которые варьируются от облака миграции в Google Kubernetes Engine.



Что вы можете узнать:
  • Демонстрации и передовой опыт инженеров Google по модернизации с контейнерами
  • Интерактивное обучение, чтобы начать работу с Google Cloud Platform и Kubernetes Engine
  • Облако истории миграции от партнеров Google и клиентов

Специально для вашего часового пояса. Мы у себя четыре трансляции по всему миру и круглосуточно, так что вы можете присоединиться в любом месте, чтобы узнать, как начать свое облачное путешествие.

Задать нам что — нибудь, в любое время. Вы будете иметь уникальную возможность связаться с инженерами Google, партнерами и клиентами, так что вы можете получить ответы — жить.

cloudonair.withgoogle.com/events/modernize