Рейтинг
0.00

Google Cloud Platform

5 читателей, 77 топиков

Announcing resource-based pricing for Google Compute Engine

Обещание и преимущество облака всегда были гибкостью, низкой стоимостью и оплатой за использование. С помощью Google Compute Engine пользовательские типы машин позволяют создавать экземпляры виртуальных машин любого размера и формы, и мы автоматически применяем скидки на использование и постоянное использование, чтобы снизить ваши затраты. Сегодня мы используем концепцию оплаты за использование в Compute Engine еще дальше с ценой на основе ресурсов.
Благодаря ценообразованию на основе ресурсов мы делаем несколько изменений за кулисами, которые выравнивают, как мы относимся к измерению пользовательских и предопределенных типов машин, а также к тому, как мы применяем скидки для скидок с постоянным использованием. Проще говоря, мы внесли изменения, чтобы автоматически предоставить вам больше сбережений и простой для понимания ежемесячный счет. Кто этого не любит?

Ценообразование на основе ресурсов рассматривает использование на гранулированном уровне. Вместо того, чтобы оценивать свое использование на основе используемых вами типов машин, он оценивает, сколько ресурсов вы потребляете за определенный период времени. Что это значит? Это означает, что ядро ​​является ядром, а ГБ ОЗУ — ГБ ОЗУ. Неважно, какая комбинация заданных типов машин вы используете. Теперь мы смотрим на них на уровне ресурсов — в совокупности. Это становится лучше, потому что скидки с постоянным использованием теперь рассчитываются на региональном уровне, а не только внутри зон. Это означает, что вы можете быстрее получать скидки на использование, поэтому вы можете экономить еще более автоматически.
Чтобы лучше понять эти изменения и получить представление о том, как вы можете сэкономить, давайте посмотрим, как работали сдержанные скидки на использование, и как они будут работать дальше.
Раньше, если вы использовали конкретный тип машины (например, n1-standard-4) с четырьмя vCPU в течение 50% месяца, вы получили эффективную скидку 10%. Если вы использовали его в течение 75% месяца, вы получили эффективную скидку в размере 20%. Если вы используете его в течение 100% месяца, вы получите эффективную скидку в размере 30%.

Хорошо. Теперь, что, если вы использовали разные типы машин?
Предположим, вы используете веб-сервис. Вы начали месяц с n1-standard-4 с четырьмя vCPU. На второй неделе пользовательский спрос на ваш сервис увеличился, и вы увеличили емкость. Вы начали запускать n1-standard-8 с восемью vCPU. Когда-либо растущий спрос заставлял вас снова увеличиваться. На третьей неделе вы начали запускать n1-standard-16 с шестнадцатью vCPU. Из-за вашего успеха вы снова закончили масштабирование, закончив месяц, когда n1-standard-32 с тридцатью двумя vCPU. В этом случае вы не получили бы скидку, потому что вы не запускали ни один из типов машин до 50% месяца.



С ценой на основе ресурсов мы больше не рассматриваем ваш тип машины, и вместо этого мы объединяем все ресурсы, которые вы используете на всех ваших компьютерах, в одну общую сумму, а затем применяете скидку. Вам не нужно предпринимать никаких действий. Вы автоматически сохраняете. Давайте снова рассмотрим пример масштабирования, но на этот раз с ценой на основе ресурсов.
Вы начали месяц, на котором было четыре vCPU, а затем были увеличены до восьми vCPU, шестнадцати vCPU и, наконец, тридцать два vCPU. Вы запускали четыре vCPU весь месяц или 100% времени, поэтому вы получаете 30% скидку на эти vCPU. Вы потратили еще четыре vCPU на 75% от месяца, так что вы получаете 20% скидку на эти vCPU. И, наконец, вы потратили еще восемь vCPU на половину месяца, так что вы получаете 10% скидку на эти vCPU. Шестнадцать vCPU выполнялись в течение одной недели, поэтому они не получили скидку. Давайте посмотрим, как это работает, чтобы укрепить то, что мы узнали.


И поскольку ценообразование на основе ресурсов применяется на региональном уровне, теперь вам будет легче пользоваться скидками на использование, независимо от типа используемой вами машины, или количеством зон в регионе, в котором вы работаете. В ближайшие месяцы вступит в силу ценовая политика на основе ресурсов. Посетите страницу ценообразования на основе ресурсов, чтобы узнать больше.

Drilling down into Stackdriver Service Monitoring

Если вы несете ответственность за производительность и доступность приложений, вы знаете, как трудно это увидеть глазами ваших клиентов и конечных пользователей. Мы думаем, что это действительно изменится после внедрения на прошлой неделе Stackdriver Service Monitoring, нового инструмента для мониторинга того, как ваши клиенты воспринимают ваши приложения, а затем позволяет вам перейти к базовой инфраструктуре, когда есть проблема.

Большинство инструментов ИТ-операций занимают мало внимания в отношении ИТ-систем: они смотрят на вычисления, хранилища и сетевые показатели, чтобы выявить опыт работы с клиентами. Средства управления эффективностью приложений (APM), такие как системы трассировки, отладчики и профилировщики, рассматривают приложение с уровня кода, но упускают из виду базовую инфраструктуру. Иногда решение аналитики журналов может обеспечить клей между этими двумя слоями, но часто с большими усилиями и расходами.

У ИТ-операторов отсутствует экономичный и простой в использовании инструмент общего назначения для мониторинга поведения своих приложений, ориентированного на клиента. Трудно понять, как конечные пользователи испытывают ваше программное обеспечение, и сложно стандартизовать службы и приложения. Персонал Ops рискует выгорать из всех ложных предупреждений. Результатом всего этого является то, что среднее время-разрешение (MTTR) больше, чем необходимо, и удовлетворенность клиентов ниже желаемого. Ситуация усугубляется с помощью микросервисных архитектур, где само приложение разбито на множество мелких кусочков, что затрудняет понимание того, как все части подходят друг другу и где начать расследование, когда есть проблема.
Все это происходит с выпуском Stackdriver Service Monitoring. Мониторинг сервисов использует сервисную, «укомплектованную» инфраструктуру, поэтому вы можете отслеживать, как конечные пользователи воспринимают ваши системы, позволяя вам, когда это необходимо, перейти на уровень инфраструктуры. Первоначально мы поддерживаем эту функциональность для Google App Engine и сервисов Istio, работающих в Google Kubernetes Engine. С течением времени мы будем расширяться до большего количества платформ.

С помощью Stackdriver Service Monitoring вы получаете ответы на следующие вопросы:
  • Каковы ваши услуги? Какую функциональность предоставляют эти услуги для внутренних и внешних клиентов?
  • Каковы ваши обещания и обязательства относительно доступности и эффективности этих услуг, а также ваши услуги, связанные с ними?
  • Что такое межсервисные зависимости для приложений на основе микросервисов? Как вы можете использовать эти знания для двойной проверки новых версий кода и проблем с сортировкой в ​​случае ухудшения обслуживания?
  • Можете ли вы посмотреть на все сигналы мониторинга для целостного сервиса, чтобы уменьшить MTTR?

Анатомия мониторинга службы стоп-приводов
Сервисный мониторинг состоит из трех частей: графика обслуживания, целей уровня обслуживания (SLO) и панелей мониторинга с несколькими сигналами. Вместе они дают вам список ваших услуг, визуально отображают зависимости между ними, позволяют устанавливать и оценивать возможности доступности и производительности, помогать вам устранять проблемы приложений, чтобы быстро найти основную причину и, наконец, помочь вам быстрее отлаживать сломанные услуги чем когда-либо. Давайте посмотрим на каждую часть по очереди.
Сервисный график: это представление о вашей инфраструктуре, относящееся к услугам. Он начинается с отображения верхнего уровня в реальном времени всех сервисов в сервисной сетке Istio и связей между ними. При выборе одной услуги отображаются графики с коэффициентами ошибок и метриками задержки. Двойной щелчок по сервису позволяет развернуть свою базовую инфраструктуру Kubernetes, обеспечивая длинную неуловимую связь между поведением приложения и инфраструктурой. Существует также ползунок времени, который позволяет вам видеть график в предыдущие моменты времени. Используя сервисный график, вы можете увидеть свою архитектуру приложения для справочных целей или для сортировки проблем. Вы можете изучить показатели поведения службы и определить, вызывает ли восходящий сервис проблемы с последующей службой. Наконец, вы можете сравнить график обслуживания в разные моменты времени, чтобы определить, было ли значительное архитектурное изменение прямо перед сообщением проблемы. Существует не более быстрый способ начать изучение и понимание сложных мультисервисных приложений.



SLO: внутренне в Google наша команда инженеров по надежности сайта (SRE) только предупреждает себя о проблемах, связанных с клиентами, и не во всех потенциальных причинах. Это лучше согласовывает их с интересами клиентов, снижает их трудность, освобождает их, чтобы делать надёжную инженерию с добавленной стоимостью и повышает удовлетворенность работой. Stackdriver Service Monitoring позволяет вам устанавливать, контролировать и предупреждать о SLO. Поскольку Istio и App Engine имеют укрупненный способ, мы точно знаем, что подсчет транзакций, количество ошибок и распределение задержек находятся между службами. Все, что вам нужно сделать, — установить целевые показатели доступности и производительности, и мы автоматически генерируем графики для индикаторов уровня обслуживания (SLI), соответствия вашим целям с течением времени и вашего оставшегося бюджета ошибок. Вы можете настроить максимально допустимую скорость снижения для бюджета ошибок; если эта ставка превышена, мы уведомляем вас и создаем инцидент, чтобы вы могли принять меры. Чтобы узнать больше о концепциях SLO, включая бюджет ошибок, мы рекомендуем вам прочитать главу SLO в книге SRE.



Service Dashboard: В какой-то момент вам нужно будет углубиться в сигналы службы. Возможно, вы получили оповещение SLO, и нет очевидной причины восходящего потока. Возможно, услуга связана с графиком обслуживания как возможная причина для оповещения SLO другого сервиса. Возможно, у вас есть жалоба клиента за пределами предупреждения SLO, которое вам нужно изучить. Или, может быть, вы хотите увидеть, как происходит развертывание новой версии кода.
Панель управления сервисов обеспечивает единый когерентный вывод всех сигналов для конкретной службы, причем все они привязаны к одному и тому же таймфрейму с одним элементом управления, предоставляя вам самый быстрый способ преодолеть проблему с вашим сервисом. Мониторинг сервиса позволяет вам глубоко погрузиться в поведение службы по всем сигналам, не отрываясь от разных продуктов, инструментов или веб-страниц для показателей, журналов и трасс. Панель управления дает вам представление о SLO на одной вкладке, показатели обслуживания (скорости транзакций, частоты ошибок и задержки) на второй вкладке, а также диагностику (трассировки, отчеты об ошибках и журналы) на третьей вкладке.



После того, как вы проверили отклонение бюджета на первой вкладке и изолированный аномальный трафик во второй вкладке, вы можете продолжить дальше на вкладке диагностики. Для проблем с производительностью вы можете развернуть длинные хвостовые следы, а оттуда легко попасть в Stackdriver Profiler, если ваше приложение приспособлено для этого. Для проблем с доступностью вы можете просматривать журналы и отчеты об ошибках, проверять трассировки стека и открывать отладчик Stackdriver, если приложение предназначено для этого.



Мониторинг служб Stackdriver дает вам совершенно новый способ просмотра архитектуры приложения, причины его поведения, ориентированного на клиента, и вникать в корень любых возникающих проблем. Он использует преимущества усовершенствования программного обеспечения в области инфраструктуры, которые Google отстаивает в мире с открытым исходным кодом, и использует трудно завоеванные знания наших команд SRE. Мы считаем, что это в корне преобразует опыт работы с операционными командами разработчиков облачных вычислений и микросервисов. Чтобы узнать больше, ознакомьтесь с презентацией и демонстрацией с Лабораториями Декарта на GCP. На прошлой неделе. Мы надеемся, что вы подпишетесь, чтобы попробовать и поделиться своими отзывами.

Партнерство с Intel и SAP на постоянной памяти Intel Optane DC для SAP HANA

Нан Боден, старший директор, Глобальные технологические партнерства, Google Cloud и Parthasarathy Ranganathan, заслуженный инженер

Наши клиенты делают необычные вещи своими данными. Но по мере роста их данных они сталкиваются с такими проблемами, как стоимость ресурсов, необходимых для их обработки и хранения, а также общие ограничения по размеру при низкой рабочей нагрузке в памяти.

Использование нашими клиентами рабочих нагрузок в памяти с помощью SAP HANA для использования в новых случаях использования данных приводит к увеличению емкости памяти. Мы постоянно подталкиваем границы размеров экземпляров GCP и исследуем все более рентабельные способы выполнения рабочих нагрузок SAP на GCP.

Сегодня мы объявляем о партнерстве с Intel и SAP для предоставления виртуальных машин GCP, поддерживающих предстоящую постоянную память Intel® Optane ™ DC Persistent Memory для рабочих нагрузок SAP HANA. Эти виртуальные машины GCP будут оснащены будущими процессорами Intel® Xeon® Scalable (под кодовым названием Cascade Lake), тем самым расширяя размер ресурсов VM и предоставляя преимущества для клиентов.

Compute Engine VM с постоянной памятью Intel Optane DC обеспечит более высокую общую емкость памяти с более низкой стоимостью по сравнению с экземплярами только с динамической оперативной памятью (DRAM). Это поможет вам расширить масштабы ваших экземпляров, одновременно контролируя затраты. Compute Engine постоянно фокусировался на сокращении ваших служебных накладных расходов за счет таких возможностей, как Live Migration. В сочетании с преимуществами постоянной стойкости Intel Optane DC Persistent Memory вы получите более быстрое время перезагрузки для наиболее важных бизнес-приложений.

Экземпляры Google Cloud в постоянной памяти Intel Optane DC для SAP HANA и другие рабочие нагрузки будут доступны в альфа в этом году для тестирования клиентов. Чтобы узнать больше, заполните эту форму, чтобы зарегистрировать свой интерес.

Чтобы узнать больше об этом партнерстве, посетите наши страницы партнерства Intel и SAP.
cloud.google.com/intel/
cloud.google.com/sap

UltraMem типы машин с объемом памяти до 4 Тбайт

Сегодня мы объявляем об общей доступности типов компьютеров, оптимизированных для работы с памятью с помощью Google Compute Engine «ultramem». Вы можете предоставить ультрамарочные виртуальные машины до 160 vCPU и почти 4TB памяти — самые vCPU, которые вы можете предоставить по требованию в любом общедоступном облаке. Эти сверхширокие типы машин отлично подходят для работы интенсивных рабочих нагрузок, таких как SAP HANA, при одновременном использовании производительности и гибкости облачной платформы Google (GCP).

Типы ультрамассивных машин предлагают наибольшее количество ресурсов на ВМ любого типа машины Compute Engine, поддерживая инновационные дифференциаторы Compute Engine, в том числе:
  • Живая миграция
  • Возможность создавать превентивные экземпляры для пакетных рабочих нагрузок
  • Гибкая биллинг в секунду
  • Поддержка постоянного использования и скидки на использование
  • SAP-сертифицированный для OLAP и OLTP рабочих нагрузок

Поскольку мы объявили о нашем партнерстве с SAP в начале 2017 года, мы быстро расширили нашу поддержку SAP HANA с новыми мощными машинами Compute Engine с интенсивной памятью. Мы также тесно сотрудничали с SAP для тестирования и сертификации этих типов машин, чтобы предоставить вам проверенные решения для ваших критически важных рабочих нагрузок. Наши поддерживаемые размеры VM для SAP HANA теперь соответствуют широкому спектру требований клиентов Google Cloud Platform. За последний год размер наших сертифицированных экземпляров вырос более чем на 10X для развертывания масштабирования и масштабирования. Имея до 4 ТБ памяти и 160 vCPU, сверхмарочные типы компьютеров являются крупнейшими экземплярами, сертифицированными SAP, для GCP для ваших рабочих нагрузок OLAP и OLTP.



Мы также предлагаем другие возможности для управления вашей средой HANA на GCP, включая автоматическое развертывание и мониторинг Stackdriver. Нажмите здесь, чтобы более подробно ознакомиться с экосистемой SAP HANA на GCP.

Скидка до 70% за использование
Мы также рады сообщить, что GCP теперь предлагает более глубокие скидки на использование до 70% для типов машин с оптимизированной памятью, что поможет вам повысить общую стоимость владения (TCO) для устойчивого, прогнозируемого использования. Это позволяет вам контролировать затраты с помощью различных моделей использования: использование по требованию, чтобы начать тестирование типов машин, использовать скидки, когда вы готовы к развертыванию производства, и скидки на использование для зрелого, предсказуемого использования. Более подробную информацию о фиксированных скидках на использование для этих типов машин проверяйте наши документы или используйте калькулятор цен, чтобы оценить ваши сбережения на GCP.

Клиенты GCP используют ультрамарочные виртуальные машины для различных интенсивных рабочих нагрузок, включая базы данных в памяти, приложения HPC и аналитические рабочие нагрузки.
Colgate сотрудничает с SAP и Google Cloud как ранним пользователем ультрамассивных виртуальных машин для S / 4 HANA.

В рамках нашего партнерства с SAP и Google Cloud мы были ранним тестировщиком экземпляров GoogleTool 4TB для рабочих нагрузок SAP. Машины хорошо зарекомендовали себя, и результаты были положительными. Мы рады продолжить сотрудничество с SAP и Google Cloud совместно создавать инновационные изменения на рынке, основанные на платформе SAP Cloud Platform, работающей на GCP
Хавьер Ллинас, вице-президент, GIT, Colgate

Эти ultramem типы машин доступны в нас — central1, us-east1 и europe-west1, и в скором времени планируется создание более глобальных регионов. Будьте в курсе событий в других регионах, посетив нашу страницу с доступными регионами и зонами.
Легко настраивать и предоставлять программные типы n1-ultramem, а также через консоль. Чтобы узнать больше о запуске вашей базы данных SAP HANA в памяти на GCP с помощью типов ультрамассивных машин, посетите нашу страницу SAP и перейдите на консоль GCP, чтобы начать.

cloud.google.com/sap/saphana/
console.cloud.google.com/

Kubernetes выиграл премию OSCON Most Impact Award

Сегодня на церемонии открытия Open Source Awards на OSCON 2018 Кубернетес выиграл первую премию за лучший удар, в которой признан проект, который в прошлом году оказал «значительное влияние на то, как написано программное обеспечение и приложения». Спасибо O'Reilly OSCON за признание, и, что еще более важно, спасибо огромному сообществу Кубернетов, который привел проект туда, где он сегодня.
kubernetes.io/blog/2018/07/19/kubernetes-wins-2018-oscon-most-impact-award/

Когда мы выпустили Kubernetes всего четыре года назад, мы никогда не представляли себе, насколько успешным будет проект. Мы разработали Kubernetes из десятилетнего опыта работы с рабочими нагрузками в Google, но мы не знали, примет ли его внешний мир. Однако мы полагали, что если мы останемся открытыми для новых идей и новых голосов, сообщество предоставит обратную связь и вклад в продвижение проекта для удовлетворения потребностей пользователей во всем мире.
ai.google/research/pubs/pub43438

Эта открытость привела к быстрому принятию Кубернете — и это также один из основных столпов Google Cloud: наша вера в открытое облако, чтобы вы могли собирать и перемещать свое приложение там, где хотите. Независимо от того, является ли это Tensorflow, библиотека с открытым исходным кодом для машинного обучения, Asylo, платформа для конфиденциальных вычислений или Istio, открытая платформа для подключения микросервисов, открытость остается основной ценностью здесь в Google Cloud.

Для всех, кто помог Кубернесу добиться успеха сегодня, большое спасибо.
Если вы не пробовали Kubernetes, легко начать работу с Google Kubernetes Engine. Если вам интересно узнать больше о Кубернете и экосистеме, которую она породила, а затем подписаться на Podcast от Kubernetes от Google, чтобы услышать еженедельную информацию от лидеров сообщества.

cloud.google.com/kubernetes-engine/

Приведение GPU-ускоренной аналитики в GCP Marketplace с помощью MapD



Сегодня мы слышим от нашего партнера MapD, платформа данных которого использует графические процессоры для ускорения запросов и визуализации. Читайте дальше, чтобы узнать, как MapD и Google Cloud работают вместе.

MapD и общедоступное облако отлично подходят. Объединение облачной инфраструктуры графического процессора с производительностью, интерактивностью и простотой использования MapD — большая победа для наших клиентов, позволяющая ученым и аналитикам данных визуально изучать миллиардные ряды данных с плавностью и минимальными проблемами.

Наши изображения Community и Enterprise Edition доступны на AWS, контейнеры докеров MapD доступны в NVIDIA GPU Cloud (NGC), а также в нашем собственном облаке MapD. Сегодня мы очень рады объявить о доступности MapD на рынке Google Cloud Platform (GCP), помогая нам привносить интерактивность в масштабе как можно более широкую аудиторию. Обладая такими областями, как Cloud DataFlow, Cloud BigTable и Cloud AI, GCP стала отличной платформой для интенсивных данных. Объединение MapD и этих сервисов позволяет нам определять масштабируемые высокопроизводительные рабочие процессы визуальной аналитики для различных вариантов использования.

На GCP вы найдете как наши выпуски Community, так и Enterprise для экземпляров K80, Pascal и Volta GPU в GCP Marketplace. Гибкий подход Google к прикреплению графических процессоров к стандартным типам экземпляров на базе процессора означает, что вы можете набирать или уменьшать необходимую емкость GPU для своих экземпляров в зависимости от размера ваших наборов данных и потребностей в вычислении.

Мы уверены, что доступность MapD на рынке GCP еще больше ускорит принятие графических процессоров в качестве ключевой части рабочих нагрузок на корпоративную аналитику, в дополнение к их очевидной применимости к AI, графическим и общим вычислениям. Нажмите здесь, чтобы опробовать MapD на GCP.

Our Los Angeles cloud region is open for business

Эй, ЛА — настал день! Области облачной платформы Лос-Анджелеса официально открыты для бизнеса. Теперь вы можете хранить данные и создавать высокодоступные, эффективные приложения в Южной Калифорнии.
Мэр Лос-Анджелеса Эрик Гаркетти сказал, что это лучше всего
Лос-Анджелес — глобальный центр моды, музыки, развлечений, аэрокосмической техники и многое другое. Технологии необходимы для укрепления нашего статуса как центра изобретений и творчества. Мы рады, что Google Cloud выбрала Лос-Анджелес для предоставления инфраструктурных и технологических решений для наших предприятий и предпринимателей



Область облака Лос-Анджелеса, us-west2, является нашей семнадцатой общей и нашей пятой в Соединенных Штатах.
Приложения для хостинга в новом регионе могут значительно улучшить латентность для конечных пользователей в Южной Калифорнии и до 80% в Северной Калифорнии и на юго-западе по сравнению с их размещением в ближайшем регионе Орегон. Вы можете посетить www.gcping.com, чтобы узнать, насколько быстро регион Лос-Анджелеса для вас.

Сервисы
В регионе Лос-Анджелеса есть все необходимое для создания следующего отличного приложения:


Следует отметить, что регион Лос-Анджелеса дебютировал с одним из наших новейших продуктов: Cloud Filestore BETA, наша управляемая служба хранения файлов для приложений, для которых требуется интерфейс файловой системы и общая файловая система для данных.

В регионе также есть три зоны, позволяющие вам распространять приложения и хранилище в разных зонах для защиты от сбоев в работе служб. Вы также можете получить доступ к нашим многорегиональным сервисам (например, BigQuery) в Соединенных Штатах и ко всем другим службам GCP через нашу сеть Google и объединить любые службы, которые вы развертываете в Лос-Анджелесе, с другими службами GCP по всему миру. Для получения подробной информации о наших возможностях хранения данных, пожалуйста, ознакомьтесь с нашими Условиями обслуживания.

Облачная сеть Google
Глобальная сетевая инфраструктура Google Cloud является самой большой облачной сетью, измеряемой количеством точек присутствия. Эта частная сеть обеспечивает высокоскоростную, высоконадежную связь с низкой задержкой для каждого региона по всему миру. С его помощью вы можете достичь региона LA так же легко, как и любой регион. Кроме того, глобальная балансировка облачной нагрузки Google позволяет легко развертывать действительно глобальные приложения.
Кроме того, если вы хотите подключиться к региону Лос-Анджелеса в частном порядке, мы предлагаем Dedicated Interconnect в двух местах: Equinix LA1 и CoreSite LA1.

Празднование Лос-Анджелеса
Мы отпраздновали запуск облака облака Лос-Анджелеса лучшим способом, которым мы знаем как: с нашими клиентами. На праздновании мы объявили о новых услугах, чтобы помочь создателям контента воспользоваться облаком: Filestore, Transfer Appliance и, конечно же, новый регион, в центре медиа и развлечений. Близость региона к создателям контента имеет решающее значение для облачных визуальных эффектов и рабочих нагрузок анимации. С близостью приходит низкая латентность, которая позволяет обрабатывать облако, как если бы оно было частью вашей локальной инфраструктуры, или даже перенести всю вашу студию на облако.



Что говорят клиенты

«Google Cloud делает город Лос-Анджелес более плавным и эффективным, чтобы лучше обслуживать Ангелос по всему городу. Мы очень рады иметь облачную область, которая позволяет компаниям, крупным или малым, использовать новейшие технологии облачных вычислений и способствовать инновациям ».
— Тед Росс, генеральный директор и главный информационный сотрудник Агентства информационных технологий города Лос-Анджелеса, г. Лос-Анджелес


«Использование Google Cloud для визуализации визуальных эффектов позволяет нашей команде быть быстрым, гибким и одновременно работать над несколькими крупными проектами, не опасаясь голода в ресурсах. Cloud лежит в основе нашей ИТ-стратегии, и Google предоставляет нам возможность рендеринга для создания графики, основанной на Оскаре, в пост-продакшн-работе ».
— Стив Макферсон, главный технический директор, Framestore


«Многие из наших проектов с короткой формой неожиданно появляются, поэтому наличие дополнительных возможностей в регионе может помочь нам быстро воспользоваться этими возможностями. Дополнительная скорость, которую дает нам район Лос-Анджелеса, поможет нам освободить наших художников, чтобы сделать больше творческой работы. Мы также расширяемся на международном уровне и нанимаем больше художников за рубежом, и мы обнаружили, что Google Cloud обладает наилучшим сочетанием глобального охвата, высокой производительности и стоимости, чтобы помочь нам достичь наших амбиций».
— Том Тейлор, начальник отдела машиностроения, мельница

Что говорят партнеры SoCal
Наши партнеры могут помочь в разработке и поддержке ваших потребностей в развертывании, миграции и обслуживании.


«Облако и данные — это новые эквалайзеры, которые преобразуют структуру организации, работают и создают ценность. Премиальное партнерство с облачной платформой Google позволяет нам помогать нашим клиентам в цифровом преобразовании посредством таких усилий, как модернизация приложений, аналитика данных, ML и AI. Новый облачный облако Лос-Анджелеса Google улучшит доступность этих решений и поможет нам лучше обслуживать рынки Лос-Анджелеса и Orange County — место, где Neudesic решил разместить свой корпоративный дом ».
— Тим Маршалл, технический директор и соучредитель, Neudesic


«Предприятия повсюду путешествуют, чтобы использовать мощь облака, чтобы ускорить бизнес-цели, реализовать разрушительные функции и снизить затраты. Партнерство Taos и Google Cloud помогает компаниям внедрять инновации и масштабировать, и мы рады новому областью Google Cloud LA. Центр обработки данных принесет новый уровень бесперебойной работы и обслуживания нашей команде и клиентам в Южной Калифорнии ».
— Гамильтон Ю, президент и главный операционный директор, Таос


«Являясь стартовым партнером Google Cloud и многолетним получателем награды« Партнер года Google », мы очень рады, что в регионе Лос-Анджелеса, нашей домашней базе и где у нас сильный клиентский охват, появился новый облачный регион Google. SADA Systems имеет опыт предоставления отраслевой экспертизы и инновационных технических услуг для клиентов по всей стране. Мы рады использовать масштаб и мощь Google Cloud вместе с опытом SADA для наших клиентов в районе Лос-Анджелеса, чтобы продолжить путешествие по облачным преобразованиям ».
— Тони Сафоян, генеральный директор и президент SADA Systems

cloud.google.com/about/locations/la
cloudonair.withgoogle.com/events/americas
cloud.google.com/about/locations/
goo.gl/forms/U5qAZB1tGR9NUlgB2

Google Cloud Platform New Third-Party Subprocessor

Привет Google Cloud Platform клиентов

Мы отправили это сообщение, чтобы обновить вас на сторонних subprocessors, которые предоставляют клиенту и техническую поддержку для Google Cloud Platform (GCP). Никаких действий не требуется. В ближайшее время мы добавим следующие объекты в наш список третьих сторон subprocessors:
  • Accenture International Limited
  • EPAM Systems Japan GK
Эти subprocessors будет предоставлять услуги, которые включают в себя, но не ограничиваются ими, телефон и поддержку по электронной почте; ответ, диагностике и разрешения; отслеживание инцидента; маркировка и транскрипции; и отвечать на запросы клиентов. Проверим, что наши поставщики услуг необходимый технический опыт, и что они поддерживают наши стандарты безопасности и конфиденциальности. Мы работаем только с поставщиками службы поддержки доверенными.

Вы можете просмотреть наш список сторонних subprocessors cloud.google.com/terms/subprocessors

Product updates | July 2, 2018

Теперь открывается облачная платформа Google Cloud Platform
Финский регион, europe-north1, предлагающий вычисления, хранение, большие данные и сетевые услуги, в настоящее время общедоступен. Пользователи Nordics могут сократить время ожидания до 65%, в Восточной Европе — до 88%.
cloud.google.com/about/locations/finland/
 
Поддержка Node.js в стандартной среде App Engine
Бета-версия для стандартной среды Node.js в стандарте App Engine предлагает идиоматический опыт разработчиков, быстрое развертывание, автомасштабирование и создание сертификата одним кликом для пользовательских доменов.
cloudplatform.googleblog.com/2018/06/Now-you-can-deploy-your-Node-js-app-to-App-Engine-standard-environment.html

Присоединить графические процессоры к превентивным экземплярам виртуальной машины
Эта версия GA позволяет пользователям добавлять графические процессоры к превентивным экземплярам виртуальной машины, которые функционируют как стандартные графические процессоры, но сохраняются только в течение срока действия экземпляра — при стоимости на 70% меньше, чем по требованию графических процессоров.
cloud.google.com/compute/docs/instances/preemptible

Облачные функции добавили три новые области
Три новых региона для облачных функций доступны в бета-версии: азия-северо-восток1, europe-west1 и us-east1.
cloud.google.com/functions/docs/locations

Вычислить политику надежных изображений двигателя
Политика организации доверенных образов позволяет организации создавать изображения, соответствующие критериям качества и безопасности, безопасно обмениваться изображениями и гарантировать, что пользователи не будут использовать несанкционированные изображения. Теперь общедоступно.
cloud.google.com/compute/docs/images/restricting-image-access

Узлы единственного жильца
Обычно экземпляры виртуальных машин запускаются на физических хостах, которыми пользуются многие. С узлами единственного арендатора пользователи получают дополнительную защиту от экземпляра виртуальной машины и сервера, предназначенного исключительно для них.
cloud.google.com/compute/docs/nodes/

Управляемая сертификация SSL для пользовательских доменов
Управляемая поддержка SSL для настраиваемых доменов автоматически обеспечивает сертификаты SSL для приложений App Engine и обновляет их до истечения срока их действия, что позволяет вам безопасно обслуживать приложения для мировой аудитории. Теперь общедоступно.
cloud.google.com/appengine/docs/standard/python/securing-custom-domains-with-ssl

Поддержка объектов Cloud Spanner STRUCT
Cloud Spanner позволяет пользователям создавать объекты STRUCT из данных и использовать их в качестве связанных параметров при выполнении SQL-запроса с клиентскими библиотеками Cloud Spanner. Теперь общедоступно.
cloud.google.com/spanner/docs/structs

Настройка журналов аудита в консоли GCP
В этой бета-версии пользователи могут настраивать журналы аудита доступа к данным непосредственно из консоли GCP без необходимости редактировать свои политики управления идентификацией и доступом.
cloud.google.com/logging/docs/audit/configure-data-access

Поддержка QUIC для выравнивания нагрузки HTTP (S)
Поддержка QUIC для балансировки нагрузки HTTP (S) теперь доступна в целом. QUIC — это зашифрованный транспортный протокол на основе UDP, оптимизированный для HTTP (S), и имеет более быстрые соединения, потоковое мультиплексирование и улучшенное восстановление потерь.
cloudplatform.googleblog.com/2018/06/Introducing-QUIC-support-for-HTTPS-load-balancing.html

Параметры облачного соединения
Cloud Interconnect предоставляет опции для подключения локальной инфраструктуры к GCP, включая выделенные межсоединения, партнерские соединения и IPsec VPN. Теперь общедоступно.
cloud.google.com/interconnect/

Apache Parquet и аптека Apache ORC в BigQuery
В настоящее время общедоступная поддержка загрузки данных Паркета из облачного хранилища в BigQuery. И встроенная поддержка загрузки файлов ORC в BigQuery теперь находится в стадии бета-тестирования.
cloud.google.com/bigquery/docs/loading-data-cloud-storage-parquet

Потоковый движок Cloud Dataflow
Потоковый движок Cloud Dataflow перемещает временное окно и перемещает хранилище от рабочих виртуальных машин к серверу службы Cloud Dataflow. Преимущества включают более гибкую автомасштабирование в потоковых трубопроводах и лучшую поддержку. Теперь в бета-версии.
cloud.google.com/dataflow/service/dataflow-service-desc

Пользовательские учетные записи служб Cloud Dataflow
Чтобы повысить безопасность, пользователи облачного потока данных теперь могут указывать учетную запись пользовательской службы вместо использования учетной записи службы по умолчанию, используя опцию конвейера учетной записи службы. Теперь общедоступно.
cloud.google.com/dataflow/security-and-permissions

Облачные пабы / суб-уведомления для хранилищ облачного источника
Эта бета-версия позволяет пользователям добавлять уведомления о событиях Cloud Pub / Sub в проекты или репозитории Cloud Source Repositories с помощью инструмента командной строки gcloud.
cloud.google.com/source-repositories/docs/quickstart-adding-pubsub-notifications

Обнаружение секретных ключей хранилища облачных источников
Эта бета-версия pushblock для хранилищ Cloud Source не позволяет пользователям хранить ключи безопасности в хранилищах Cloud Source, проверяя учетные данные учетной записи службы GCP и закрытые ключи PEM.
cloud.google.com/source-repositories/docs/detecting-security-keys

Announcing MongoDB Atlas free tier on GCP



Ранее в этом году, в ответ на сильный покупательский спрос, мы объявили, что мы расширяем поддержку региона для Atlas MongoDB. База данных MongoDB NoSQL пользуется огромной популярностью, а облачная версия MongoDB Atlas упрощает управление на Google Cloud Platform (GCP). Мы услышали отличные отзывы от пользователей, поэтому мы еще больше опустили барьер, чтобы начать работу с Atlas и GCP MongoDB.

Мы рады сообщить, что на сегодняшний день MongoDB будет предлагать бесплатный уровень аттестата MongoDB Atlas на GCP в трех поддерживаемых регионах, стратегически расположенных в Северной Америке, Европе и Азиатско-Тихоокеанском регионе в знак признания нашей широкой базы установки пользователей.

Свободный уровень позволит разработчикам бесплатную среду для песочницы для Atlas on MongoDB на GCP. Вы можете протестировать любые потенциальные рабочие нагрузки MongoDB на свободном уровне и решите перейти на более крупный платный Atlas-кластер, если у вас есть уверенность в наших облачных продуктах и ​​производительности.
На сегодняшний день эти конкретные регионы поддерживаются свободным уровнем Atlas:
  • Айова (us-central1)
  • Бельгия (europe-west1)
  • Сингапур (азия-юго-восток1)

Чтобы начать работу, вам просто нужно войти в консоль MongoDB, выбрать «Создать новый кластер», выбрать «Виртуальную платформу Google» и найти сообщение «Свободный уровень». Свободный уровень использует экземпляры M0 от MongoDB. Кластер M0 представляет собой среду Sando MongoDB для прототипирования и ранней разработки с объемом памяти 512 МБ. Он также оснащен мощными функциями предприятия, такими как постоянная аутентификация, сквозное шифрование и высокая доступность, а также мониторинг. Счастливые эксперименты!