Рейтинг
0.00

Google Cloud Platform

9 читателей, 143 топика

Построение лучшего облака с нашими партнерами на Next '18

Независимо от того, переходят ли компании в облако, чтобы ускорить инновации, обнаружить важные данные из своих данных или изменить способ их работы, им часто нужна помощь. Вот в чем наши тысячи партнеров Google Cloud, предлагая все, от поддержки миграции и решений, построенных на нашей платформе, до услуг с добавленной стоимостью. Они являются неотъемлемой частью нашей миссии, чтобы довести облако до большего количества предприятий.

Когда мы приближаемся к нашей третьей ежегодной следующей конференции, мы видим удивительный прогресс в нашей партнерской экосистеме. С начала 2017 года мы увеличили число технологических партнеров на 10%, и мы более чем удвоили нашу команду, поддерживающую этих партнеров. Партнеры по каналам также являются неотъемлемой частью нашей стратегии выхода на рынок, и мы в восторге от общего успеха, которого мы добиваемся. В прошлом году мы подписали новые и расширенные партнерские отношения с Accenture, Deloitte, KPMG и многими другими. Эти партнерские отношения уже оказывают положительное влияние на наших клиентов, которые могут использовать Google Cloud через существующие партнерские отношения и, как правило, легче использовать преимущества облака.

Сегодня мы больше ориентируемся на партнеров, чем когда-либо. Мы думаем о том, как привлекать наших партнеров к каждой сделке и в каждом взаимодействии с клиентами. На саммите Partner Summit мы отмечаем важную работу, которую наши партнеры делают от имени наших клиентов, обмениваясь новостями и обновлениями со всей нашей партнерской экосистемой, и смотрим вперед на нашу общую возможность поддерживать клиентов в их путешествии в облако. Вот некоторые из сегодняшних анонсов:

Расширение решений Google Cloud для партнеров SaaS
SaaS стал предпочтительным методом доставки корпоративных приложений по всему миру, и мы делаем Google Cloud еще лучшей платформой для наших партнеров SaaS. Сегодня мы запускаем новый набор программ, чтобы помочь нашим партнерам принести приложения SaaS своим клиентам. К ним относятся:
  • Совместная продажа программы, которая соответствует специалистам по продажам GCP с нашими партнерами SaaS, чтобы помочь клиентам поставлять решения SaaS с поддержкой GCP.
  • Новая программа, которая связывает нашу команду инженеров по надежности клиентов (CRE) с нашими партнерами по SaaS, чтобы поддерживать работу своих продуктов в Google Cloud.
  • Новый способ для партнеров получать от Google маркетинговые фонды (MDF), основываясь на том, как много пользы GCP они используют с продуктами SaaS.
  • Мощное онлайн-сообщество для партнеров SaaS для совместной работы друг с другом, получения обновлений от Google Cloud и обмена передовым опытом с другими членами сообщества SaaS.

Мы уже работаем с лучшими партнерами SaaS, такими как Salesforce, Box, MongoDB, Zenoss, Elastic, RedisLabs, JFrog, BetterCloud, DialPad и многие другие. Узнайте больше о нашей новой инициативе SaaS.

Открытие новой технологии интеграции с Google Cloud
Наша экосистема партнеров обеспечивает основу, на которой многие наши клиенты строят свой бизнес. Сегодня мы объявляем как новую, так и расширенную интеграцию, которая принесет больше возможностей нашим облачным клиентам:
  • Новые решения SAP. Мы сотрудничаем с Deloitte, чтобы помочь клиентам SAP расширить свои облачные стратегии в большем количестве случаев использования. Deloitte предложит полный набор решений для запуска приложений SAP на GCP, включая Deloitte Invoice Management Solution, которая автоматизирует обработку счетов в ландшафте системы SAP и Deloitte Visual Inspection Solution, которая автоматизирует процесс визуального контроля и ускоряет задачи, такие как инвентарь пополнение запасов. Узнайте больше об этом партнерстве Deloitte.
  • Обновления нашей работы с Cisco. Мы будем сообщать о дальнейших обновлениях нашего партнерства с Cisco в течение следующего «18», включая интересные новости в области сотрудничества и AI, а также новую задачу разработчика в партнерстве с Cisco для внедрения инноваций в гибридные решения Cisco Контейнерная платформа и GCP. Оставайтесь с нами, чтобы больше узнать об этих инициативах.
  • Новые DLT-решения. Теперь клиенты могут исследовать способы использования распределенных платформ (DLT) на GCP с партнерами по запуску, включая Digital Asset и BlockApps, и попытаться использовать интеграцию с открытым исходным кодом для Hyperledger Fabric и Ethereum в этом году в нашем GCP Marketplace. Подробнее читайте в Next'18 на нашей партнерской программе DLT.
  • Новый ресурс для высокопроизводительной облачной справки. В сотрудничестве с Intel и Appsbroker мы создаем новый центр передового опыта, который предлагает ресурсы, советы и рекомендации, которые помогут клиентам перенести все виды высокопроизводительных облачных вычислений на GCP, используя индивидуальные рекомендации для клиентов. Вы можете встретить команду за центром экстремальных облачных технологий на стенде Intel в Next'18 в Сан-Франциско или узнать больше здесь.
  • Новые тома облаков NetApp для GCP. Одна из проблем, с которой компании сталкиваются при перемещении рабочей нагрузки в облако, — это доступ к высокопроизводительным, масштабируемым и общим файловым системам, которым требуется множество приложений. На прошлой неделе NetApp анонсировала новые возможности, призванные помочь клиентам получить доступ к этим системам, включая новую службу протокола SMB, которая позволит создавать и развертывать приложения на базе Windows и UNIX на GCP и расширять доступность томов облаков NetApp для GCP, поэтому служба будут доступны еще большему количеству клиентов.
  • Новый плагин VMware. Мы объявили о новом подключаемом модуле для VMware vRealize Orchestrator, чтобы клиенты могли использовать GCP вместе со своей локальной средой VMware. Этот новый плагин позволяет пользователям создавать чертежи vRealize Automation, которые позволяют каталоги самообслуживания конечных пользователей, инициировать операции «День 2» на виртуальных машинах Compute Engine, исправлять ресурсы и многое другое. И это позволяет клиентам сохранять свои существующие процессы управления и утверждения, делая потребление облачных ресурсов более безопасным и отслеживаемым. Вы можете больше узнать о блоге GCP.

Повышение специализации для подключения партнеров и клиентов
Многие клиенты нуждаются в партнерах с большим опытом работы в определенной области, чтобы помочь им создавать передовые решения для своего бизнеса. Чтобы помочь клиентам определить подходящего партнера, мы предлагаем специализации, обозначение, которое признает партнеров с глубокими техническими знаниями и проверенными успехами клиентов в определенной области.

Теперь мы назначили 19 новых партнеров в пяти новых областях специализации, расширив нашу программу до девяти специализаций. Партнеры, получившие специализацию, имеют несколько сотрудников в штате с самым высоким уровнем сертификации, продемонстрировали и задокументировали истории успеха клиентов и прошли тщательную оценку возможностей со стороны экспертов нашей команды профессиональных специалистов.

Эти новые области специализации и назначенные партнеры:


Объявление победителей наших партнерских сертификатов 2017 года
Наши партнерские награды 2017 года признают партнеров, которые действительно посвятили себя созданию передовых решений и опыту работы с Google Cloud. Присоединяйтесь к нам, поздравляя победителей!


Мы не можем придумать лучшего способа начать Next'18, чем праздновать партнеров, которые помогают многим нашим клиентам трансформировать свой бизнес. Мы с нетерпением ждем возможности приветствовать многих новых партнеров в нашей сети в 2018 году, и мы не можем дождаться, чтобы увидеть, какие новые идеи и решения появляются в этом году. Чтобы узнать больше о нашей программе, найдите партнера или станьте одним из них на странице нашего партнера.
cloud.google.com/partners/

Помощь SaaS-компаниям надежно работать в Google Cloud

Два года назад мы объявили о разработке клиентской надежности (CRE) с целью обмена оперативной судьбой с нашими клиентами и предоставления им большего контроля над критическими приложениями, которые они доверяют нам.

С тех пор мы работали с рядом компаний, и мы видели, что чем больше систем, которые бизнес собрал, унаследовал или приобрел, тем больше было его операционное бремя. Эти предприятия часто знают, что перемещение облака может снизить это бремя, предлагая им безопасность, масштабируемость и преимущества по стоимости, но беспокоиться о том, что эти выгоды приходят за счет контроля. По нашему опыту, наилучшая практика проектирования надежности сайта может значительно снизить эту тревогу, одновременно увеличивая скорость и надежность выпуска. Именно поэтому мы постоянно ищем способы взаимодействовать с большим количеством клиентов, все еще сохраняя при этом, что каждая взаимосвязь имеет высокое качество и значимость.

Представляем CRE для партнеров SaaS
Один из способов сделать это — запуск новых программ, таких как недавно объявленный CRE для SaaS Partners, являющийся частью нашей более масштабной инициативы SaaS. Наши партнеры SaaS, как и наши клиенты, имеют те же проблемы, которые работают надежно, сохраняя скорость выпуска. Но компании SaaS, обслуживающие бизнес-клиентов, имеют требования к надежности, которые гораздо более определены, чем большинство других клиентов. Они не только согласились предоставить конкретные SLA своим клиентам 1-го порядка, но эти клиенты часто обслуживают разных клиентов второго уровня и конечных пользователей, у которых также есть дополнительные SLA, обещанные им.

Кроме того, многие клиенты, обслуживаемые нашими партнерами SaaS, неожиданно реализуют свои продукты, что эффективно превращает наших партнеров SaaS в платформы компаний. Это может быть проблематичным для наших партнеров SaaS, поскольку они мало видят, как их продукты потребляются. К счастью, помогая провайдерам платформы получить представление о приложениях, которые они используют для достижения целей надежности, именно то, что CRE было построено, — и мы не хотим ничего, кроме как помочь партнерам SaaS экстернализировать их для своих клиентов.

Усиление влияния CRE
Работа с нашими партнерами по SaaS для установления и достижения целей надежности для их платформ побуждает CRE создавать инструменты и процессы, которые применимы к более широкой аудитории клиентов. Эти усилия являются важным шагом к выполнению нашей более масштабной миссии, чтобы помочь всем нашим клиентам достичь надежности на уровне Google на Google Cloud Platform (GCP).

Как мы уже упоминали ранее, CRE для партнеров SaaS является преимуществом нашей более масштабной инициативы SaaS, о которой мы объявили в июле следующего июля. Если вы являетесь компанией SaaS, которая сегодня обслуживает бизнес-клиентов или разрабатывает новое решение SaaS, мы бы хотели помочь вам не только надежно управлять своими продуктами, но и стать более надежным бизнесом. Спросите своего менеджера-партнера о том, как вы можете подать заявку на это пособие. Если вы не являетесь партнером SaaS, вы можете стать здесь.
cloud.google.com/partners/become-a-partner/saas-initiative

Надежность — это партнерство, и мы хотим отправиться в это путешествие вместе с вами.

Облачные функции: серверная платформа, как правило, доступна

Это была насыщенная неделя для безсерверных вычислений в Google Cloud Next '18 в Сан-Франциско. В дополнение к обновлениям, которые мы поделились с шоу, мы рассмотрели технологию облачных функций в более чем 15 технических сессиях. Есть много вещей для распаковки, начиная от новых выпусков функций и заканчивая передовыми методами. Этот пост — это одноразовое резюме функций облака: что нового, инструкции по регистрации для ранних функций доступа и некоторые советы о том, где вы можете найти дополнительную информацию о полезных технических сессиях и проницательности из следующего «18».

Облачные функции — это серверная платформа, управляемая событиями Google Cloud, которая предлагает гибкую и быструю разработку облачных приложений. Мы запустили Cloud Function для бета-версии в прошлом году в Google Cloud Next'17 с использованием среды исполнения Node.js и важных функций, таких как HTTP / S, что позволяет вам развернуть функцию и вызвать ее напрямую без каких-либо дополнительных услуг. Cloud Function beta также поставляется с мелкозернистым ценообразованием, поэтому вы платите только за то, что ваш код работает, выставленный счету до ближайших 100 миллисекунд. Облачные функции также были разработаны, чтобы хорошо работать с существующими облачными платформами Google (GCP), такими как Cloud Storage, Cloud Pub / Sub и Stackdriver. В то время между нами и сейчас мы много работаем, добавляя новые возможности на платформу и повышая ее надежность и производительность.

В течение следующего '18 мы объявили, что облачные функции теперь в целом доступны и готовы к производству, с предсказуемым сервисом, гарантированным SLA и глобальным охватом с новыми регионами в Европе и Азии. Вот что еще нового.



Теперь вы можете писать функции облаков с помощью Node 8, который поддерживает поддержку async / await и новую подпись функции. Облачные функции теперь предоставляют данные и контекст, а не событие, и вы можете использовать ключевое слово ожидания для ожидания результатов асинхронных операций. Это делает гораздо лучшую ментальную модель для работы с несколькими асинхронными операциями. Вот посмотрите на различия кода между порядком Node 6 и Node 8:

Current (Node 6) behavior

   exports.helloCallback = (event, callback) => {
  const payload = event.data.data;
  doSomething(payload, callback);
};

exports.helloPromise = (event) => {
  const payload = event.data.data;
  return doSomethingWithAPromise(payload)
};

New (Node 8+) behavior

   // Note the new (optional) context object
exports.helloPubsub = async (data, context) => {
  return await doSomethingAsynchronous(data)
};

// HTTP Functions are unchanged, but also support async/await
exports.helloHTTP = async (req, res) => {
  return await doSomethingAsynchronous(req)
};


Вы также можете теперь записывать облачные функции с помощью Python 3.7. Как и в случае с узлом, вы получаете данные и контекст для своих фоновых функций и запрашиваете HTTP. Python HTTP-функции основаны на популярной микрофрейме Flask, которая позволяет вам быстро и быстро вставать и работать. Вот посмотрите на запрос к фляге:
def hello_pubsub(data, context):
  return do_something(data)
  
def hello_http(request):
  return do_something(request)


Запросы основаны на flask.Request и ответы просто должны быть совместимы с flask.make_response. Как и в случае с узлом, вы получаете данные (dict) с фоновыми функциями и контекстом Python (google.cloud.functions.Context). Для завершения сигнала вам просто нужно вернуться из вашей функции или вызвать исключение, а обработка ошибок Stackdriver начнется. И, подобно Node (package.json), Cloud Function автоматически выполнит установку всех ваших зависимостей Python (требования .txt) и построить в облаке.



Облачные функции для Firebase также доступны и имеют полную поддержку узла 8, включая ECMAScript 2017 и async / await. Этот выпуск также поставляется с дополнительными подробными элементами управления для параметров конфигурации времени выполнения, включая регион, память и тайм-аут, что позволяет вам точно настраивать поведение ваших приложений. Здесь вы можете найти более подробную информацию.

События Firebase (Analytics, Firestore, Realtime Database, Authentication) также доступны непосредственно в консоли Cloud Functions на GCP. Это обеспечивает дополнительную степень гибкости в вашем стеке приложений, позволяя вам запускать ваши функции в ответ на события Firebase непосредственно из вашего проекта GCP.

Мы также перезаряжаем базовую операционную систему Cloud Functions на Ubuntu 18.04 LTS, чтобы расширить объем доступных библиотек. В дополнение к imagemagick, доступному с момента запуска бета-версии, теперь вы получаете доступ к дополнительным системным библиотекам, таким как ffmpeg и libcairo2, а также ко всему, что требуется для запуска Chrome без Chrome. Например, теперь вы можете обрабатывать видео и снимать скриншоты веб-страниц в Chrome из облачных функций.


Теперь вы можете передать конфигурацию своим функциям, указав пары ключ-значение, привязанные к функции, но не существующие в вашем исходном коде. Переменные среды устанавливаются во время развертывания с использованием аргумента -set-env-vars и вводятся в среду во время выполнения. Здесь вы можете найти более подробную информацию.
cloud.google.com/functions/docs/env-var


Скоро в облачные функции
У нас также есть много новых функций, которые скоро появятся в Cloud Function. Вот что вы можете ожидать:

Масштабирование
С добавлением управления масштабированием -max-экземпляров вы можете ограничить количество экземпляров для каждой функции, чтобы ограничить трафик. Это может помочь справиться с внезапными сценариями роста трафика, когда функции облачности быстро масштабируются и перегружают базу данных или общую приоритизацию между более и менее важными частями вашей системы. Подпишитесь на альфа здесь.


Безсерверное планирование
С Cloud Scheduler вы сможете запланировать облачные функции до одноминутных интервалов, вызываемых через HTTP (S) или Pub / Sub. Это позволяет выполнять функции Cloud в повторяющемся расписании, что особенно полезно для таких вещей, как ежедневное создание отчетов или регулярная обработка очередей мертвых букв. Подпишитесь на альфа здесь.


Вычислить доступ VM VM
Теперь вы можете подключиться к компьютерам Compute Engine, работающим в частной сети, используя опцию --connected-vpc. Это обеспечивает прямое подключение для вычисления ресурсов во внутреннем диапазоне IP-адресов. Подпишитесь на альфа здесь.


Контроль безопасности IAM
Облачные функции упрощают показ конечной точки HTTP (ов): просто разверните свою функцию с помощью триггера HTTP, и мы предоставим выделенный URL HTTPS. Новая роль IAM для функций Cloud Function Invoke позволяет вам добавить защиту IAM к этому URL-адресу, чтобы вы могли контролировать, кто может вызывать эту функцию, используя те же элементы управления безопасностью, которые вы используете в других местах Cloud Platform. Подпишитесь на альфа здесь.


Бесконтактные контейнеры
В безсерверных контейнерах мы предоставляем одну и ту же базовую инфраструктуру, которая обеспечивает функции облачных функций, но вы сможете просто предоставить изображение Docker в качестве входных данных. Это позволит вам развернуть произвольные среды выполнения и произвольные системные библиотеки в произвольных дистрибутивах Linux, сохраняя при этом те же самые серверные характеристики, что и облачные функции. Подпишитесь на альфа здесь.

Product updates | August 6, 2018

NETWORKING
Новый Лос-Анджелес, Калифорния, регион: GA
Новый регион Лос-Анджелес в настоящее время и работает. По сравнению с хостингом приложений в следующем ближайшем регионе, их приютили в новом регионе может значительно сократить время задержки для конечных пользователей, в Южный и Северной Калифорнии и юго-западе.
cloudplatform.googleblog.com/2018/07/our-los-angeles-cloud-region-is-open-for-business.html

COMPUTE
типы машин Ultramem: GA
Вы можете предоставление памяти оптимизированные типы машин с до 160 виртуальных ЦП и почти 4 ТБ памяти. Обладая более чем 14 ГБ памяти на VCPU, они хорошо подходят для в памяти баз данных и аналитики, такие как SAP HANA и рабочие нагрузки бизнеса-хранилищах.
cloud.google.com/compute/docs/machine-types
cloudplatform.googleblog.com/2018/07/now-shipping-ultramem-machine-types-with-up-to-4tb-of-ram.html

MARKETPLACE
Google Cloud Platform Marketplace
GCP Marketplace, ранее Cloud Launcher, теперь предлагает производство готового Kubernetes приложений. С упрощенным биллингом и лицензированием третьих сторон, теперь вы можете быстро развернуть в различных средах: на территории, на кластерах Kubernetes, работающие на GCP, или на Kubernetes Engine, а также другие общественных облаках.
cloud.google.com/marketplace/
cloudplatform.googleblog.com/2018/07/introducing-commercial-kubernetes-applications-in-gcp-marketplace.html
Cloud Filestore: beta
Облако FILESTORE теперь позволяет предсказуемо высокую производительность для рабочих нагрузок на основе файлов. Она обеспечивает отечественный опыт для управляемых стоя сетевое устройство хранения данных с Compute Engine и Kubernetes Engine экземпляров.
cloud.google.com/filestore/docs/
COMPUTE
Kubernetes Engine minimum CPU platform: GA
Теперь вы можете выбрать базовый минимум платформу процессора при создании кластера или узел бассейна. Повысьте скорость и производительность ресурсоемких рабочих нагрузок для графики, игр, а также аналитику, обеспечивая при этом узлы никогда не использовать платформу процессора, что это не подходит для их нужд.
cloud.google.com/kubernetes-engine/docs/how-to/min-cpu-platform

Compute Engine instance templates: GA
Эта функция позволяет создавать и управлять шаблонами экземпляра из экземпляров виртуальных машин, что позволяет быстро дублировать, резервное копирование, и воссоздать экземпляры.
cloud.google.com/sdk/gcloud/reference/beta/dataproc/workflow-templates/instantiate

VM rightsizing recommendations: GA
VM рекомендация проклейки — которые предоставляют Вам рекомендуемое экземпляр размера для существующих экземпляров виртуальных машин, основанных на прошлых Memory- и CPU-метрике утилизации — доступна для всех экземпляров Compute Engine, на основе данных мониторинга от хоста VM.
cloud.google.com/compute/docs/instances/apply-sizing-recommendations-for-instances

IDENTITY & SECURITY
Cloud Identity and Access Management domain restricted policies: beta
Политика организации совместного использования домена ограниченно позволяет гарантировать, что только тождества из настроенных доменов могут быть добавлены к политике Cloud IAM, в том числе учетных записей служб. Это предотвращает ресурсы общего доступа с идентичностей вне домена (ов) вашей организации.
cloud.google.com/resource-manager/docs/organization-policy/restricting-domains

STORAGE & DATABASES
Key Visualizer for Cloud Bigtable: beta
Получите лучшее понимание того, как получить доступ к данным, хранящимся в облаке Bigtable с ключевым визуализатором, который генерирует визуальные отчеты ключевых моделей доступа. Устранение неполадок, связанных с производительностью и получить понимание моделей использования в масштабе.
cloud.google.com/bigtable/docs/keyvis-overview

Import/export support for Cloud Spanner: GA
Это очень Запрошенная функция позволяет легко перемещать данные для улучшения аварийного восстановления, тестирования и переноса базы данных. Экспорт любой базы данных Cloud Spanner в облачном хранилище в формате Apache Avro и импортировать файлы из Cloud Storage в новую базу данных Cloud Spanner.
cloudplatform.googleblog.com/2018/07/cloud-spanner-adds-import-export-functionality-to-ease-data-movement.html

NETWORKING
Virtual Private Cloud Flow Logs: GA
запись сеть VPC поток Бревно потоков послана или получена с помощью экземпляров VM на пять-секундные интервалах, и включает в себя богатый набор аннотаций. Вы можете использовать эти журналы для мониторинга сети, судебно-медицинской экспертизы, анализа безопасности в режиме реального времени, а также оптимизации расходов.
cloud.google.com/vpc/docs/using-flow-logs

Cloud Dataproc workflow templates: beta
Облако Dataflow обработки потоков теперь позволяет автору потокового задания и запускать их на облаке DataFlow. Неподвижные, раздвижные и сеансовые окна, а также основная триггерная семантика, все поддерживаются.
cloud.google.com/dataproc/docs/concepts/workflows/workflow-parameters

BigQuery Data Transfer Service for Google Ads: GA
BigQuery Data Transfer Service для объявлений Google (ранее известный как AdWords) позволяет автоматически планировать, запускать и управлять повторяющейся объемными задания загрузки данных экспорта для Google Ads
cloud.google.com/bigquery/docs/adwords-transfer

API MANAGEMENT
Service Usage: beta
Использование службы, служба ГКП инфраструктуры, позволяет обнаружить, включать и отключать службы и их API-интерфейсы для ваших проектов. Они включают в себя услуги и их интерфейсы, созданные Google или третьими лицами с использованием облачных Endpoints
cloud.google.com/service-usage/docs/overview

MARKETPLACE
GCP Marketplace no-obligation software trials: GA
Вы можете теперь выбрать назначенный программное обеспечение с GCP Marketplace на без обязательств экспериментальной основе. Это делает его легче найти оптимальные решения в соответствии с вашими потребностями.
cloud.google.com/marketplace/docs/understanding-billing

GOOGLE MAPS PLATFORM
Google Maps Платформа введена единая плата, поскольку Вы идете ценовой план его основных карт, маршрутов и мест продукции, без ежегодных, авансовых обязательств, прекращение платежей или ограничений на использование. Все разработчики получат $ 200 стоит свободного ежемесячного использования по отношению к основной продукции.
cloud.google.com/maps-platform/user-guide/pricing-changes/

Представляем графические процессоры NVIDIA Tesla P4 для ускорения работы виртуальных рабочих станций и вывода ML на Compute Engine

Сегодня мы рады объявить о новом дополнении к семейству GPU для Google Cloud Platform (GCP), которое оптимизировано для приложений с интенсивным графическим интерфейсом и вывода машинного обучения: графический процессор NVIDIA Tesla P4.

Мы прошли долгий путь с тех пор, как мы представили наш ускоритель вычислений первого поколения — графический процессор K80, добавляющий по графическим процессорам P100 и V100, которые оптимизированы для машинного обучения и рабочих нагрузок HPC. Новые P4-ускорители, теперь в бета-версии, обеспечивают хороший баланс цены / производительности для приложений удаленного отображения и вывода машинного обучения в режиме реального времени.

Графические приложения, которые работают в облаке, значительно выигрывают от графических процессоров на рабочих станциях. Теперь мы поддерживаем виртуальные рабочие станции с помощью NVIDIA GRID на P4 и P100, позволяя вам превратить любой экземпляр с одним или несколькими GPU в высокопроизводительную рабочую станцию, оптимизированную для использования с графическим ускорением. Теперь художники, архитекторы и инженеры могут создавать захватывающие 3D-сцены для своего следующего блокбастера или создавать компьютерную фотореалистичную композицию. P4s обеспечивают 8 ГБ памяти GDDR5 — достаточную мощность для чрезвычайно требовательных интерактивных и захватывающих 3D-приложений.



Один из ранних клиентов Schlumberger был впечатлен гибкостью, которую виртуальные рабочие станции Google Cloud предлагают клиентам нефти и газа.

Виртуальные рабочие станции Compute Engine, работающие на графических процессорах NVIDIA, позволяют нам решать самые сложные задачи визуализации облачных пользователей. Эксперты по теме «Нефть и газ» теперь могут использовать Petrotechnical Suite в когнитивной E & P среде DELFI от Schlumberger на различных устройствах с расширяющимся глобальным охватом. Благодаря сети Google Cloud и увеличению пропускной способности GPU для обеспечения низкой латентности, производительности виртуальных рабочих станций, наши клиенты могут использовать возможности облачных вычислений, чтобы принимать более обоснованные решения от разведки нефти и газа до производства
Raj Kannan, Advisor Solution Architect, Шлюмберже

Использование графических процессоров для облачных 3D-приложений является обязательным. Чтобы помочь создать максимально возможные виртуальные рабочие станции, мы также сотрудничаем с Teradici, который предлагает клиента, который работает на Compute Engine и доступен через GCP Marketplace.

Комбинация Teradici Cloud Access Software, облачной платформы Google и экземпляров NVIDIA P4 и P100 помогает предоставлять высокопроизводительные виртуальные рабочие станции. Теперь клиенты в таких отраслях, как медиа и развлечения, нефть и газ и производство, могут предоставить своим конечным пользователям возможность запускать вычислительные инструменты практически с любого устройства, практически в любой точке мира
Дэн Cordingley, генеральный директор, Teradici

Графические процессоры NVIDIA Tesla P4 также отлично подходят для случаев использования вывода ML, таких как визуальный поиск, интерактивные речевые и видео-рекомендации. Эти ускорители предлагают до 22 ТОПов производительности INT8 и могут сократить время ожидания на 40X по сравнению с традиционными процессорами. Наконец, P4s хорошо подходят для работы с транскодированием видео. Процессоры P4 с одним декодированием и двумя кодировками могут транскодировать до 35 видеопотоков HD в режиме реального времени.



Как и в других наших предложениях для GPU, вы можете присоединить один или несколько P4 к любому типу машины и заплатить только за ресурсы, которые вам нужны. Мы поддерживаем все наши графические процессоры, в том числе P4, на Kubernetes Engine и движок для обучения машинам в облачной машине, визуализацию zync, и они могут воспользоваться преимуществами постоянных дисконтов и преимущественной ценой. P4s доступны сегодня в отдельных зонах в us-central1 (Айова), us-east4 (N. Virginia), Монреале (northamerica-северо-восток1) и europe-west4 (Нидерланды), с большим количеством регионов (включая LA). В приведенной ниже таблице представлен наш полный набор предложений GPU.



Наша цель — сотрудничать с вами и предоставлять аппаратные ресурсы, такие как ускорители, для управления всеми вашими рабочими нагрузками — будь то машинное обучение и обучение, моделирование, геномика, HPC, рендеринг и теперь, трехмерная визуализация. Чтобы узнать больше о P4 и виртуальных рабочих станциях на GCP, просмотрите страницу GPU или NVIDIA. Затем посетите консоль и приступайте к работе!

Обзор разрешения ваших пользователей GCP, чтобы просмотреть затраты по отдельным проектам

Мы пишем, чтобы вы знали, что новое облако Billing billing.resourceCosts.get Identity Management Access (IAM) разрешение вступает в силу 20 августа 2018 года.

Что мне нужно знать?
Мы слышали от многих клиентов, что они хотели бы более точный контроль над тем, что данные о расходах могут видеть своих пользователей. Для решения этой обратной связи, мы добавляем новое разрешение IAM Cloud Billing, billing.resourceCosts.get, что позволяет предоставлять конкретный проект доступа к данным о расходах, как отчеты счетов. Все существующие владельцы проекта и зрители получат это новое разрешение проекта. Ранее единственный вариант видимости с помощью разрешения на расчетный счете, который дал пользователям доступ ко всем расходам по биллинговому счету проекта. Начиная с 20 августа 2018, пользователь должен иметь либо платежный счет разрешения billing.accounts.getSpendingInformation или разрешение billing.resourceCosts.get проекта для того, чтобы просмотреть стоимость проекта в консоли (в том числе платежных карт на домашней странице консоли).

Что мне нужно сделать?
Если вы хотите, чтобы пользователи имели доступ к данным о расходах, они должны иметь либо зритель проекта, владелец проекта или пользовательскую роль с разрешением billing.resourceCosts.get. Если вы хотите, чтобы ограничить видимость, сохраняя при этом одни и те же права доступа, вы можете создать пользовательскую IAM роль. Пожалуйста, ознакомьтесь, что видимость необходимо и предоставить каждому пользователю правильной IAM роль до 20 августа, чтобы сохранить видимость стоимости проекта для правильных пользователей.

Вы должны быть администратором организации, владелец проекта, или администратор роль в управлении пользовательских ролей.

Чтобы узнать больше о том, как работать с учетными записями ролей и разрешений, обзор IAM документации.

Если у вас есть какие — либо вопросы или нужна помощь, пожалуйста, свяжитесь с Платежной поддержкой Google Cloud.

Спасибо за то, что ценится Google Cloud Platform клиент.

Мы переехали! Приходите посмотреть наш новый дом!

Десять лет, три месяца и 30 дней назад мы написали наш первый пост в этом блоге, и теперь мы пишем наш последний на этом конкретном веб-адресе. Сегодня с большим волнением мы представляем вам блог Google Cloud, ваш дом для всех последних новостей о продуктах GCP, практических рекомендациях, перспективах и историях клиентов, к которым вы привыкли, и все они живут счастливо на блестящем новом мобильном устройстве дружественная платформа.
cloud.google.com/blog



Мы очень рады этому изменению. Мало того, что новый блог выглядит очень красиво, но он включает в себя весь контент со всего семейства Google Cloud — GCP, G Suite, Google Maps Platform и Chrome Enterprise, поэтому вы можете увидеть, как они все подходят друг другу. И поскольку анализ данных и искусственный интеллект настолько важны для всего, что сегодня создают люди, мы также сместили наш блог с большими данными и машинным обучением на эту новую платформу.

Помимо сбора всего содержимого блога Google Cloud в одном месте, мы думаем, что вы действительно выиграете от богатых возможностей пометки блога. Теперь вы можете просматривать сообщения в блогах на платформе, а также переходить к конкретным технологическим областям, таким как Application Development, Networking или Open Source, чтобы вы могли быстро найти связанный контент. Существуют также специальные страницы для партнеров, клиентов, тренинги и сертификаты, а также решения и инструкции, чтобы назвать несколько. И поскольку мы можем также помещать сообщения в несколько продуктов и тем, вы обязательно найдете то, что ищете.
Это всего лишь изменения на высоком уровне. Существует множество новых функций для использования и изучения, и мы рекомендуем вам просматривать сайт и познакомиться с ним. Что нового не является нашей задачей: предоставить вам честный, технический контент, чтобы показать вам, как построить свой бизнес на GCP.

На сегодняшний день мы перешли на более чем двухгодичные расходы в блогах GCP в этот новый дом, причем еще больше. Сообщите нам, если вы найдете какие-либо неработающие ссылки, опечатки или просто отсутствующий контент. И, конечно же, нам понравятся ваши отзывы о нашем контенте, дизайне или любых функциях, которые вы хотели бы видеть. Спасибо за прочтение!
google-cloud-blog-team@google.com

Announcing resource-based pricing for Google Compute Engine

Обещание и преимущество облака всегда были гибкостью, низкой стоимостью и оплатой за использование. С помощью Google Compute Engine пользовательские типы машин позволяют создавать экземпляры виртуальных машин любого размера и формы, и мы автоматически применяем скидки на использование и постоянное использование, чтобы снизить ваши затраты. Сегодня мы используем концепцию оплаты за использование в Compute Engine еще дальше с ценой на основе ресурсов.
Благодаря ценообразованию на основе ресурсов мы делаем несколько изменений за кулисами, которые выравнивают, как мы относимся к измерению пользовательских и предопределенных типов машин, а также к тому, как мы применяем скидки для скидок с постоянным использованием. Проще говоря, мы внесли изменения, чтобы автоматически предоставить вам больше сбережений и простой для понимания ежемесячный счет. Кто этого не любит?

Ценообразование на основе ресурсов рассматривает использование на гранулированном уровне. Вместо того, чтобы оценивать свое использование на основе используемых вами типов машин, он оценивает, сколько ресурсов вы потребляете за определенный период времени. Что это значит? Это означает, что ядро ​​является ядром, а ГБ ОЗУ — ГБ ОЗУ. Неважно, какая комбинация заданных типов машин вы используете. Теперь мы смотрим на них на уровне ресурсов — в совокупности. Это становится лучше, потому что скидки с постоянным использованием теперь рассчитываются на региональном уровне, а не только внутри зон. Это означает, что вы можете быстрее получать скидки на использование, поэтому вы можете экономить еще более автоматически.
Чтобы лучше понять эти изменения и получить представление о том, как вы можете сэкономить, давайте посмотрим, как работали сдержанные скидки на использование, и как они будут работать дальше.
Раньше, если вы использовали конкретный тип машины (например, n1-standard-4) с четырьмя vCPU в течение 50% месяца, вы получили эффективную скидку 10%. Если вы использовали его в течение 75% месяца, вы получили эффективную скидку в размере 20%. Если вы используете его в течение 100% месяца, вы получите эффективную скидку в размере 30%.

Хорошо. Теперь, что, если вы использовали разные типы машин?
Предположим, вы используете веб-сервис. Вы начали месяц с n1-standard-4 с четырьмя vCPU. На второй неделе пользовательский спрос на ваш сервис увеличился, и вы увеличили емкость. Вы начали запускать n1-standard-8 с восемью vCPU. Когда-либо растущий спрос заставлял вас снова увеличиваться. На третьей неделе вы начали запускать n1-standard-16 с шестнадцатью vCPU. Из-за вашего успеха вы снова закончили масштабирование, закончив месяц, когда n1-standard-32 с тридцатью двумя vCPU. В этом случае вы не получили бы скидку, потому что вы не запускали ни один из типов машин до 50% месяца.



С ценой на основе ресурсов мы больше не рассматриваем ваш тип машины, и вместо этого мы объединяем все ресурсы, которые вы используете на всех ваших компьютерах, в одну общую сумму, а затем применяете скидку. Вам не нужно предпринимать никаких действий. Вы автоматически сохраняете. Давайте снова рассмотрим пример масштабирования, но на этот раз с ценой на основе ресурсов.
Вы начали месяц, на котором было четыре vCPU, а затем были увеличены до восьми vCPU, шестнадцати vCPU и, наконец, тридцать два vCPU. Вы запускали четыре vCPU весь месяц или 100% времени, поэтому вы получаете 30% скидку на эти vCPU. Вы потратили еще четыре vCPU на 75% от месяца, так что вы получаете 20% скидку на эти vCPU. И, наконец, вы потратили еще восемь vCPU на половину месяца, так что вы получаете 10% скидку на эти vCPU. Шестнадцать vCPU выполнялись в течение одной недели, поэтому они не получили скидку. Давайте посмотрим, как это работает, чтобы укрепить то, что мы узнали.


И поскольку ценообразование на основе ресурсов применяется на региональном уровне, теперь вам будет легче пользоваться скидками на использование, независимо от типа используемой вами машины, или количеством зон в регионе, в котором вы работаете. В ближайшие месяцы вступит в силу ценовая политика на основе ресурсов. Посетите страницу ценообразования на основе ресурсов, чтобы узнать больше.

Drilling down into Stackdriver Service Monitoring

Если вы несете ответственность за производительность и доступность приложений, вы знаете, как трудно это увидеть глазами ваших клиентов и конечных пользователей. Мы думаем, что это действительно изменится после внедрения на прошлой неделе Stackdriver Service Monitoring, нового инструмента для мониторинга того, как ваши клиенты воспринимают ваши приложения, а затем позволяет вам перейти к базовой инфраструктуре, когда есть проблема.

Большинство инструментов ИТ-операций занимают мало внимания в отношении ИТ-систем: они смотрят на вычисления, хранилища и сетевые показатели, чтобы выявить опыт работы с клиентами. Средства управления эффективностью приложений (APM), такие как системы трассировки, отладчики и профилировщики, рассматривают приложение с уровня кода, но упускают из виду базовую инфраструктуру. Иногда решение аналитики журналов может обеспечить клей между этими двумя слоями, но часто с большими усилиями и расходами.

У ИТ-операторов отсутствует экономичный и простой в использовании инструмент общего назначения для мониторинга поведения своих приложений, ориентированного на клиента. Трудно понять, как конечные пользователи испытывают ваше программное обеспечение, и сложно стандартизовать службы и приложения. Персонал Ops рискует выгорать из всех ложных предупреждений. Результатом всего этого является то, что среднее время-разрешение (MTTR) больше, чем необходимо, и удовлетворенность клиентов ниже желаемого. Ситуация усугубляется с помощью микросервисных архитектур, где само приложение разбито на множество мелких кусочков, что затрудняет понимание того, как все части подходят друг другу и где начать расследование, когда есть проблема.
Все это происходит с выпуском Stackdriver Service Monitoring. Мониторинг сервисов использует сервисную, «укомплектованную» инфраструктуру, поэтому вы можете отслеживать, как конечные пользователи воспринимают ваши системы, позволяя вам, когда это необходимо, перейти на уровень инфраструктуры. Первоначально мы поддерживаем эту функциональность для Google App Engine и сервисов Istio, работающих в Google Kubernetes Engine. С течением времени мы будем расширяться до большего количества платформ.

С помощью Stackdriver Service Monitoring вы получаете ответы на следующие вопросы:
  • Каковы ваши услуги? Какую функциональность предоставляют эти услуги для внутренних и внешних клиентов?
  • Каковы ваши обещания и обязательства относительно доступности и эффективности этих услуг, а также ваши услуги, связанные с ними?
  • Что такое межсервисные зависимости для приложений на основе микросервисов? Как вы можете использовать эти знания для двойной проверки новых версий кода и проблем с сортировкой в ​​случае ухудшения обслуживания?
  • Можете ли вы посмотреть на все сигналы мониторинга для целостного сервиса, чтобы уменьшить MTTR?

Анатомия мониторинга службы стоп-приводов
Сервисный мониторинг состоит из трех частей: графика обслуживания, целей уровня обслуживания (SLO) и панелей мониторинга с несколькими сигналами. Вместе они дают вам список ваших услуг, визуально отображают зависимости между ними, позволяют устанавливать и оценивать возможности доступности и производительности, помогать вам устранять проблемы приложений, чтобы быстро найти основную причину и, наконец, помочь вам быстрее отлаживать сломанные услуги чем когда-либо. Давайте посмотрим на каждую часть по очереди.
Сервисный график: это представление о вашей инфраструктуре, относящееся к услугам. Он начинается с отображения верхнего уровня в реальном времени всех сервисов в сервисной сетке Istio и связей между ними. При выборе одной услуги отображаются графики с коэффициентами ошибок и метриками задержки. Двойной щелчок по сервису позволяет развернуть свою базовую инфраструктуру Kubernetes, обеспечивая длинную неуловимую связь между поведением приложения и инфраструктурой. Существует также ползунок времени, который позволяет вам видеть график в предыдущие моменты времени. Используя сервисный график, вы можете увидеть свою архитектуру приложения для справочных целей или для сортировки проблем. Вы можете изучить показатели поведения службы и определить, вызывает ли восходящий сервис проблемы с последующей службой. Наконец, вы можете сравнить график обслуживания в разные моменты времени, чтобы определить, было ли значительное архитектурное изменение прямо перед сообщением проблемы. Существует не более быстрый способ начать изучение и понимание сложных мультисервисных приложений.



SLO: внутренне в Google наша команда инженеров по надежности сайта (SRE) только предупреждает себя о проблемах, связанных с клиентами, и не во всех потенциальных причинах. Это лучше согласовывает их с интересами клиентов, снижает их трудность, освобождает их, чтобы делать надёжную инженерию с добавленной стоимостью и повышает удовлетворенность работой. Stackdriver Service Monitoring позволяет вам устанавливать, контролировать и предупреждать о SLO. Поскольку Istio и App Engine имеют укрупненный способ, мы точно знаем, что подсчет транзакций, количество ошибок и распределение задержек находятся между службами. Все, что вам нужно сделать, — установить целевые показатели доступности и производительности, и мы автоматически генерируем графики для индикаторов уровня обслуживания (SLI), соответствия вашим целям с течением времени и вашего оставшегося бюджета ошибок. Вы можете настроить максимально допустимую скорость снижения для бюджета ошибок; если эта ставка превышена, мы уведомляем вас и создаем инцидент, чтобы вы могли принять меры. Чтобы узнать больше о концепциях SLO, включая бюджет ошибок, мы рекомендуем вам прочитать главу SLO в книге SRE.



Service Dashboard: В какой-то момент вам нужно будет углубиться в сигналы службы. Возможно, вы получили оповещение SLO, и нет очевидной причины восходящего потока. Возможно, услуга связана с графиком обслуживания как возможная причина для оповещения SLO другого сервиса. Возможно, у вас есть жалоба клиента за пределами предупреждения SLO, которое вам нужно изучить. Или, может быть, вы хотите увидеть, как происходит развертывание новой версии кода.
Панель управления сервисов обеспечивает единый когерентный вывод всех сигналов для конкретной службы, причем все они привязаны к одному и тому же таймфрейму с одним элементом управления, предоставляя вам самый быстрый способ преодолеть проблему с вашим сервисом. Мониторинг сервиса позволяет вам глубоко погрузиться в поведение службы по всем сигналам, не отрываясь от разных продуктов, инструментов или веб-страниц для показателей, журналов и трасс. Панель управления дает вам представление о SLO на одной вкладке, показатели обслуживания (скорости транзакций, частоты ошибок и задержки) на второй вкладке, а также диагностику (трассировки, отчеты об ошибках и журналы) на третьей вкладке.



После того, как вы проверили отклонение бюджета на первой вкладке и изолированный аномальный трафик во второй вкладке, вы можете продолжить дальше на вкладке диагностики. Для проблем с производительностью вы можете развернуть длинные хвостовые следы, а оттуда легко попасть в Stackdriver Profiler, если ваше приложение приспособлено для этого. Для проблем с доступностью вы можете просматривать журналы и отчеты об ошибках, проверять трассировки стека и открывать отладчик Stackdriver, если приложение предназначено для этого.



Мониторинг служб Stackdriver дает вам совершенно новый способ просмотра архитектуры приложения, причины его поведения, ориентированного на клиента, и вникать в корень любых возникающих проблем. Он использует преимущества усовершенствования программного обеспечения в области инфраструктуры, которые Google отстаивает в мире с открытым исходным кодом, и использует трудно завоеванные знания наших команд SRE. Мы считаем, что это в корне преобразует опыт работы с операционными командами разработчиков облачных вычислений и микросервисов. Чтобы узнать больше, ознакомьтесь с презентацией и демонстрацией с Лабораториями Декарта на GCP. На прошлой неделе. Мы надеемся, что вы подпишетесь, чтобы попробовать и поделиться своими отзывами.

Партнерство с Intel и SAP на постоянной памяти Intel Optane DC для SAP HANA

Нан Боден, старший директор, Глобальные технологические партнерства, Google Cloud и Parthasarathy Ranganathan, заслуженный инженер

Наши клиенты делают необычные вещи своими данными. Но по мере роста их данных они сталкиваются с такими проблемами, как стоимость ресурсов, необходимых для их обработки и хранения, а также общие ограничения по размеру при низкой рабочей нагрузке в памяти.

Использование нашими клиентами рабочих нагрузок в памяти с помощью SAP HANA для использования в новых случаях использования данных приводит к увеличению емкости памяти. Мы постоянно подталкиваем границы размеров экземпляров GCP и исследуем все более рентабельные способы выполнения рабочих нагрузок SAP на GCP.

Сегодня мы объявляем о партнерстве с Intel и SAP для предоставления виртуальных машин GCP, поддерживающих предстоящую постоянную память Intel® Optane ™ DC Persistent Memory для рабочих нагрузок SAP HANA. Эти виртуальные машины GCP будут оснащены будущими процессорами Intel® Xeon® Scalable (под кодовым названием Cascade Lake), тем самым расширяя размер ресурсов VM и предоставляя преимущества для клиентов.

Compute Engine VM с постоянной памятью Intel Optane DC обеспечит более высокую общую емкость памяти с более низкой стоимостью по сравнению с экземплярами только с динамической оперативной памятью (DRAM). Это поможет вам расширить масштабы ваших экземпляров, одновременно контролируя затраты. Compute Engine постоянно фокусировался на сокращении ваших служебных накладных расходов за счет таких возможностей, как Live Migration. В сочетании с преимуществами постоянной стойкости Intel Optane DC Persistent Memory вы получите более быстрое время перезагрузки для наиболее важных бизнес-приложений.

Экземпляры Google Cloud в постоянной памяти Intel Optane DC для SAP HANA и другие рабочие нагрузки будут доступны в альфа в этом году для тестирования клиентов. Чтобы узнать больше, заполните эту форму, чтобы зарегистрировать свой интерес.

Чтобы узнать больше об этом партнерстве, посетите наши страницы партнерства Intel и SAP.
cloud.google.com/intel/
cloud.google.com/sap