Рейтинг
0.00

Google Cloud Platform

9 читателей, 141 топик

Новая облачная платформа Google в Цюрихе для развития нашей поддержки швейцарских и европейских компаний.

Наш регион Цюрихской облачной платформы (GCP) теперь открыт и доступен. Являясь шестым по величине регионом в Европе и девятнадцатым в мире, этот новый регион предлагает компаниям, работающим в Швейцарии, новые возможности, предоставляя им доступ к данным и рабочим нагрузкам с уменьшенной задержкой.



Облако «сделано в Швейцарии»
Предназначенный для поддержки швейцарских и европейских клиентов, регион GCP Цюриха (европа-запад6) предлагает три зоны доступности, обеспечивающие рабочие нагрузки высокой доступности. Компании с гибридным облаком могут беспрепятственно интегрировать свои новые развертывания с существующими с помощью нашей региональной партнерской экосистемы и через две выделенные точки присутствия Interconnect.
cloud.google.com/about/locations/zurich/

Запуск Цюрихского региона привел к снижению задержек для продуктов и услуг GCP для компаний, работающих в Швейцарии. Размещение приложений в этом новом регионе может сэкономить до 10 мс времени для латвийских конечных пользователей. Задержка в регионе Цюриха, независимо от вашего местоположения, видна и доступна на GCPing.com.
www.gcping.com

Регион Цюриха открывается стандартным пакетом наших продуктов, включая Compute Engine, Google Kubernetes Engine, Cloud Bigtable, Cloud Spanner и BigQuery.


Чтобы воспользоваться многими услугами GCP, вы должны сначала перенести свои данные в облако. Transfer Appliance — это сервер большой емкости, который позволяет быстро и безопасно передавать большие объемы данных в GCP. Он будет доступен на швейцарском рынке. Мы рекомендуем использовать Transfer Appliance для перемещения больших объемов данных, загрузка которых может занять более недели. Чтобы сделать запрос, вы можете перейти на эту страницу.


В этом регионе интегрирована Cloud Interconnect, наша частная программно-определяемая сеть, которая обеспечивает быструю и надежную связь между всеми регионами мира. Вы можете использовать службы, которые в настоящее время недоступны в Цюрихском регионе через сеть Google, и комбинировать их с другими службами GCP, развернутыми по всему миру. Это позволяет быстро развертывать и расширять свою деятельность в разных регионах с помощью продуктов, предназначенных для глобального бизнеса.

Праздник с нашими швейцарскими клиентами
Мы запустили этот новый Цюрихский регион с событием, которое привлекло более 800 лиц, принимающих решения, и разработчиков. Урс Хёльцле, Техническая инфраструктура СВП, официально открыл регион. Клиенты из швейцарского и европейского фармацевтического, промышленного и финансового секторов смогли углубить свои знания о GCP и понять, как их деятельность в облаке может извлечь выгоду из этого нового региона.

Деятельность Swiss-AS направлена на поддержку AMOS, программного обеспечения для авиационной техники и технического обслуживания. Сегодня облачная платформа Google позволяет нам предоставлять наш облачный сервис AMOS в специальной облачной среде по всему миру. Благодаря локальному представительству GCP в Цюрихе, мы можем предложить наши услуги еще более тесно нашим клиентам AMOS в немецкоязычных странах
— Алексис Рапиор, хостинговая команда, Swiss AviationSoftware ltd.

Этот новый швейцарский регион открывает новые и захватывающие возможности для сектора здравоохранения. Это позволит университетской больнице Балгрист предлагать новые технологии обработки в реальном времени. Сотрудничество в области медицинских исследований и разработок также будет проще и эффективнее
— Томас Хагглер, исполнительный директор Университетской клиники Балгрист

Мы приветствуем появление облачной платформы Google в Швейцарии с энтузиазмом. С помощью Google Cloud мы можем сосредоточить наши усилия на разработке новых функций программного обеспечения для наших клиентов. Это дает нам возможность получить новую среду в считанные секунды
— Марк Лоосли, главный инноватор, NeXora AG (подразделение группы Quickline)

Belimo является ведущим производителем приводов, клапанов и датчиков для систем отопления, вентиляции и кондиционирования воздуха (HVAC) по всему миру. Недавно технологии IoT позволили нам предлагать системы HVAC, управляемые устройствами, подключенными к облаку, что обеспечивает больший комфорт, энергоэффективность, безопасность, простоту установки и обслуживания. Компания Belimo выбрала GCP, потому что мы зависим от высокой доступности, надежности, производительности и масштабируемости наших глобальных облачных сервисов. Передовые технологии и инструменты GCP помогают нашим командам сосредоточиться на самых важных вещах
— Питер Шмидлин, директор по инновациям, Belimo Automation AG

Вабион особенно доволен появлением Google Cloud в Швейцарии. Я искренне считаю, что это было лучшее, что могло произойти на швейцарском облачном рынке. У нас есть клиенты, которые очень заинтересованы в инновациях Google и до сих пор не мигрировали из-за отсутствия швейцарского хаба. Новый район Цюриха заполняет этот пробел и открывает перед Wabion огромные возможности для поддержки клиентов по мере их развития с помощью Google Cloud
— Майкл Гомес, Со-менеджер, Wabion

Следующие шаги
Для получения дополнительной информации об этом регионе, не стесняйтесь посетить веб-страницу региона Цюриха, где вы можете получить доступ к бесплатным ресурсам, техническим документам, видео в облачном эфире по запросу. и многое другое. Если вы новичок в GCP, посетите страницы «Советы и рекомендации по выбору региона Compute Engine», чтобы начать работу сегодня.

В течение года мы будем открывать новые районы и районы GCP, начиная с Осаки. Наша страница, представляющая наши облачные географические зоны, регулярно обновляется с появлением наших новых услуг и дополнительных регионов.

Google Cloud сначала предлагает графические процессоры NVIDIA Tesla T4



Сегодня мы рады сообщить, что Google Cloud Platform (GCP) — первый крупный поставщик облачных вычислений, предлагающий доступность для графического процессора NVIDIA Tesla T4. Теперь доступный в альфа, T4 GPU оптимизирован для вывода машинного обучения (ML), распределенной подготовки моделей и компьютерной графики.

Быстрый, экономически эффективный вывод ML
По сравнению с другими методами искусственного интеллекта вывод ML требует особо высокопроизводительных вычислений с низкой задержкой. Благодаря поддержке Turing Tensor Core для прецизионных режимов FP32, FP16, INT8, NVIDIA Tesla T4 обеспечивает до 130 TFLOPS производительности вывода вывода ML с задержкой до 1,1 мс *. Кроме того, 16-гигабайтная высокоскоростная память GPU T4 помогает поддерживать как крупные модели ML, так и выполнять вывод на нескольких моделях ML одновременно для большей эффективности вывода. Наконец, T4 является единственным графическим процессором, который в настоящее время предлагает поддержку точности INT4 и INT1 для еще большей производительности.

Предлагая недорогой вариант для обучения моделях ML
Многие из вас также сказали нам, что вы хотите, чтобы GPU поддерживал вычисления с медной точностью (как FP32, так и FP16) для обучения ML с отличной ценой / производительностью. 65 TFLOPS T4 для гибридных FP32 / FP16 ML и 16 ГБ памяти GPU решают эту потребность для многих распределенных тренировок, обучения подкреплению и других нагрузок ML. Цены на T4 будут доступны во время бета-объявления.

Нагрузочные графические рабочие нагрузки
Благодаря новым графическим функциям с аппаратным ускорением Tesla T4 также является отличным выбором для требовательных графических рабочих нагрузок, таких как трассировка лучей в реальном времени, автономный рендеринг или любое приложение, использующее технологию RTX от NVIDIA. Архитектура Тьюринга T4 позволяет спланировать трассировку лучей в реальном времени, AI, имитацию и растеризацию, чтобы обеспечить новый многоуровневый подход к рендерингу компьютерной графики. В то же время специализированные процессоры трассировки лучей, называемые RT Cores, могут отображать, как лучи света движутся в трехмерных средах.

Мы хотим упростить вам использование Tesla T4. Вы можете быстро начать работу с Compute Engine (GCE) с помощью наших изображений Deep Learning VM, которые предварительно настроены на все, что вам нужно для выполнения высокопроизводительных рабочих нагрузок. Кроме того, поддержка T4 скоро появится в Google Kubernetes Engine (GKE) и других службах GCP.
cloud.google.com/deep-learning-vm/

В режиме реального времени визуализация и интерактивные нагрузки на вывод требуют низкой латентности для конечных пользователей. Продвинутые в отрасли сетевые возможности GCP вместе с нашим предложением T4 позволяют вам внедрять инновации по-новому, ускоряя ваши приложения, одновременно сокращая затраты. Масштаб GCP позволяет вам перейти от разработки к развертыванию на производство на тысячи графических процессоров с помощью простого вызова API. Вы также можете оптимизировать цену и производительность, подключив до 4 T4 графических процессоров в любую пользовательскую форму виртуальной машины.
cloud.google.com/custom-machine-types/

Зарегистрироваться
Вы можете зарегистрироваться для раннего доступа к NVIDIA T4 на GCP здесь. Доступность во время альфы ограничена, поэтому зарегистрируйтесь сейчас. Для получения дополнительной информации посетите страницу нашего GPU.
docs.google.com/forms/d/e/1FAIpQLSfc_5IyMpoIsgQ3vNggPvKkTjlI1wbb4WDSbYWFkvZdh2orOw/viewform

Google Cloud Platform: Your cloud destination for mission critical SAP workloads

На этой неделе SAP выпустила свою ежегодную конференцию TechEd, и мы подумали, что мы поделимся обновлением о новых возможностях и интеграции, которые мы создали в сотрудничестве с SAP, чтобы предоставить клиентам больше возможностей и возможностей инфраструктуры для их рабочих нагрузок.

Оптимизируйте свои рабочие нагрузки с помощью настраиваемых типов машин
Пользовательские типы машин теперь позволяют вам правильно настроить рабочую нагрузку SAP, настроив оптимальное количество CPU и памяти. Мы работали с SAP для определения продуктивной поддержки использования пользовательских машин для приложений SAP. Сочетание правильной калибровки с пользовательскими машинами и скидки на постоянное использование могут обеспечить потенциальную экономию средств, превышающую 50% расходов на инфраструктуру.

Вот как это работает. Размер рабочей нагрузки SAP обычно выполняется с использованием SAPS (стандарт производительности приложения SAP). Предположим, вы определили, что для того, чтобы точно достичь SAPS, необходимого для вашей рабочей нагрузки SAP, вам понадобится 20vCPU. Без сертификации для настраиваемых машин для приложений SAP вам может потребоваться предоставить предопределенный тип машины либо 16vCPU (по условию), либо 32vCPU (за предоставление). Однако с помощью специализированных машин вы можете предоставить машину с 20vCPU и заплатить точно за то, что вам нужно (20vCPU против 32vCPU). И если ваши характеристики нагрузки меняются в будущем, вы можете легко увеличить размер своего компьютера, просто перезапустив машину с большим количеством vCPU.

Вот текущее состояние сертификатов для рабочих нагрузок SAP для пользовательских типов машин:


Объявление поддержки динамического уровня
Динамическое многоуровневое построение SAP HANA обеспечивает расширенное хранилище на жестких дисках большого объема для ваших теплых данных SAP HANA. Это позволяет хранить только самые полезные или активные данные в памяти, тем самым снижая затраты. Динамическое выравнивание также обеспечивает расширяемость, поскольку вы можете использовать те же инструменты, которые вы используете для запроса SAP HANA с данными, хранящимися в хранилище динамического уровня.

Сегодня мы объявляем о продуктивной поддержке динамического уровня на GCP для ваших рабочих нагрузок SAP HANA. Чтобы убедиться, что у вас есть лучший опыт работы с GCP, мы провели серию функциональных тестов, включая запросы, резервное копирование, мониторинг и операции, а также следовали правилам определения размеров и определили оптимальные требования к хранению, созданию сетей, процессору и памяти.

Более подробную информацию о требованиях к ресурсам можно найти в нашей документации по планированию.

Новая сертификация для резервного копирования SAP HANA в облачное хранилище Google
Backint для SAP HANA — это исполняемая программа, которая может быть реализована третьей стороной, такой как Google Cloud, и установлена ​​в вашей среде SAP HANA, чтобы вы могли выполнить резервное копирование на сторонний сервер. Мы разработали исполняемый файл Backint, который может создать резервную копию вашей базы данных SAP HANA в хранилище Google Cloud Storage, и мы работали с SAP, чтобы убедиться, что этот интерфейс отвечает всем требованиям их сертификации для резервного копирования и восстановления в SAP HANA.

Эти возможности платформы доступны теперь клиентам:
  • Планируемая минимизация времени простоя посредством живой миграции.
  • Более 1 бит / сек общей пропускной способности для подключения к сети для подключения приложений, требующих высокопроизводительной сети.
  • Шифрование данных в состоянии покоя и в пути.
  • Шифрование контролируется клиентами, использующими ключи шифрования клиентов поставщика.
  • 4TB VM сертифицированы для SAP HANA.

Управляемые партнером управляемые службы для SAP HANA, которые включают экземпляры SAP HANA, которые могут быть такими же, как любое сертифицированное оборудование SAP HANA, доступное на рынке сегодня.

И мы очень рады новой интеграции с SAP в ближайшее время, в том числе:
  • Виртуальные машины, поддерживаемые будущей постоянной памятью Intel Optane DC Persistent Memory для рабочих нагрузок SAP HANA.
  • 12 и 18 ТБ в 2019 году.

cloud.google.com/sap/

BigQuery и суррогатные ключи: практический подход

При работе с таблицами в средах хранилища данных довольно часто встречается ситуация, при которой вам нужно генерировать суррогатные ключи. Суррогатный ключ — это сгенерированный системой идентификатор, который однозначно идентифицирует запись в таблице.

Почему нам нужно использовать суррогатные ключи? Совершенно просто: вопреки естественным ключам они сохраняются с течением времени (т. Е. Они не привязаны ни к каким бизнес-значениям), и они допускают неограниченные значения. Подумайте о таблице, которая собирает данные IoT с нескольких устройств в разных регионах: поскольку вы хотите хранить неограниченные данные, и у вас могут быть возможные совпадения с идентификаторами устройств, суррогатные ключи помогут многозначительно идентифицировать запись. Другим вариантом использования может быть таблица «items», в которой вы хотите хранить информацию, связанную не только со статьями, но и с историей изменений, сделанных на данных: даже в этом случае суррогатные ключи могут быть изящным решением, позволяющим легко присваивать уникальные идентификаторы всем записям



Как сгенерировать суррогатные ключи
Обычный способ генерации суррогатных ключей — назначить инкрементный номер каждой строке таблицы: вы можете достичь этой цели, используя стандартную функцию
ROW_NUMBER() OVER({window_name | (window_specification)})


SELECT 
	ROW_NUMBER() OVER() AS SurrogateKey,
	*
FROM `bigquery-samples.wikipedia_benchmark.Wiki1M`



К сожалению, этот подход ограничен. Для реализации ROW_NUMBER () BigQuery необходимо сортировать значения в корневом узле дерева выполнения, который ограничен объемом памяти в одном узле выполнения.

Общее решение заключается в разделении данных с использованием предиката PARTITION в сочетании с полями раздела, чтобы получить уникальный идентификатор для каждой строки.


Альтернативный подход
Другое решение, которое вы можете принять, особенно в потоковых сценариях, зависит от хэш-функций. Поскольку этот шаблон вычисляет суррогатные значения ключа во время выполнения, его можно применять к наборам данных любого измерения. Идея состоит в том, чтобы вычислить SHA256 дайджест выбранных полей записи и использовать результат в качестве суррогатного ключа.

Возможны два возможных подхода:
INSERT INTO, когда новые записи должны быть вставлены в таблицу (воспроизведение с внутренним запросом для выбора целевых данных, которые необходимо вставить в таблицу целей)

INSERT INTO `MyPrj.MyDataset.Wiki100B_With_SK`
(SurrogateKey,year,month,day,wikimedia_project,language,title,views)
SELECT (SHA256(title)) AS SurrogateKey,*
FROM `bigquery-samples.wikipedia_benchmark.Wiki100B`


UPDATE, когда существующие записи необходимо обновить (играть с фильтрами, чтобы выбрать правильные данные для обновления)
UPDATE `MyPrj.MyDataset.Wiki100B_With_SK`
SET SurrogateKey = (SHA256(title))
WHERE year = 2010


Когда вы планируете свои действия, обратите внимание, что вы ограничены 1000 операций INSERT на таблицу в день и 200 операций UPDATE на таблицу в день.

В случае дублирования записей в исходной таблице случайное значение может быть объединено до вычисления дайджеста: это уменьшит вероятность столкновения с конфликтами. Если вы хотите быть в курсе будущих дополнений, подумайте о закладке страницы заметок выпуска.



Другим способом достижения такого же результата является использование новой функции GENERATE_UUID (), которая генерирует уникальный идентификатор для каждой строки результата запроса во время выполнения. Сгенерированный ключ будет строчной строкой, состоящей из 32 шестнадцатеричных цифр в пяти группах, разделенных дефисом в форме 8-4-4-4-12.
SELECT 
GENERATE_UUID() AS SurrogateKey,
*
 FROM `bigquery-samples.wikipedia_benchmark.Wiki100B`



Вывод
Суррогатные ключи распространены в средах хранилища данных, поскольку они:
  • Контекстно-независимый
  • Больше совместимости с будущим
  • Потенциально бесконечно масштабируемый

BigQuery предоставляет конечным пользователям возможность легко справляться с суррогатными ключами, позволяя их генерировать и обновлять по шкале.
cloud.google.com/blog/products/data-analytics/bigquery-and-surrogate-keys-practical-approach

Разработка и реализация плана аварийного восстановления с использованием GCP

Когда вы работаете в ИТ-команде предприятия, события прерывания службы могут произойти в любое время. В вашей сети может произойти перебои в работе, ваш последний запрос может вызвать критическую ошибку, или вам когда-нибудь придется бороться с стихийным бедствием. Когда все идет вразрез, важно иметь надежный, целенаправленный и хорошо протестированный план аварийного восстановления (DR).

С хорошо разработанным планом DR, вы можете убедиться, что если катастрофа ударит, влияние на нижнюю строку вашего бизнеса будет минимальным. Независимо от того, как выглядят ваши требования к DR и независимо от того, где ваша производственная среда (на месте, в облачной платформе Google (GCP) или другом облаке), GCP имеет гибкий и экономичный выбор продуктов и функций, которые вы можете использовать для создания или расширения решения DR, которое подходит именно вам.

Мы собрали подробное руководство, чтобы помочь вам настроить план DR. Мы слышали ваши отзывы о предыдущих версиях этих статей DR, и теперь у вас есть обновленная серия из четырех частей, которая поможет вам разработать и реализовать ваши планы DR.

В руководстве по планированию рассказывается о проблемах, которые необходимо учитывать при разработке вашего плана DR. Он рассматривает темы, связанные с внедрением элементов управления безопасностью, на тестирование вашего плана.

Блоки DR сосредотачиваются на особенностях продуктов GCP, которые поддаются реализации сценариев DR, включая вычисления, хранение, сетевое взаимодействие и продукты мониторинга. Вы найдете информацию об общих архитектурных шаблонах на основе этих блоков DR. Вы также можете узнать об использовании инструментария для межплатформенных сценариев DR.

Сценарии DR для данных с GCP фокусируются на сценариях DR для данных и баз данных. В нем обсуждаются сценарии для различных производственных сред и приводятся примеры того, как реализовать эти сценарии. Он также охватывает предложения резервного копирования и восстановления для баз данных, управляемых GCP.

Сценарии DR для приложений с GCP строятся на предыдущих разделах с примерами архитектур DR для вас, чтобы рассмотреть возможность применения для вашей инфраструктуры.

Если вы предпочитаете смотреть видеоролики, мы вас охватили. Этот сеанс из Next '18 дает обзор проектирования и внедрения DR-систем в GCP. Вы также можете ознакомиться с некоторыми нашими партнерскими решениями, предназначенными для планирования DR.

Visualize 2030: Google Cloud hosts data storytelling contest with the United Nations Foundation

Visualize 2030: Google Cloud hosts data storytelling contest with the United Nations Foundation, the World Bank, and the Global Partnership for Sustainable Development Data

Примечание редактора: настройте завтра, вторник, 25 сентября 2018 года, в 12 часов вечера PST / 3 вечера EST, чтобы Cloud OnAir услышать от Шейна Гласса, премьер-министра для публичных наборов данных в Google Cloud, и Эндрю Уитби, научного сотрудника по данным Всемирного банка, приложений публичных наборов данных и визуализации данных в государственном секторе, а также о том, как учащиеся более высокого уровня могут участвовать в конкурсе Visualize 2030.

 Узнайте больше о том, как Visualize 2030 поощряет рассказы, связанные с данными, о целях развития.
«Визуализация 2030» — это конкурс рассказов о событиях для студентов университетов, организованный в партнерстве со Всемирным банком, Фондом Организации Объединенных Наций и данными Глобального партнерства в интересах устойчивого развития. Мы приглашаем студентов на уровне колледжа и выпускников использовать Google Data Studio для анализа наборов данных из Всемирного банка и Организации Объединенных Наций и рассказать историю данных о Целях устойчивого развития ООН. Если вы активно участвуете в учебе, узнайте больше и применитесь здесь.

НПО, МПО и некоммерческие организации все чаще обращаются к аналитике данных и компьютерному обучению для достижения своих миссий в масштабе, изучают партнерские отношения и возможности для сотрудничества с частным сектором. В основе этого растущего «данных для хорошего» движения относятся междисциплинарные и международные партнерские отношения, приносящие частные и общественные организации, чтобы применять современные технологии к самым серьезным проблемам в мире.

Одной из таких возможностей для сотрудничества являются публичные наборы данных. Google Cloud запустила свою программу Public Datasets в 2016 году с целью облегчения доступа к данным и развития знаний, путем миграции более 100 наборов данных, которые анализируются во всем мире. Для каждого набора данных Google Cloud покрывает расходы на миграцию и хранение бесплатно, позволяя любому пользователю с действительной учетной записью GCP запрашивать до 1 ТБ в месяц — снова бесплатно. По сравнению с нашими наборами данных BigQuery, начиная с GSOD NOAA и заканчивая историей качества воздуха EPA, общий объем запросов данных превышает 100 петабайт. Стоит также отметить, что вертикали, такие как климат, здоровье и экономика, в частности, могут помочь некоммерческим организациям ускорить реализацию своих проектов по аналитике данных и продвинуть социальные причины.

Эти точки данных очень похожи на словарный запас: чтобы понять их, вы должны объединить их вместе в убедительное предложение. В противном случае, как и сами слова, метрики существуют только сами по себе, в строго ограниченных определениях и этимологиях. Такие предложения могут быть объединены в таблицы, группы и объединения, развиваясь в гладкие абзацы, которые сразу начинают рассказывать историю. Эта история может быть проиллюстрирована, то есть визуализирована. Визуализация данных — еще один полезный ресурс для миссионерских организаций, которые хотят внедрить аналитику данных, способствуя синтезированной и убедительной передаче информации. С помощью Google Data Studio любой пользователь может создавать интерактивные информационные панели или отчеты из BigQuery и более 500 других источников данных через экосистему сообщества сообщества Data Studio бесплатно. В то время как одна некоммерческая организация, например, Фонд Прецизионной Медицины, может использовать Data Studio для визуализации чувствительной медицинской информации, не покидая безопасную облачную среду, другая организация, такая как Harambee Youth Employment Accelerator, может использовать ее, чтобы лучше синтезировать свои данные и соответствовать безработной молодежи с заданиями в Южной Африке. Любая организация может рассказать историю, которая будет служить их цели, поддерживать их сообщество или даже изменить мир.


datastudio.google.com/reporting/1jxiA_D8CXWu_rH0jQ2dXOGcfUJD9JrhV/page/2WOV

Эта визуализация предоставляет демонстрацию, которая может служить отправной точкой для пользователей, желающих визуализировать данные WDI. Глобальная тепловая карта показывает среднюю долю всего населения, имеющего доступ к электричеству по странам. На гистограмме внизу показаны 15 стран с самой низкой общей долей населения с доступом к электричеству за тот же период времени.

Именно с этим оптимизмом мы запустили еще одну инициативу в июле 2018 года: визуализировать 2030 | Истории данных для SDG (Цели устойчивого развития). В партнерстве с Фондом Организации Объединенных Наций, Всемирным банком и Глобальным партнерством по данным в области устойчивого развития мы поощряем учащихся на более высоком уровне анализировать наборы данных и рассказывать историю о повестке дня 2030 года, состоящую из 17 Устойчивого развития Цели (SDG). Эти СГД были определены Организацией Объединенных Наций и варьируются от сохранения биоразнообразия до прекращения бедности. В частности, мы просим учащихся проанализировать недавно перенесенные общедоступные наборы данных из Статистического отдела Организации Объединенных Наций и Всемирного банка и использовать Data Studio, чтобы рассказать историю данных о том, как по крайней мере две SDG влияют друг на друга и как мы можем их достичь 2030. Мы надеемся, что, работая вместе, мы можем вдохновить ученых нового поколения на то, чтобы принять меры и присоединиться к данным для хорошего движения. Если вы участвуете в университетском университете, который хочет узнать больше о Visualize 2030, посетите сайт cloud.google.com/visualize-2030

В этом духе междисциплинарного сотрудничества мы будем участвовать в Неделе глобальных целей, которая состоится на этой неделе вокруг Генеральной Ассамблеи ООН в Нью-Йорке. Ребекка Мур, директор Google Earth Engine, будет представлять Google Earth и Google Cloud на сессии под названием «Большие данные для лучшей жизни: мобильная связь, статистика и анализ» 25 сентября вместе с представителями таких организаций, как ЮНИСЕФ и Мировая продовольственная программа (МПП), а также в Зоне СМИ SDG 27 сентября, чтобы поговорить об устойчивости и SDG.

https://cloud.google.com/blog/

Open Match: Flexible and extensible matchmaking for games



Сегодняшние игры все больше связаны, объединяя игроков в общей среде, где они могут проверить свое мастерство и изобретательность в отношении геймеров по всему миру.

Но создание сватовства — искусство согласования множества игроков вместе, чтобы максимизировать их удовольствие от игры — с технической точки зрения нелегко и может потребовать много ресурсов, чтобы получить право. Каждая игра уникальна, из-за чего трудно создать готовое решение для совместной работы, чтобы быть достаточно гибким, чтобы поддерживать их. Следовательно, разработчики игр часто проводят значительное время и ресурсы, разрабатывая индивидуальное масштабируемое решение для каждой новой версии, когда они могут тратить время на то, что они делают лучше всего, создавая отличные игры.

Что делать, если разработчики игр могли бы сосредоточиться только на логике Matchmaking — входы и логика для выбора игроков — вместо того, чтобы строить целую сваху с нуля для каждой игры? Google Cloud and Unity совместно объявляют о доступности проекта по созданию знакомств с открытым исходным кодом под названием Open Match, чтобы сделать именно это. Open Match предназначен для того, чтобы создатели игр могли повторно использовать общую структуру сватов. Он включает в себя три основных компонента: интерфейсный API для игровых клиентов, бэкэнд-интерфейс для игровых серверов и оркестр, который управляет индивидуальной логикой знакомств. Он основан на OpenCensus (opencensus.io) для сбора метрик, а Prometheus (prometheus.io) настроен по умолчанию.

С Open Match разработчики получают следующие преимущества:
  • Расширяемость. Примеры пользовательской логики соответствия доступны для простого сопоставления игроков на основе латентности, времени ожидания и произвольного рейтинга навыков.
  • Гибкость. Поскольку Open Match работает на Kubernetes, вы можете развернуть его в любом общедоступном облаке, локальном центре обработки данных или даже на локальной рабочей станции.
  • Масштабируемость. Open Match разработан с использованием проверенных шаблонов веб-микросервисов, а с Kubernetes в качестве базовой платформы, добавляя дополнительную емкость для ваших API, когда у вас больше клиентов, так же просто, как и одна команда. Автомасштабирование Кубернеса также может быть использовано для автоматизации.

Хотя Open Match является соучредителем Google Cloud и Unity, это не зависит от игрового движка. Он может быть интегрирован в любую игру, независимо от того, как построена игра или какая инфраструктура работает. Unity будет основывать будущую технологию Matchmaking на Open Match, поэтому клиенты Unity смогут более легко использовать свои функции, например, путем интеграции с серверами Unity. Репо Open Open GitHub теперь открыто для вкладов, и вы можете следовать примеру, приведенному в руководстве по настройке разработки, чтобы начать экспериментировать сегодня.

github.com/GoogleCloudPlatform/open-match/blob/master/docs/development.md

Cisco Hybrid Cloud Platform for Google Cloud: Now generally available

Независимо от того, являются ли они облачными или модернизируют свою инфраструктуру на месте, многие предприятия могут воспользоваться хорошо поддерживаемым путем, позволяющим им перемещаться в облако на своих условиях. Чтобы решить эту проблему, мы объявили о своем партнерстве с Cisco в октябре прошлого года на новой открытой гибридной облачной платформе, которая объединяет локальные и облачные среды. Сегодня мы рады объявить о том, что платформа гибридных облачных вычислений Cisco для Google Cloud теперь доступна в целом, предоставляя нашим клиентам больше возможностей при рассмотрении гибридных решений.

Cisco является идеальным партнером для нас в этой области благодаря многолетнему сосредоточению бизнеса и опыту в области сетей, безопасности, аналитики и гиперконверсированной инфраструктуры. Cisco Hybrid Cloud Platform для Google Cloud предлагает еще один способ беспрепятственно работать на месте и в облаке, обеспечивая скорость и масштаб, где клиенты больше всего этого нуждаются. Приложения в облаке могут использовать возможности на местах, в том числе существующие ИТ-системы, а приложения на местах могут использовать новые облачные возможности — без необходимости полного перехода в общедоступное облако.

Это полностью интегрированное решение позволяет разработчикам использовать возможности корпоративного уровня от Google Cloud, такие как управляемые Kubernetes, каталог сервисов GCP, сеть Cisco и безопасность, а также проверку подлинности Istio и мониторинг сервисов. Центр технической поддержки Cisco (TAC) предоставит клиентам единый источник поддержки. Он расширяет сетевые политики и конфигурации Cisco, а также контролирует поведение приложений в гибридных облачных средах.

Более подробно о том, что могут сделать компании:
  • Ускорьте модернизацию приложений, используя стратегию контейнеров на основе Kubernetes, которая совместима с облачными технологиями, включая GKE. Cisco предоставит готовое решение для кубернетов и контейнеров под ключ, а также инструменты управления для обеспечения соблюдения политик безопасности и потребления.
  • Простота управления услугами. Технология Istio с открытым исходным кодом, с использованием контейнеров и микросервисов предлагает разработчикам единый способ подключения, защиты, управления и мониторинга микросервисов через облака с помощью контроля доступа к сервису уровня сервиса mTLS. В результате они могут легко внедрять новые портативные сервисы и централизованно настраивать и управлять этими услугами.
  • Быстро и надежно подключайте рабочие нагрузки к облакам. Управление API через Apigee позволяет использовать устаревшие рабочие нагрузки на предварительном уровне для подключения к облаку через API. С Apigee предприятия могут предоставлять устаревшие услуги, предоставляя им безопасные API для разработчиков, которые затем могут легко включить эти службы в свое современное приложение.
  • Воспользуйтесь интегрированной системой безопасности и поддержки. Клиенты могут расширить свои существующие политики безопасности Cisco и мониторинг в облаке и быть уверенными в совместной координации технической поддержки от Cisco и Google Cloud.

Telindus, интегратор, телекоммуникатор и поставщик облачных услуг, приняли участие в нашей Программе раннего доступа и использовали Cisco Hybrid Cloud Platform для Google Cloud для развертывания решений на основе контейнеров в средах, поскольку безопасность является ключевой. Гибридная облачная платформа позволила интегрированному управлению развертыванием и загрузкой контейнеров через государственные и частные облака по-настоящему гибридно, что является ключевым требованием для высоко регулируемых и чувствительных к безопасности отраслей.

Говорит д-р Томас Шерер, главный архитектор Telindus SA: «Виртуальная гибридная облачная платформа Cisco для Google Cloud обеспечивает готовое решение для облачного локального опыта и может быть легко масштабирована до общего облака, используя такие сервисы, как Google Kubernetes Engine и BigQuery ». Вы можете узнать больше от Cisco о развертывании Telindus в своем блоге.
blogs.cisco.com/cloud/promise-of-hybrid-cloud-delivered

Мы надеемся, что гибридная облачная платформа Cisco для Google Cloud позволит большему числу предприятий перейти в облако темпами, которые работают на них, при этом максимизируя инвестиции на предварительном этапе и избегая блокировки. Мы также сотрудничаем с Cisco по решению Cisco и Google Cloud, предлагая призы организациям, которые пересматривают взаимодействие своих локальных и облачных приложений.
developer.cisco.com/googlechallenge/

Чтобы узнать больше о Cisco Hybrid Cloud Platform для Google Cloud, посетите наш веб-сайт.
cloud.google.com/cisco/