Реестр контейнеров DigitalOcean теперь общедоступен



То, как мы создаем и используем программное обеспечение, продолжает развиваться. Последняя тенденция — часто называемая нативными облачными вычислениями — включает в себя набор технологий и подходов, которые облегчают разработку и работу приложений, предназначенных для работы в облаке. В этот сдвиг особенно популярны контейнеры и Kubernetes.

Лучшая практика для облачного DevOps — настроить конвейер CI/CD с системой сборки, отправляющей образы в реестр контейнеров. Среды выполнения, такие как наш собственный DigitalOcean Kubernetes, могут затем извлекать образы из реестра. Вы можете использовать любой реестр контейнеров вместе с DigitalOcean Kubernetes, но есть специальный, который мы рекомендуем для простоты использования и низкой стоимости.

Сегодня мы рады сообщить, что реестр контейнеров DigitalOcean теперь общедоступен.

Просто, конфиденциально и безопасно
Реестр контейнеров DigitalOcean упрощает безопасное хранение частных образов контейнеров и управление ими, особенно для использования с DigitalOcean Kubernetes.

Чтобы начать, перейдите на вкладку «Реестр контейнеров» на панели управления.



После создания реестра вы можете отправить в него образы контейнеров Docker. Изображения в вашем реестре зашифрованы в состоянии покоя и при передаче и доступны только другим членам вашей команды DigitalOcean.


Чтобы упростить развертывание ваших образов в DigitalOcean Kubernetes, мы предоставляем рабочий процесс для подключения вашего реестра к кластерам в вашей учетной записи. Просто перейдите на вкладку «Настройки» своего реестра на панели управления и выберите кластеры, которые вы хотите использовать с реестром. Затем DigitalOcean сохранит токен аутентификации как imagePullSecret во всех пространствах имен для выбранных кластеров Kubernetes.


Вы можете бесплатно переносить образы контейнеров в свои кластеры DigitalOcean Kubernetes. Чтобы повысить производительность, DigitalOcean Container Registry кэширует метаданные изображений по всему миру.

Совместимость с артефактами Open Container Initiative (OCI)
Реестр контейнеров предназначен не только для контейнеров. Вы можете использовать Реестр контейнеров для хранения любого артефакта, совместимого со спецификацией OCI. Например, вы можете хранить свои диаграммы Helm в реестре контейнеров (обратите внимание, что поддержка Helm OCI все еще экспериментальная).


Низкая предсказуемая цена
Отчасти потому, что реестр контейнеров DigitalOcean построен на основе нашей службы хранения объектов Spaces, мы можем предложить ее по низким и предсказуемым ценам. Вы вполне можете обнаружить, что нашего бесплатного плана с одним репозиторием и 500 МБ хранилища достаточно для личных проектов. Если вам нужно больше репозиториев и хранилища, наши планы Basic и Professional предоставляют варианты, подходящие для более крупных проектов. В отличие от других реестров контейнеров, вы можете использовать DigitalOcean Container Registry с любым желаемым количеством участников без дополнительных затрат.


Urlbox запускает наш API снимков экрана в DigitalOcean Kubernetes, и мы используем реестр контейнеров DigitalOcean для хранения изображений для различных сервисов, составляющих наше приложение. Хранение изображений в реестре контейнеров DigitalOcean дает огромную экономию средств по сравнению с хранением и передачей изображений из Google Cloud
Крис Робак, основатель и генеральный директор

Запустите свои облачные приложения в DigitalOcean сегодня
В DigitalOcean мы стремимся помочь вам и вашему малому бизнесу освоить новейшие технологии, связанные с облачными вычислениями. Сегодня DigitalOcean проводит виртуальную конференцию разработчиков Deploy, и я призываю вас присоединиться к моему сеансу о том, как запускать облачные приложения в DigitalOcean.

А пока мы будем рады, если вы попробуете наш Реестр контейнеров. Вот документация, которая поможет вам начать работу.

Если вы представляете малый бизнес или стартап и хотите поговорить с нами о том, как запустить облачные приложения в DigitalOcean, свяжитесь с нами здесь.
www.digitalocean.com/docs/container-registry/
cloud.digitalocean.com/registry
www.digitalocean.com/deploy

Удачного кодирования,
Адам Вулф Гордон, старший инженер-программист

REG.ru Cloud changelog



https://www.reg.ru

27.10.2020 Вебинары
Подготовили для вас два вебинара: 03.11.2020 в 15:00 msk расскажем подробнее о возможностях Облачных серверов, 05.11.2020 в 15:00 msk — проведём воркшоп по настройке приватных сетей. Зарегистрироваться на вебинар.

20.10.2020 Дешёвые VPS
Добавили линейку тарифов «Старт» с VPS начального уровня для изучения Linux, тестирования и веб-разработки.

19.10.2020 Давайте поговорим
Нам было бы полезно узнать как вы работаете с облачными серверами и с REG.RU в целом. Приглашаем на онлайн-созвон — забронируйте удобное время и оставьте ваш email. В ответ мы пришлем ссылку в Zoom, можно подключиться с компьютера или телефона. Разговор займёт не больше 20-30 минут, в качестве благодарности — бонус на баланс облачных серверов.

24.09.2020 Лендинг высокочастотных серверов
Добавили лендинг для высокочастотных серверов — используйте его для привлечения клиентов в рамках реферальной программы. Платим 500 ₽ за нового пользователя Облачных серверов, который потратил 500 ₽ на услугу.

15.09.2020 ISPmanager
ISPmanager теперь доступен для CentOS 8 и Ubuntu 20.04 LTS. Также обновили на рекомендуемые настройки PHP, Sendmail, Apache и Nginx для всех версий операционных систем. К настройкам относятся: время исполнения скриптов, доступная для PHP память, максимальный размер загружаемых файлов и другие.

31.08.2020 Снэпшоты стали дешевле
Обновили оборудование и снизили стоимость хранения снэпшотов до 3 ₽ за ГБ в месяц.

27.08.2020 Высокочастотные серверы
Добавили линейку тарифов с частотой процессора 3,7 ГГц и технологией Turbo Boost до 5 ГГц. Рекомендуем для проектов на 1С-Битрикс и WordPress — тест Geekbench показывает прирост производительности на 69% для конфигурации с 2 ГБ памяти и 1 vCPU. Сделать апгрейд можно на тариф, где диск совпадает по размеру или больше.

06.08.2020 Восстановление удалённых серверов
Как и прежде, в течение трёх дней можно восстановить удалённый сервер в разделе «История». Но теперь по запросу в поддержку мы восстановим сервер, который был удалён месяц назад и даже более — при наличии такой возможности.

05.08.2020 Новый тариф с 2 ГБ памяти
Добавили тариф с 2 ГБ памяти и 1 vCPU — Cloud-2b за 660 ₽. Возможен апгрейд и даунгрейд к тарифу Cloud-2a c 1 ГБ памяти, поскольку тарифы имеют одинаковый размер диска.

29.07.2020 Реферальная программа
Облачные серверы включены в реферальную программу. Платим 500 рублей за нового пользователя Облачных серверов, который потратил 500 рублей на услугу. Начисление единоразовое и происходит не ранее, чем через 30 дней после первого платежа пользователя.

29.07.2020 Миграции между линейками тарифов
Теперь можно менять тариф с линейки «Стандарт» на «Выделенное облако» и обратно.

27.07.2020 Быстрые оффлайн-снэпшоты
Ускорили создание снэпшотов c остановкой сервера — теперь сервер недоступен только на время перезагрузки.

13.07.2020 Приватные сети
Реализовали приватные сети для защищённого взаимодействия серверов. Подключение в разделе «Сеть» у каждого сервера. На каждом сервере нужно сделать настройку по инструкции.

18.05.2020 Новые тарифы
13 мая мы повысили цены в связи ростом курса доллара и, как следствие, повышением цен на импортируемое оборудование. Чтобы смягчить повышение ввели новые тарифы:
  • добавили дисковое пространство;
  • возвратили тариф с 512 МБ памяти;
  • новый тариф с 1 ГБ памяти и одним процессором;
  • новые тарифы Cloud-3a/3b/3c с одним размером диска, но разной памятью и процессором — можно переходить между ними;
  • новый старший тариф Cloud-9 с 320 ГБ диска;
  • новая линейка тарифов «Выделенное облако». В дальнейшем сделаем возможность апгрейда на неё с линейки Стандарт.
Перейти на новые тарифы можно, сделав апгрейд тарифа. Благодаря тому, что диск на новых тарифах больше, в большинстве случаев можно сделать и даунгрейд на тариф ниже.

12.05.2020 Как сэкономить на снэпшотах
Если ваш Облачный сервер создан до 25 апреля 2020 года, то при создании снэпшота вы можете столкнуться с ситуацией, что снэпшот занимает больше места, чем занято на диске в текущий момент. Это связано с тем, что файловая система виртуального диска хранит данные об удалённых файлах.
Мы реализовали оптимизацию дисков виртуальных серверов — она производится дважды в день в 9:00 и 21:00. Подключите гостевого агента по инструкции, чтобы сэкономить на вновь создаваемых снэпшотах.

07.05.2020 Клонирование серверов
Делать снэпшот перед критичными изменениями — хорошая практика. Но тестировать обновление сразу на продакшн-сервере — не лучшая идея. Лучше клонируйте сервер и протестируйте изменения на копии. Теперь для этого есть отдельная кнопка в блоке управления сервером.

29.04.2020 Пополнение баланса без авторизации
Получив письмо о низком балансе, можно перейти по ссылке и оплатить, не проходя авторизацию.

29.04.2020 Новая форма заказа
Обновили форму заказа нового сервера — как она вам? Напишите продакт-менеджеру через форму справа.

24.04.2020 Ubuntu 20.04 LTS
Новая стабильная версия Ubuntu доступна для заказа.

23.03.2020 ISO-образы
Используйте их для переноса сервера от другого провайдера, восстановления сервера или для установки ОС, недоступных у нас. Пока эта функция экспериментальная и собственные образы подключаются через клиентскую службу: укажите URL с ISO-образом, и мы подключим его к виртуальному серверу. Из-за лицензионных ограничений нельзя подключить образ с Windows.

19.03.2020 Обновление шаблонов приложений
Перевели шаблоны на Ubuntu 18.04 и исправили ошибки — ISPmanager 5 и Vesta, LAMP и LEMP, Django, Node.js.

26.12.2019 Перенос VPS от других провайдеров с помощью образа диска
Переходите на облачные серверы REG.RU от других провайдеров без перенастройки системы с нуля — предоставьте нам образ диска VPS, и мы перенесём ваш контейнер на нашу инфраструктуру.
Требования к образу диска VPS:
  • формат qcow2, raw или ova;
  • одна из поддерживаемых нами операционных систем — Ubuntu 16.04 / 18.04 / 19.04, Debian 9 / 10 или CentOS 7 / 8.
Для переноса обратитесь в поддержку и предоставьте ссылку на образ диска и root-пароль.

23.12.2019 ISPmanager для CentOS 7 и Debian 9
Добавили панель управления ISPmanager для операционных систем CentOS 7 и Debian 9. Ранее она была доступна только для Ubuntu. Лицензия ISPmanager стоит 37 копеек в час.

15.11.2019 Улучшения снэпшотов
Во-первых, начали рассчитывать и показывать сколько будет стоить хранение снэпшота сразу при его создании. Во-вторых, сохраняем снэпшоты сразу на отдельный бэкап-сервер и производительность дисковой системы сервера не снижается в процессе создания снэпшота.

18.10.2019 Обновление операционных систем
Добавили Ubuntu 19.10, CentOS 8 и Debian 10.
Ещё одно нововведение — ежедневные сборки. Они доступны только через API, обновляются каждую ночь, тестируются автоматически и содержат самое свежее ПО. В формате ежедневных сборок мы будем поставлять экспериментальные шаблоны, которых не будет в панели управления.

10.10.2019 Автоперевод
В разделе «Финансы» теперь можно настроить автоперевод средств с баланса аккаунта. А чтобы деньги не заканчивались на балансе, подключите автопополнение с банковской карты. Ссылка будет в форме подключения автоперевода.

23.08.2019 Новый тариф с выделенным процессором
Добавили новую линейку тарифов — в отличии от тарифов линейки «Стандарт» вычислительная мощность ядра процессора гарантированно доступна виртуальному серверу.
«Выделенное облако» — для проектов со стабильно высокой нагрузкой на процессор. Например, для continuous integration/delivery, кодирования видео, машинного обучения и пакетной обработки.

Аукцион выделенных серверов от FirstDEDIC



Если вы откладывали приобретение выделенного сервера в долгий ящик и ждали подходящего момента, то он настал.

На нашем проекте FirstDEDIC стартовал аукцион с понижением цен — это отличная возможность сэкономить на аренде выделенного сервера.

На аукционе представлены решения как из числа готовых конфигураций, так и серверы, собранные по запросам наших клиентов. Все они полностью исправны и готовы к работе, а их установка и активация займёт не больше часа.

Снижение цен происходит каждые 24 часа. Всё, что вам необходимо сделать — это выбрать подходящий сервер и следить за снижением его стоимости, чтобы не пропустить подходящий момент для покупки. Тем более, что цена, по которой вы сделаете заказ, не изменится на протяжении всего срока аренды.

1dedic.ru/auction-2020

Ежегодное увеличение платы за наши услуги



В Leaseweb мы всегда ищем новые способы расширить возможности вас и вашего бизнеса. Прошлый год не стал исключением. Мы добавили процессоры AMD, панели управления, API-интерфейсы и поддержку загрузки UEFI, чтобы улучшить автоматизацию серверов. Мы реструктурировали и переработали клиентский портал Leaseweb, чтобы обеспечить удобство работы с клиентами, а также добавили возможности для обновления вашего жесткого диска и оперативной памяти или заказа SSL-сертификатов непосредственно с клиентского портала. Мы добавили дополнительные меры безопасности с помощью DDoS IP Protection Advanced и DNSSEC одним щелчком мыши. Выпуск Leaseweb Monitoring позволяет вам активно отслеживать состояние вашего сервера. Мы запустили Cloud Connect, ваше новое безопасное и частное соединение с общедоступным облаком, а также Elastic Compute, ваше частное облачное решение с расширением облака для максимальной масштабируемости. В наше портфолио были добавлены плавающие IP-адреса Metro, которые позволяют легко маршрутизировать трафик между двумя центрами обработки данных в городской зоне. Наши специалисты доступны круглосуточно и без выходных, чтобы вы всегда получали постоянную поддержку.

Чтобы продолжать предоставлять вам услуги того же качества, раз в год мы корректируем наши сборы за услуги, чтобы отразить изменения рынка. Мы удерживаем это повышение до 3% в соответствии с нашими Условиями продаж. Вы можете найти ихздесь.

Пересмотренные сборы применяются только с 1 января 2021 г. к контрактам на продажу, начавшимся 1 января 2020 г. или ранее. Пересмотренные сборы будут включены в ваш первый счет за 2021 г., и их можно предварительно просмотреть на портале клиентов Leaseweb.

Мы ценим, что вы выбрали нас в качестве поставщика облачного хостинга, и с нетерпением ждем продолжения поиска новых способов помочь вам в достижении бизнес-целей в ближайшие годы. Если у вас есть какие-либо вопросы, вы можете в любое время связаться с нашим отделом обслуживания клиентов.

С уважением,
Бенджамин Шёнфельд
Управляющий директор
Leaseweb Asia Pacific Pte. ООО

Linxdatacenter вошел в топ-30 поставщиков ИТ для операторов связи по версии CNews



Компания Linxdatacenter, международный эксперт в сфере высокотехнологичных решений по хранению данных, облачных сервисов и телекоммуникаций, вошла в рейтинг CNews Analytics «Крупнейшие поставщики ИТ для операторов связи 2019», подготовленного в рамках обзора «Телеком 2020» издания CNews.

Общая динамика роста российского телеком-рынка в 2019 году составила 4%, что позволило достичь объема примерно в 1,8 трлн рублей. 36,8% этой суммы приходится на документальную электросвязь, под которой понимается, в том числе, доступ в Интернет, 22% — на мобильную связь, 14,7% — на услуги присоединения и пропуска трафика и 9,7% — на почтовую связь.

Совокупная выручка участников рейтинга крупнейших поставщиков ИТ для операторов связи по итогам 2019 года составила 166 млрд рублей. По сравнению с 2018 годом показатель вырос на 59,5%. При этом порог входа в рейтинг вырос до 272 млн рублей.

Linxdatacenter вошел в топ-30 ведущих поставщиков ИТ для телеком-операторов с общим объемом выручки от работы с операторами связи в 350 млн рублей, что составляет 26,8% от ее общего размера. По сравнению с 2018 годом рост составил 2,4%.

«Связность ИТ-систем и ресурсов провайдеров различных решений и сервисов, объединенных в экосистемы и маркетплейсы, становится сегодня важнейшим фактором развития бизнеса.

Для дата-центра взаимодействие с операторами связи в этом свете обретает особую важность. ЦОД становится не только площадкой для обеспечения связности и обмена трафиком, но также составным элементом в цепочке создания дополнительной бизнес-ценности для своих партнеров и, в итоге, улучшения качества сервисов для конечных потребителей.

Мы постоянно расширяем свои компетенции в этом направлении как через развитие внутренних сетевых ресурсов, так и за счет обеспечения связности с передовыми глобальными ИТ-провайдерами. Дата-центр выполняет для клиентов роль единого хаба, покрывающего любые актуальные на текущий момент потребности в доступе к облакам, каналам связи и инструментам маршрутизации трафика», — комментирует генеральный директор Linxdatacenter в России Ольга Соколова.

Отметим, что ранее в 2020 году компания также вошла в рейтинг CNews Analytics, «Крупнейшие поставщики услуг ЦОД 2020» в рамках обзора «Центры обработки данных 2020», впервые стала участником рейтинга «Крупнейшие поставщики ИТ для промышленных предприятий 2019» в рамках обзора «ИТ в промышленности 2020», а также была включена в первый в России рейтинг SLA облачных провайдеров, составленный ИТ-маркетплейсом Market.CNews.

ru.linxdatacenter.com

Институт Гладстона создает огненный шар Backblaze, издание XXXL

Здесь, в Backblaze, мы, как известно, поступаем немного иначе. Мы часто выбираем другой путь — от модулей хранения и хранилищ Backblaze до данных о сельском хозяйстве и жестких дисках. Поэтому неудивительно, что мы любим рассказы о людях, которые нестандартно мыслят, когда сталкиваются с проблемой. Это особенно верно, когда эта история связана с созданием сервера хранения mongo, почтенной Toyota 4Runner и парой ИТ-инженеров, одержимых целью получить 1,2 петабайта данных своей организации за пределами офиса. Давайте познакомимся с Алексом Акостой и Эндрю Дэвисом из Gladstone Institutes.

Данные в бегах
Охранник на стойке регистрации понимающе кивнул, когда Алекс и Эндрю катили три больших чемодана «Черепахи» через вестибюль и выходили из парадной двери Гладстонского института. Хорошо известные и широко уважаемые, два ИТ-инженера составляли в то время две трети персонала ИТ-операций, и у них был 25-летний опыт работы в Гладстоне. Как ни странно, что ИТ-персонал покидает безопасный объект в нерабочее время с тремя крупными делами, все было на подъеме.

В середине февраля были сумерки. Алекс и Эндрю приготовились к холоду, когда они вышли на почти пустую автостоянку, неся драгоценный груз в этих трех ящиках. 4Runner Эндрю был близок к этому, он прибыл рано в тот день — важный день, день переезда. Они осторожно затащили тяжелые чемоданы в 4Runner. Большую часть веса составляли сами корпуса, остальной частью был сервер хранения 4U, а в двух других — 36 жестких дисков. Незначительная часть веса, если вообще была, была причиной того, что они делали все это — 200 терабайт данных исследований Института Гладстона.

Они закрепили чемоданы, захлопнули дверь багажника, сели в 4Runner и привели колеса в движение для следующей части своего плана. Они свернули на шоссе 101 и направились на юг. Движение было ужасным, даже автострада; ужин будет поздно, как и многие предыдущие ужины.


Назад к началу
Было много других поздних ночей с тех пор, как они начали этот проект шесть месяцев назад. Проект Fireball XXXL, как в итоге назвали его Алекс и Эндрю, был продиктован их миссией по защите данных биомедицинских исследований Гладстона от неминуемой катастрофы. В неизвестный день середины лета Алекс и Эндрю находились в серверной в Гладстоне в окружении более 900 лент, которые выдавали себя за систему резервного копирования.

Эндрю размышлял: «Это могла быть программа-вымогатель, здание загорелось, кто-то случайно удалил наборы данных из-за записи в командной строке, может произойти любое количество вещей, которые все это уничтожат». Алекс, махнув рукой по постоянно расширяющейся ленточной библиотеке, добавил: «Мы больше не можем полагаться на это. Ленты громоздкие, грязные и портятся, даже если вы все делаете правильно. Мы тратим так много времени на устранение неполадок, и в 2020 году нам больше не придется заниматься устранением неполадок». Они решили найти лучший способ получить свои данные за пределами офиса.

Проверка в реальных условиях
Алекс и Эндрю перечислили цели своего проекта: получить 1,2 петабайта данных, которые в настоящее время хранятся на месте и в их ленточной библиотеке, безопасно за пределами площадки, иметь возможность добавлять 10–20 терабайт новых данных каждый день и иметь возможность удалять файлы по мере необходимости. Тот факт, что практически каждый байт рассматриваемых данных представляет собой исследование биомедицинских заболеваний, включая данные, непосредственно применимые к борьбе с глобальной пандемией, означал, что они должны были выполнить все вышеперечисленное с минимальным временем простоя и максимальной надежностью. Да, и все это им пришлось делать, не увеличивая свой бюджет. Оптимисты.

Поскольку облачное хранилище является наиболее многообещающим вариантом, они сначала подумали о создании собственного частного облака в удаленном центре обработки данных в пустыне. Они быстро отказались от этой идеи, поскольку первоначальные затраты были ошеломляющими, не говоря уже о текущих затратах на персонал и техническое обслуживание для управления удаленными системами.

Они решили, что лучший вариант — использовать облачное хранилище, и сравнили ведущих поставщиков. Алекс был знаком с Backblaze, много лет следил за блогом, особенно с сообщениями о статистике дисков и модулях хранения. Более того, облачное хранилище Backblaze B2 было простым и доступным. Кое-что он не мог сказать о других ведущих поставщиках облачных хранилищ.

Следующей проблемой была пропускная способность. Вы могли подумать, что соединения со скоростью 5 Гбит / с будет достаточно, но у них была организация, которая требовала много исследований и данных, и использовала это соединение. Они затачивали свои карандаши для пропускной способности и, с учетом институционального использования, подсчитали, что могут легко поддерживать загрузку 10–20 терабайт в день. Проблема была в том, что загрузить существующие 1,2 петабайта данных было бы совсем другим делом. Они связались со своим поставщиком пропускной способности и им сказали, что они могут удвоить свою текущую пропускную способность до 10 Гбит / с по многолетнему соглашению почти в два раза дороже, и, кстати, пройдет от нескольких месяцев до года, прежде чем они смогут начать работу. Ой.

Они обратились к Backblaze, который предложил свой сервис передачи данных Backblaze Fireball, который мог загружать около 70 терабайт за поездку. «Даже с Fireball нам потребуется 15, может быть, 20 поездок туда и обратно», — сетовал Эндрю во время очередного ночного сеанса просмотра резервных копий. «Я бы хотел, чтобы у них была коробка побольше», — сказал Алекс, на что Эндрю ответил: «Может, мы сможем построить такую».

Родился план: построить сервер хранения mongo, загрузить на него данные и отнести в Backblaze.


Спросите
Прежде чем они появились в центре обработки данных Backblaze со своим творением, они решили, что сначала должны спросить Backblaze. Алекс отметил: «В большинстве компаний, если вы скажете:« Эй, я хочу построить массивный файловый сервер, доставить его в ваш центр обработки данных и подключить. Разве вы мне не доверяете? »Они ответят:« Нет, 'и повесили трубку, но Backblaze этого не сделал, они прислушались».

После долгих размышлений Backblaze согласился разрешить персоналу Gladstone войти в ближайший центр обработки данных, который был точкой пиринга для сети Backblaze. В восторге от того, что они нашли родственных душ, у Алекса и Эндрю появился партнер в проекте Fireball XXXL. Хотя это сотрудничество было уникальной возможностью для обеих сторон, для Эндрю и Алекса это также означало бы больше поздних ночей и буррито в микроволновке. Теперь это не имело значения, они чувствовали, что у них есть отличный шанс реализовать свой проект.

Сборка
Алекс и Эндрю выделили некоторый бюджет на, казалось бы, несвязанный проект: построить собственный сервер хранения, который будет служить системой горячего резервирования для текущих активных лабораторных проектов. Таким образом, если в лаборатории что-то пойдет не так, они смогут при необходимости получить последнюю сохраненную версию данных. Используя эти средства, они поняли, что могут построить что-то, что будет использоваться в качестве их огромного Fireball XXXL, а затем, когда циклы передачи данных будут завершены, они могут перепрофилировать систему в качестве резервного сервера, на который они заложили бюджет.

Вдохновленные Backblaze Storage Pod с открытым исходным кодом, они работали с Backblaze над спецификациями для своего Fireball XXXL. Они пошли по пути нестандартной сборки, начав с шасси 4U и больших дисков, а затем добавили несколько мощных компонентов.

Огненный шар XXXL
  • Шасси: 4U Supermicro с 36 отсеками, 3,5-дюймовое дисковое шасси, построенное iXsystems.
  • Процессор: Двухъядерный Intel Xeon Gold 5217.
  • Оперативная память: 4 x 32 ГБ (128 ГБ).
  • Диски данных: 36 14 ТБ HE14 от Western Digital.
  • ЗИЛ: 120 ГБ NVMe SSD.
  • L2ARC: 512 ГБ SSD.
По сути, они построили систему RAID 1 + 0 на 200 терабайт с 36 отсеками для репликации данных с помощью rclone. Эндрю отметил: «Rclone требует больших ресурсов как в отношении ОЗУ, так и циклов ЦП. Когда мы определяли систему, нам нужно было убедиться, что у нас достаточно мощностей, чтобы rclone мог передавать данные со скоростью 10 Гбит / с. Это не просто чтение с дисководов; для этого нужна обработка".

Загрузка
Gladstone запускает TrueNAS в своих локальных производственных системах, поэтому имело смысл использовать его на недавно построенном сервере передачи данных. «Мы смогли отправить ZFS с наших внутренних серверов на то, что выглядело как гигантский внешний жесткий диск из-за отсутствия лучшего описания», — сказал Эндрю. «Это позволило нам выполнять репликацию на уровне блоков в сжатом виде, поэтому было намного выше производительность при копировании данных в эту систему».

Эндрю и Алекс ранее решили, что они начнут с четырех наборов данных размером более 40 терабайт каждый. Каждый набор данных представляет собой годы исследований в соответствующих лабораториях, помещая их в верхнюю часть очереди резервного копирования за пределами предприятия. В течение 10 дней они загрузили данные в Fireball XXXL. По завершении они выключили систему и удалили диски. Открыв чехлы Turtle с пенопластом, которые они приобрели ранее, они осторожно поместили шасси в один корпус, а 36 дисков — в два других. Они закрыли одеяла и направились в вестибюль Гладстона.

В дата-центре
В конце концов Алекс и Эндрю прибыли в центр обработки данных, где они нашли необходимую точку пиринга сети Backblaze. При входе последовали проверки, и хотя Backblaze поручился за ребят из Гладстона, процесс входа был трудным. Как и должно быть. Оказавшись в назначенной комнате, они подключили несколько кабелей, ввели несколько команд терминала, и данные начали загружаться в их учетную запись Backblaze B2. Fireball XXXL работал, как и ожидалось, с устойчивой скоростью передачи от 8 до 10 Гбит / с. На загрузку всех данных ушло чуть больше трех дней.

Через несколько недель они совершат еще одну поездку и запланировали еще два. С каждой поездкой все больше данных Gladstone надежно хранится за пределами площадки.

Институты Гладстона с более чем 40-летней историей и более 450 сотрудников являются мировым лидером в области биомедицинских исследований сердечно-сосудистых и неврологических заболеваний, геномной иммунологии и вирусологии, причем некоторые лаборатории недавно переключили свое внимание на SARS-CoV- 2, вирус, вызывающий COVID-19. Исследователи из Gladstone полагаются на свою ИТ-команду, чтобы защитить и защитить свои жизненно важные исследования.


Эпилог
Прежде чем вы загрузите свой 200-терабайтный медиа-сервер в заднюю часть внедорожника или пикапа и направитесь в центр обработки данных Backblaze — остановитесь. Хотя мы восхищаемся находчивостью Эндрю и Алекса, с нашей стороны процесс был трудным. Процедуры безопасности, связанные с ними документы и время, необходимое для того, чтобы наши герои Гладстона получили доступ к центру обработки данных и нашей сети с их Fireball XXXL, были «существенными». Тем не менее, мы рады, что сделали это. В ходе этого процесса мы многому научились, и, возможно, когда-нибудь мы предложим наш собственный Fireball XXXL. Если да, то мы знаем, где найти пару парней, которые умеют спроектировать одну систему ударов. Спасибо за поездку, господа.

новое предложение Hosted Private Cloud

OVHcloud предложит новое предложение Hosted Private Cloud, объединяющее технологии Google Anthos, совместим с технологиями opensource из собственной выделенной гипермасштабируемой инфраструктуры, которая будет полностью эксплуатироваться и управляться в Европе командами OVHcloud.


— Это стратегическое партнерство поможет европейским организациям ускорить преобразование в облако и удовлетворить свои строгие потребности с точки зрения безопасности и конфиденциальности данных. — Он будет сосредоточен на предоставлении лучших технологических инноваций в облаке, с гибкостью для решения задач масштаба и скорости.

OVHcloud объявляет о заключении стратегического партнерства с Google Cloud, чтобы повысить способность французских и европейских организаций вести цифровую трансформацию своей деятельности. Это партнерство направлено на предоставление европейским организациям передовых технологий, основанных на надежной инфраструктуре, для удовлетворения их растущих потребностей с точки зрения строгого контроля своих данных, безопасности, прозрачности и конфиденциальности при непосредственном развертывании приложений. создано в облаке. OVHcloud предложит новое предложение Hosted Private Cloud, объединяющее технологию Anthos от Google Cloud, совместимую с технологиями с открытым исходным кодом, и собственную выделенную гипермасштабируемую инфраструктуру, которая будет полностью использоваться и управляться в Европе командами OVHcloud.

Предоставляйте европейские данные с последними инновациями и полным контролем
В последние годы организации и политики подчеркивают необходимость для поставщиков облачных услуг защищать данные своих клиентов более прозрачным образом, подчеркивая необходимость повышения уровней безопасности, конфиденциальность, автономность и живучесть последних. Чтобы удовлетворить эти потребности, OVHcloud и Google Cloud установили партнерство, в основе которого лежат открытый исходный код, прозрачность, функциональная совместимость и обратимость. Обе компании преследуют цель предоставить европейским организациям средства для ускорения их цифровой трансформации и уверенного использования последних достижений в облачных технологиях.

Открытый исходный код: важная опора для расширения европейской экосистемы
В рамках этого партнерства OVHcloud и Google Cloud продемонстрируют свои передовые технологии и навыки. Обе компании планируют разработать совместные решения, которые позволят их клиентам в полной мере воспользоваться преимуществами открытого многооблачного подхода с привлечением большой экосистемы разработчиков.

Это соглашение свидетельствует о твердом намерении предоставлять инновационные решения для обслуживания клиентов, одновременно поддерживая развитие их цифровых навыков и способствуя сотрудничеству с сообществом разработчиков открытого исходного кода.

Мы гордимся тем, что сотрудничаем с Google Cloud, чтобы совместно предоставлять инновационные решения, которые будут отвечать растущим требованиям Европы в отношении независимости данных. Это важный шаг к созданию нового ценностного предложения на европейском рынке. Для OVHcloud очень важно объединить передовые технологии для сообщества разработчиков и одновременно укрепить экосистему участников, объединенных единым ядром ценностей. Это партнерство открывает широкие возможности, поэтому мы рады сделать это возможным вместе
Мишель Полен, управляющий директор OVHcloud

Мы рады подписать наше первое такое партнерство с OVHcloud. Прислушиваясь к мнению наших клиентов, партнеров и политиков в Европе, мы понимаем их потребность в большем контроле и автономии. Мы реагируем на них по-разному и с нетерпением ждем продолжения выполнения наших обязательств перед нашими клиентами значимым образом с партнером, ценности которого мы разделяем: доверие, инновации, сотрудничество, открытость, безопасность, совместимость, прозрачность и экологическая ответственность, чтобы объединить больше пользы и помочь нашим клиентам ускорить цифровую трансформации
Томас Куриан, генеральный директор Google Cloud