Пример из практики: Worldstream продолжает свой рост, сотрудничая с Eaton без компромиссов



Выбирая партнера для нашего поставщика источников бесперебойного питания, мы сделали осознанный выбор, не ограничиваясь ценой. Мы были заинтересованы в партнере, который мог бы предложить не только качество, но и масштабируемость и надежность с устойчивым характером. Эти предпочтения привели нас к Eaton
Робин Лим, директор по продажам Worldstream

Пример из практики: Worldstream продолжает свой рост, сотрудничая с Eaton без компромиссов
Расположение: Налдвейк, Южная Голландия
  • Задача: центр обработки данных
  • Решение: установка 4x Eaton 93 PM мощностью 500 кВА с технологией HotSync с использованием Energy Saver System.
  • Результат: сверхнизкое энергопотребление, высокая надежность и простота масштабирования. Адаптирован под рост клиентов.

Worldstream, основанный в 2006 году, является быстрорастущим провайдером хостинга «Инфраструктура как услуга» (IaaS), расположенный в Налдвейке, в голландской провинции Южная Голландия. Пропускная способность их сетевой магистрали (> 10 Тбит / с) предлагает клиентам как избыточную, так и масштабируемую доступность их ИТ-инфраструктур. Worldstream защищает своих клиентов с помощью DDoS Shield собственной разработки. На момент написания Worldstream имеет более 15 000 активных выделенных серверов, которые расположены в принадлежащих компании центрах обработки данных в Налдвейке, где размещены ИТ-инфраструктуры клиентов по всему миру. Центры обработки данных, не зависящие от оператора связи, предлагаются и продаются через дочернюю компанию Greenhouse Datacenters. Их второй и новейший центр обработки данных является энергоэффективным и имеет значение эффективности использования энергии (PUE) 1,15, что является низким по сравнению со стандартом.

В июне 2019 года Worldstream объявила о втором этапе разработки этого «устойчивого» центра обработки данных. В то же время планируется построить третий центр обработки данных на площадке рядом с одним из их нынешних зданий. Их общая серверная мощность вырастет до 90 000 в течение нескольких лет. В ожидании ожидаемого международного роста организация была полностью сертифицирована. (ISO 9001: 2015, ISO / IEC 27001: 2013, ISO 14001: 2015 и PCI-DSS).

Когда Worldstream начала работать над своим первым коммерческим центром обработки данных в 2013 году, это также ознаменовало начало их поиска надежного поставщика, который мог бы предложить подходящее резервное распределение электроэнергии. На тот момент работало около восьми тысяч серверов, и им требовалась надежная сеть. «Мы требуем высокого качества от наших поставщиков, которое мы переводим на услуги хостинга IaaS, которые мы предоставляем нашим клиентам», — объясняет Робин Лим, директор по продажам Worldstream. «Среди наших клиентов — международные облачные провайдеры, вещательные компании и региональные поставщики медицинских услуг. Эти организации ценят преемственность превыше всего».

Для обеспечения непрерывности обслуживания клиентов Worldstream по всему миру надежное резервное распределение электроэнергии является нашим наивысшим приоритетом. Помимо надежности, система должна быть масштабируемой, поскольку Worldstream стремительно растет на международном уровне. Наконец, Worldstream также требовалось энергоэффективное решение, соответствующее их видению устойчивого развития. «Деятельность нашего центра обработки данных характеризуется высокой степенью избыточности за счет использования конфигурации N + 1 с экологичными возможностями», — добавляет Йерун Мейер, менеджер сайта центра обработки данных Greenhouse Datacenters. «Чтобы подчеркнуть это, нам понадобится энергоэффективное решение для резервного питания». Модульная установка систем ИБП способствовала низкому и энергоэффективному показателю PUE с первого дня использования.

Решение
Инфраструктура новейшего центра обработки данных Worldstream была построена с резервированием в качестве отправной точки. Проще говоря, это означает, что существует как A-, так и B-канал. В нашем центре обработки данных не одна система резервного копирования для всего центра обработки данных, а две системы, связанные с их собственным пространством. Оба источника используются отдельно и поддерживаются собственной системой ИБП. Таким образом, когда один из двух каналов прерывается, другой берет его, и покупатель не замечает этот переключатель.

В Worldstream система распределения резервного питания не только устанавливается параллельно, но также имеет модульные ИБП модели 93PM. На практике это означает, что для каждого источника питания существует одна система резервного питания, состоящая из разных модулей, которые связаны между собой в том смысле, что если один модуль выходит из строя или находится в неактивном состоянии, другой модуль будет работать без прерывания. Кроме того, в ИБП используется запатентованная технология HotSync от Eaton. Обычно система ИБП обменивается данными через проводное соединение, если система работает правильно или нет. Однако с технологией HotSync ИБП обмениваются информацией не по кабелю, а на основе выходных сигналов других модулей ИБП, чтобы сделать вывод, оптимальна ли система. Если этот вывод отрицательный, вместо этого рабочая нагрузка будет использоваться другим модулем.

Лим: «Выбирая партнера для нашего поставщика источников бесперебойного питания, мы сделали осознанный выбор, не ограничиваясь ценой. Мы были заинтересованы в партнере, который мог бы предложить не только качество, но и масштабируемость и надежность с устойчивым характером. Эти предпочтения привели нас к Eaton».

Марсель Бранд, менеджер по работе с клиентами в Eaton: «Worldstream обратилась к нам в 2013 году. С этого года предлагаемые нами решения росли параллельно с центром обработки данных: в сентябре мы поставили новый комплект ИБП, который дает Worldstream возможность поставить больше серверов до конца этого года».

Даже на устойчивом уровне системы ИБП были способны работать. В резервных системах распределения электроэнергии Worldstream использовалась система Eatons Energy Saver System (ESS), которая сокращает потери энергии на 85% без ущерба для надежности. Система энергосбережения работает в фоновом режиме при использовании основного источника питания, эта система действует только тогда, когда это необходимо. Для внесения изменения требуется всего 2 миллисекунды.

Результат
В настоящее время в нашем центре обработки данных работают четыре ИБП 93PM мощностью 500 кВА, которые несут ответственность за обеспечение безопасности более 20 000 серверов. Распределительные системы, выключатели и аварийное освещение по всему зданию были поставлены Eaton. Поскольку все эти компоненты были предоставлены одной и той же компанией, это создает комплексную и надежную систему.

Обе системы ИБП как пространство, в котором находится резервное распределение электроэнергии, адаптированы к росту, который Worldstream ожидает в ближайшие годы с помощью тепличных центров обработки данных. Лим: «При строительстве новейшего центра обработки данных мы рассчитали, сколько ИБП нам нужно, с помощью Eaton мы смогли разместить систему ИБП в выделенном пространстве. Забегая вперед, мы уже смогли выделить место для дополнительной резервной мощности, когда она нам понадобится».

Марсель Бранд добавляет: «Eaton участвовала с самого начала этого проекта, что привело к их вовлечению по многим причинам. Это очевидно, если посмотреть на окончательные результаты. Возможны дополнительные ИБП, поскольку мы рассчитали это заранее».

Битва злодеев в Пятницу 13-е: Freddy VS Jason



Акции на Пятницу 13 стали для нас традицией. В этот раз играем по-крупному: злодеев стало вдвое больше! Вас ждёт настоящая битва Фредди и Джейсона, в которой вы тоже сможете принять участие. Вы же не из тех, кто испугается?

Самых смелых ждут эксклюзивные тарифы, мегарозыгрыш с призами и крутые скидки. Подписывайтесь на наш канал @TakeFirst, чтобы узнать подробности акции и ничего не пропустить.
t.me/TakeFirstNews

Встречаемся на нашем сайте в Пятницу 13, все детали сообщим на месте. Осталось определиться, на чьей вы стороне: Фредди или Джейсона.

https://firstvds.ru

Coopertino поможет сделать продающий сайт



Ни для кого не секрет, что продающий сайт сейчас очень важен, особенно в эпоху глобальной пандемии, когда большая часть продаж ушла в интернет.

Объединившись, наши специалисты и профессиональная команда медиа-агенства Mediafckrs.ru быстро создадут продающий сайт, лендинг или магазин (14 дней), на основе маркетингово анализа вашего продукта, подключат домен, настроят хостинг, интегрируют чат, телефонию и CRM-систему, запишут обучающие видео для ваших сотрудников и клиентов и обеспечат бесплатное сопровождение в течении месяца после сдачи проекта.

Вся разработка ведётся на платформе Tilda, что позволит вам просто поддерживать сайт, иметь полный спектр всевозможных интеграций и быстро адаптироваться под изменения вашего бизнеса и ситуаций в экономике.

Одно из ключевых преимуществ: Mediafckrs.ru не использует готовые шаблоны, поэтому у вас будет уникальный и индивидуальный продукт, полностью отвечающий вашим задачам и легко внедряемый в ваши бизнес-процессы.

Цены: от 25000 руб

Специально для клиентов Coopertino предоставляется скидка 20% на все продукты студии. Подробнее на: mediafckrs.ru/promo

Это разовое письмо. Если вам не нужна разработка сайта, возможно будет нужна знакомым. Для партнеров и оптовых клиентов возможны индивидуальные условия.

Серверные скидки



Виталий Никсенкин, добрый день. Рассказываем о специальных предложениях ноября. Вне зависимости хотите вы арендовать сервер или разместить его в дата-центре, мы не оставим вас без скидки.

Выделенные серверы от 3 000 ₽
Самые выгодные серверные предложения ноября. Серверы стартуют от 3 000 ₽. В эту стоимость уже входит все самое необходимое. Смотрите полный список конфигураций на нашем сайте. Помните, что любую конфигурацию можно улучшить по вашему желанию. Количество серверов по указанным ценам ограничено, поэтому переходите к списку прямо сейчас. Выделим понравившийся вам сервер за 2 часа.
В стоимость услуги уже включено:
  • Установка и первичная настройка сервера;
  • Порт 100 Мбит/сек + безлимитный трафик;
  • Адрес IPv4, предоставление IPMI на первые 3 дня;
  • Бесперебойное питание.
rackstore.ru/arenda-servera.html

Размещайтесь бесплатно в ноябре
Акция на бесплатный месяц размещения продлена. Если вы собираетесь разместить сервер в дата-центре Tier-3, то ноябрь — отличное время для экономии. Становитесь клиентом RackStore в ноябре и не платите за первый месяц услуги colocation. Совсем-совсем. Вы получите полноценную услугу и качественное обслуживания, за которое нас ценят клиенты.

В услугу уже включено:
  • Установка сервера в стойку;
  • Порт 100 Мбит/сек с безлимитным трафиком + 1 IP-адрес;
  • Консоль KVM over IP на первые 3 дня;
  • Бесперебойное питание.
rackstore.ru/news/colocation-besplatno.html

Новости 2020 года

В виду глобального перехода на удаленную работу и отмены массы конференцией просто делимся информацией как что работает. В 2020 году все RIPE MEETING перешли на удаленный формат zoom/meetecho.

В текущем году были проведены
RIPE 80 was a virtual meeting and took place from 12-14 May 2020
ripe80.ripe.net/programme/meeting-plan/

и

27-30 October 2020: RIPE 81 Meeting
ripe81.ripe.net/programme/meeting-plan/

А также ENOG17
www.enog.org/enog-17/ru/programme/plenary/

INTRID: наш первый высоконагруженный проект



Этой историей поделился наш клиент Дмитрий Волков, арт-директор веб-студии INTRID. Он рассказал о том, как из-за одного проекта студии пришлось изменить серверную инфраструктуру и что из этого вышло.

Мы — воронежская веб-студия INTRID. Работаем уже более 15 лет: разрабатываем сайты и интернет-порталы, помогаем раскручивать бизнес и выводить его на новый уровень. В нашем портфолио более 250 проектов, а ещё мы занимаем 3 место в топе веб-студий Воронежа.

Первый хостинг и портал для доставки печенья
В 2014 году наша команда выиграла тендер на разработку корпоративного портала для международной компании «Келлогг», крупного производителя сухих завтраков и печенья. Задача состояла в том, чтобы с помощью сайта оптимизировать внутренние процессы по организации грузоперевозок и тем самым сократить затраты.

Зачастую вопросами логистики занимается менеджер: он связывается с транспортными компаниями, согласует каждую доставку по цене и срокам, оформляет заявки. Если компания крупная, производит и поставляет продукцию ежедневно и в разные регионы, то одного менеджера недостаточно — работает целый отдел. А это существенная трата времени, денег и человеческих ресурсов.

Чтобы решить эту проблему, мы создали тендерный портал, который позволил автоматизировать взаимодействие с транспортными компаниями. Теперь они могут зарегистрироваться на сайте и самостоятельно оставлять заявки на подходящие им рейсы.


Для разработки сайта использовали PHP и MySQL. Так как своего физического сервера у нас не было, мы разместили портал на VDS одного из популярных российских хостингов. Выбирая его, ориентировались на информацию в интернете и отзывы.

Запустили проект в продакшн. Портал справлялся с поставленными задачами на «ура», клиенты были довольны. Но тут поджидала первая проблема… Время от времени случались сбои на стороне хостинг-провайдера — бывает со всеми. Однако техподдержка в такие моменты реагировала на запросы в течение суток, решение проблем затягивалось, сервер простаивал, а значит, и портал клиента был недоступен.

Следующий важный момент: провайдер не предлагал услуги по администрированию даже за отдельную плату. Любые зависания предлагали решать перезапуском сервера. Естественно, это не помогало, а нанимать специалиста в штат было нецелесообразно. Нам приходилось тратить собственное время и усилия на выполнение непрофильных работ, хотя хватало и своих задач.

Такие условия нас не устроили, и в 2016 году мы решили искать другого провайдера.

Требования к провайдеру и новые поиски
Если изначально наши требования к хостингу были достаточно размытыми, то теперь мы точно знали, что хотим получить. В приоритете были следующие моменты:
  • Производительный и быстрый сервер.
  • Круглосуточная поддержка, оперативная обработка обращений.
  • Услуги по администрированию (хотя бы за доплату).
  • Технические работы в нерабочее время или без необходимости отключения оборудования.

Снова шерстили просторы интернета, сравнивали провайдеров, читали отзывы… На этот раз уже более осознанно. По рекомендации решили взять на тест виртуальный сервер FirstVDS в минимальной конфигурации, чтобы сначала ближе познакомиться с провайдером и убедиться в качестве услуг. Новый провайдер подошёл под наши запросы, поэтому спустя три месяца мы заказали тариф «Отрыв» с виртуализацией KVM — на тот момент, в 2016 году, в него входило 3 ядра CPU, 3 Гб оперативной памяти, SSD-диски. По производительности «Отрыв» был аналогичен нашему серверу у предыдущего хостера, но стоил практически в два раза дешевле. Плюс технические специалисты компании помогли (за отдельную плату) снять с нас заботы об администрировании. Теперь мы смогли сконцентрироваться на своих разработках и перестали тратить на хостинг столько времени, сколько тратили раньше.

Большой проект и новая инфраструктура
Опыт «Келлогг» быстро стал известен в отрасли, и спустя некоторое время с нами связался отдел логистики «Молвест», одной из крупнейших в России молочных компаний. Они тоже нуждались в тендерном портале для организации грузоперевозок, но более детальном и сложном, адаптированном под их задачи. Основная идея была та же — создать аукцион на понижение цены.

Во время разработки портала мы использовали технологию AJAX-запросов. Она обеспечивает постоянное соединение с сервером и предполагает, что клиенты получают информацию о текущем состоянии торгов в режиме реального времени. Каждая ставка учитывается моментально и отображается у всех пользователей.

Кроме того, за внешним интерфейсом сайта были реализованы сложные алгоритмы защиты данных, а также много других полезных функций для настройки торгов и работы с транспортными компаниями.

Мы начали с небольшого количества ежедневных тендеров и нескольких десятков ТК, но проект стремительно рос.


При этом цена за каждый рейс стала минимальной из-за онлайн-аукциона. Таким образом, благодаря оптимизации логистики компания может экономить порядка 500 000 рублей в месяц.

Однако если для сервисов и сайтов, над которыми мы работали до этого момента, хватало мощности VDS, то такой крупный проект виртуальный сервер уже не тянул. Этот заказ стал переломным моментом — мы поняли, что уперлись в потолок. Используемый тариф VDS был самым мощным на тот момент, поэтому нам оставалось только перейти на дедик (выделенный сервер). Дедик стоил в разы дороже, но это был не только способ обеспечить клиенту стабильную работу портала, но и наша инвестиция в будущие проекты.

Так как мы уже несколько лет пользовались услугами FirstVDS, то выделенный сервер заказали у партнерской компании FirstDEDIC — выбрали четырехъядерный Intel Xeon E3-1230 с 16 Гб RAM. Перенесли туда проекты клиентов, а корпоративные сервисы — GitLab и Jenkins — оставили на виртуальном.

Казалось бы, проблема решена, но всё оказалось не так просто. Сервер был в разы мощнее VDS, но даже его не хватало для работы высоконагруженного портала.

Одна из сложностей была связана с тем, что одновременно на портале стартовало несколько десятков торгов. Транспортные компании, желая охватить как можно больше доставок, одновременно открывали десять, а то и пятьдесят страниц аукционов, и делали несколько десятков ставок. Таким образом с одного IP-адреса на сервер в один момент поступало огромное количество запросов, к которому мы были не готовы.


В результате, портал зависал, не прогружались и тормозили страницы, плохо отрабатывались ставки. Разумеется, это сказалось на успешности торгов.

Сначала мы пытались справиться с этим программно: переработали функционал портала и перешли на веб-сокеты, тем самым оптимизировав нагрузку на сервер. Но количество аукционов и пользователей росло в геометрической прогрессии. Когда участников стало уже около 500, перегрузка снова стала проявлять себя. Было необходимо искать более оптимальное решение.


Мощный сервер для мощного проекта
Как показал опыт, очень важно выбрать не только подходящего провайдера, но и подходящую конфигурацию сервера, которая отвечает конкретным задачам. Без четкого понимания типа и масштаба работ вероятность промахнуться достаточно высокая. Если у вас нет технического бэкграунда и вы не разбираетесь в железе, есть смысл обратиться к квалифицированным специалистам.

После того, как мы написали в техподдержку FirstDEDIC с жалобой на зависания, нам посоветовали проанализировать нагрузку и рассчитать количество ресурсов, необходимое для наших задач. Оказалось, что нашим порталам требовалось больше оперативной памяти и больше ядер для многопоточной обработки запросов. В тот момент в продаже как раз появилась новинка — серверы с восьмиядерным Intel Core i9-9900K. По результатам тестов, он значительно превосходил наш Xeon в режиме многопоточности. И хотя i9-9900K позиционировался как игровой и десктопный процессор, с нашими задачами он должен был справиться лучше всего.

После переноса на новый сервер портал стал работать быстро и без сбоев. При этом количество пользователей и активных соединений за последний год выросло почти в 2 раза и всё ещё продолжает расти. Сейчас участников торгов уже около 1000, и сервер работает стабильно.


Покупка нового сервера изначально не входила в наши планы, и если бы не заказ «Молвест», мы бы продолжили использовать VDS. Это был наш первый проект такого рода. Однако теперь на сервере размещены ещё два высоконагруженных портала и ряд более простых сайтов. Сейчас наша инфраструктура выдерживает серьёзные нагрузки, и мы готовы к другим масштабным заказам — легко и быстро можем добавить ресурсы или подключить в локальной сети второй сервер. Пришлось пережить ряд сложностей, но теперь у нас есть опыт масштабирования и уверенность в том, что мы сможем адаптироваться к растущим запросам клиентов и развиваться вместе с ними.

https://firstvds.ru

Треть Android-устройств не сможет распознавать сертификаты Let's Encrypt

Удостоверяющий центр Let's Encrypt анонсировал переход на использование собственных корневых сертификатов. Ранее компания предоставляла перекрёстно подписанные сертификаты по соглашению с IdenTrust, которое истекает 1 сентября 2021 года.

Корневые сертификаты Let's Encrypt будут распознаваться во всех браузерах, кроме устаревших версий Android.

Версии до 7.1.1, используемые на 33,8% Android-устройств, при входе на сайт, защищённый Let's Encrypt, будут получать сообщение об ошибке. Чтобы решить проблему, пользователям устаревших Android-устройств предлагают использовать браузер Mozilla Firefox, однако он доступен только с версии Android 5.0. Решения для более старых версий нет.

С 11 января 2021 года сертификаты по умолчанию будут заверяться корневым сертификатом Let's Encrypt. По запросу можно будет получить альтернативный сертификат с перекрёстной подписью, но с 1 сентября 2021 от него откажутся совсем.

Запускаем роутер Mikrotik CHR в облаке под управлением VMware vCloud Director 10



Нередко к нам обращаются с вопросом: «Можно ли установить в вашем облаке Router OS (MikroTik)» — первое, что возникает у нас в голове при виде этого вопроса: «Зачем?» — однако существует ряд логичных и весомых причин для использования программно-определяемых маршрутизаторов, отличных от предоставляемых облачным провайдером (VMware NSX Edge). Давайте подумаем, какие же это могут быть причины.
  • Однотипный знакомый интерфейс на всех сетевых устройствах – довольно удобно иметь одинаковый интерфейс на всех маршрутизаторах, используемых в работе, особенно когда компания использует гибридное облако, разделяя ресурсы между разными облачными провайдерами. Не придется тратить время на изучение и понимание принципов и тонкостей работы с разномастными программно-определяемыми роутерами – можно быстро и четко выполнить необходимую задачу, сводя влияние человеческого фактора к минимуму.
  • Исключение проблем кроссплатформенности – ни для кого не секрет, что такие проблемы есть и могут быть в будущем. Легче привести сетевую инфраструктуру к унифицированному виду, чем тратить время на поиск багов во взаимодействии маршрутизаторов разных производителей, что может быть нигде не задокументировано.
  • Ограничение доступа провайдера публичного облака до настроек маршрутизатора – нечасто мы задумываемся, что провайдер публичного облака – это буквально большой брат, который имеет доступ ко всем настройкам внутри своей инфраструктуры, включая возможность увидеть pre shared key(PSK) IPsec VPN туннеля, который, казалось бы, должен быть виден только для пользователя. Это порождает новые безопасностные риски, которых можно избежать, скрыв от провайдера сетевые настройки.
  • Быстрый перенос инфраструктуры от одного провайдера публичного облака к другому – к сожалению, стабильность в наше время — понятие абстрактное, поэтому легче всего иметь полностью готовую к работе виртуальную инфраструктуру. Это позволит свести к минимуму возможность возникновения проблем функционирования рабочих виртуальных машин в новой среде.
  • Исключение дополнительных затрат на активацию сетевых функций провайдера – зачем платить больше, если можно использовать собственные программные решения? Зачастую стоимость ресурсов, используемых для функционирования Router OS намного меньше, чем приобретение различных сетевых опций (VPN, проброс портов) у некоторых провайдеров публичных облаков, например Облакотека.

Итак, как лучше всего приступить к работе по развертыванию Router OS в инфраструктуре VMware, используя vCloud Director 10? Легче всего это сделать, обратившись в службу поддержки облачного провайдера – это избавит пользователя от возможности возникновения проблем на стадии развертывания решения.

Установка Mikrotik Cloud Hosted Router (Mikrotik CHR)
Первое, с чего стоит начать, скачав образ Cloud Hosted Router с официального сайта (образ в .ova формате), так это с проверки хэш-суммы файла. Проверить хэш-сумму можно стандартными средствами ОС Windows: консольная команда:

certutil -hashfile«путь к файлу» MD5

Убедившись, что хэш-суммы совпадают, можно продолжать работу по развертыванию программного решения.

Для загрузки собственного образа в облако необходимо создать личный каталог: в верхней панели выбрать

Libraries -> Content Libraries -> Catalogs -> New



Вводим имя нового каталога, можно, при необходимости, указать необходимую политику хранения для данного каталога.



После создания нового каталога пользователя мы уже можем загрузить наш .ova образ в шаблоны виртуальных машин:

Libraries -> Content Libraries -> vApp Templates -> New


Нажимаем кнопку Browse и выбираем нашу виртуальную машину в формате .ova


Проверяем верность информации об образе и импортируем образ в созданный нами ранее каталог.



После нажатия на кнопку Finish, мы увидим, что началась загрузка образа. Как только статус шаблона перейдет в Normal,
мы сможем разворачивать этот шаблон в новый vApp.


В панели Libraries -> Content Libraries -> vApp Templates выбираем загруженный нами шаблон и нажимаем на Create vApp


Выбираем соответствующее нашим запросам имя нового vApp


Выбираем политику хранения для развертывания шаблона и в разделе Configure Networking необходимо проверить,
что сетевой адаптер выбран типа VMXNET3 (для этого необходимо выбрать галочку Switch to the advanced networking workflow)

После этого осталось только выбрать выделяемые виртуальной машине ресурсы и нажать на Finish

В результате успешного развертывания шаблона у нас появится новый vApp с новой виртуальной машиной с Router OS в статусе Powered Off

Для подключение виртуальной машины к сети организации необходимо добавить эту сеть в vApp:

Compute -> vApps -> Details -> Networks -> New
и выбираем нашу сеть в поле OrgVDC Network


В настройках виртуальной машины изменяем сеть, подключенную к сетевому адаптеру:
Compute -> Virtual Machines -> Details -> Hardware -> NICs -> Network

Для подключения к консоли виртуальной машины в среде управления vCloud Director нажмите на изображение монитора во вкладке
Compute -> Virtual Machines


Не забудьте сменить пароль администратора виртуальной машины перед подключением машины в сеть
(данные для входа по умолчанию: admin без пароля), для этого в консоли наберите следующую команду для
отображения всех пользователей.
/user print
После этого можно изменить пароль соответствующего пользователя
/user set 0 password=«пароль»


Далее нам необходимо настроить внешний интерфейс маршрутизатора и дефолтный маршрут, для возможности использования решения.
Чтобы отобразить все сетевые интерфейсы, доступные ОС, введите команду:

/interface ethernet print
После этого добавьте на данный интерфейс сетевой адрес и максу подсети командой:

/ip address add interface=”имя интерфейса” address=”ip адрес в свойствах виртуальной машины на этом интерфейсе”
netmask=”маска подсети организации”
Проверьте правильность ввода данных выводом команды:

/ip address print
Для корректной работы маршрутизатора необходимо добавить маршрут по умолчанию:

/ip route add gateway=”ip адрес шлюза подсети” dst-address=0.0.0.0/0 distance=1
/ip route print
После смены пароля администратора ОС и настройки маршрута по умолчанию, мы можем включать правила Firewall и NAT
для беспрепятственного проброса портов до MikroTik:

Networking -> Edges -> Services -> Firewall и NAT


После выполнения всех действий по внешнему Ip адресу должен быть доступен интерфейс настройки MikroTik для дальнейшего
администрирования.


Не забудьте, что без должного лицензирования скорость передачи данных через Cloud Hosted Router будет ограничена.
Можно рассуждать сколько угодно о плюсах и минусах того или иного программного решения для маршрутизации траффика,
однако все зависит от поставленных задач и сроков реализации. Никогда не стоит пренебрегать знаниями,
которые могут пригодиться в самой неожиданной ситуации.

Представляем капли, оптимизированные для хранения, с твердотельными накопителями NVMe и новую более низкую цену на капли, оптимизированные для памяти



Вы можете делать все, что захотите, с нашими виртуальными машинами Droplet.
Но мы слышали некоторые отзывы: некоторые из вас хотели бы использовать виртуальные машины с более быстрыми дисками большего размера, и эта цена всегда учитывается. Вот почему мы представляем капли, оптимизированные для хранения, с твердотельным накопителем NVMe и снижаем цены на капли, оптимизированные для памяти.

Оптимизированные для хранилища капли для сверхбольших баз данных, кешей и рабочих нагрузок аналитики
В наши дни мы все проводим так много времени в Интернете, постоянно генерируя данные. Для сбора этих данных некоторым из вас потребуется запускать большие высокопроизводительные базы данных NoSQL (например, MongoDB, Elasticsearch и TimeScaleDB), программное обеспечение для мониторинга и аналитики (например, Prometheus и Grafana) и другие типы хранилищ данных.

Капли, оптимизированные для хранения, — это виртуальные машины, которые отлично подходят для этих сценариев.

NVMe, что означает энергонезависимую память, представляет собой протокол интерфейса, специально созданный для современных твердотельных накопителей. Он использует преимущества параллелизма для обеспечения производительности диска, которая может быть на порядок выше, чем у наших обычных твердотельных накопителей. Поскольку хранилище напрямую подключено к гипервизору (а не через сеть), эти капли идеально подходят для рабочих нагрузок, требующих большого количества транзакций с низкой задержкой.

Конфигурация 1X SSD для оптимизированных для хранения капель включает хранилище объемом 150 ГБ для каждого выделенного виртуального ЦП. Вариант 1.5X SSD дает вам 225 ГБ на виртуальный ЦП.

Наша самая большая капля, оптимизированная для хранения, может похвастаться емкостью хранения 7 терабайт, а также 32 виртуальными ЦП, 256 ГБ ОЗУ и 10 ТБ передачи.

Это оптимизированные для хранения капли, из которых вы можете выбрать:


Оптимизированные для памяти капли: те же характеристики, более низкая цена
Чуть более года назад мы представили капли, оптимизированные для памяти. Мы рекомендуем эти виртуальные машины для таких случаев использования, как кэширование в памяти и обработка больших данных в реальном времени. Благодаря 8 ГБ ОЗУ для каждого выделенного виртуального ЦП (наряду с обычным SSD) оптимизированные для памяти капли дают вам много оперативной памяти для запуска таких приложений, интенсивно использующих память.

Сегодня мы снижаем цены на капли, оптимизированные для памяти, примерно на 11%.

Вы увидите новые цены в нашей панели управления.


Начни сегодня
Вы можете развернуть капли, оптимизированные для хранения и памяти, как и любую другую виртуальную машину DigitalOcean: через нашу удобную для разработчиков панель управления, интерфейс командной строки, API и расширения платформы, такие как наш поставщик Terraform. Мы приглашаем компании, заинтересованные в использовании наших капель, связаться с нами для разговора.
www.digitalocean.com/docs/apis-clis/doctl/
developers.digitalocean.com/documentation/v2/

Реестр контейнеров DigitalOcean теперь общедоступен



То, как мы создаем и используем программное обеспечение, продолжает развиваться. Последняя тенденция — часто называемая нативными облачными вычислениями — включает в себя набор технологий и подходов, которые облегчают разработку и работу приложений, предназначенных для работы в облаке. В этот сдвиг особенно популярны контейнеры и Kubernetes.

Лучшая практика для облачного DevOps — настроить конвейер CI/CD с системой сборки, отправляющей образы в реестр контейнеров. Среды выполнения, такие как наш собственный DigitalOcean Kubernetes, могут затем извлекать образы из реестра. Вы можете использовать любой реестр контейнеров вместе с DigitalOcean Kubernetes, но есть специальный, который мы рекомендуем для простоты использования и низкой стоимости.

Сегодня мы рады сообщить, что реестр контейнеров DigitalOcean теперь общедоступен.

Просто, конфиденциально и безопасно
Реестр контейнеров DigitalOcean упрощает безопасное хранение частных образов контейнеров и управление ими, особенно для использования с DigitalOcean Kubernetes.

Чтобы начать, перейдите на вкладку «Реестр контейнеров» на панели управления.



После создания реестра вы можете отправить в него образы контейнеров Docker. Изображения в вашем реестре зашифрованы в состоянии покоя и при передаче и доступны только другим членам вашей команды DigitalOcean.


Чтобы упростить развертывание ваших образов в DigitalOcean Kubernetes, мы предоставляем рабочий процесс для подключения вашего реестра к кластерам в вашей учетной записи. Просто перейдите на вкладку «Настройки» своего реестра на панели управления и выберите кластеры, которые вы хотите использовать с реестром. Затем DigitalOcean сохранит токен аутентификации как imagePullSecret во всех пространствах имен для выбранных кластеров Kubernetes.


Вы можете бесплатно переносить образы контейнеров в свои кластеры DigitalOcean Kubernetes. Чтобы повысить производительность, DigitalOcean Container Registry кэширует метаданные изображений по всему миру.

Совместимость с артефактами Open Container Initiative (OCI)
Реестр контейнеров предназначен не только для контейнеров. Вы можете использовать Реестр контейнеров для хранения любого артефакта, совместимого со спецификацией OCI. Например, вы можете хранить свои диаграммы Helm в реестре контейнеров (обратите внимание, что поддержка Helm OCI все еще экспериментальная).


Низкая предсказуемая цена
Отчасти потому, что реестр контейнеров DigitalOcean построен на основе нашей службы хранения объектов Spaces, мы можем предложить ее по низким и предсказуемым ценам. Вы вполне можете обнаружить, что нашего бесплатного плана с одним репозиторием и 500 МБ хранилища достаточно для личных проектов. Если вам нужно больше репозиториев и хранилища, наши планы Basic и Professional предоставляют варианты, подходящие для более крупных проектов. В отличие от других реестров контейнеров, вы можете использовать DigitalOcean Container Registry с любым желаемым количеством участников без дополнительных затрат.


Urlbox запускает наш API снимков экрана в DigitalOcean Kubernetes, и мы используем реестр контейнеров DigitalOcean для хранения изображений для различных сервисов, составляющих наше приложение. Хранение изображений в реестре контейнеров DigitalOcean дает огромную экономию средств по сравнению с хранением и передачей изображений из Google Cloud
Крис Робак, основатель и генеральный директор

Запустите свои облачные приложения в DigitalOcean сегодня
В DigitalOcean мы стремимся помочь вам и вашему малому бизнесу освоить новейшие технологии, связанные с облачными вычислениями. Сегодня DigitalOcean проводит виртуальную конференцию разработчиков Deploy, и я призываю вас присоединиться к моему сеансу о том, как запускать облачные приложения в DigitalOcean.

А пока мы будем рады, если вы попробуете наш Реестр контейнеров. Вот документация, которая поможет вам начать работу.

Если вы представляете малый бизнес или стартап и хотите поговорить с нами о том, как запустить облачные приложения в DigitalOcean, свяжитесь с нами здесь.
www.digitalocean.com/docs/container-registry/
cloud.digitalocean.com/registry
www.digitalocean.com/deploy

Удачного кодирования,
Адам Вулф Гордон, старший инженер-программист