Аукцион выделенных серверов от FirstDEDIC



Если вы откладывали приобретение выделенного сервера в долгий ящик и ждали подходящего момента, то он настал.

На нашем проекте FirstDEDIC стартовал аукцион с понижением цен — это отличная возможность сэкономить на аренде выделенного сервера.

На аукционе представлены решения как из числа готовых конфигураций, так и серверы, собранные по запросам наших клиентов. Все они полностью исправны и готовы к работе, а их установка и активация займёт не больше часа.

Снижение цен происходит каждые 24 часа. Всё, что вам необходимо сделать — это выбрать подходящий сервер и следить за снижением его стоимости, чтобы не пропустить подходящий момент для покупки. Тем более, что цена, по которой вы сделаете заказ, не изменится на протяжении всего срока аренды.

1dedic.ru/auction-2020

Ежегодное увеличение платы за наши услуги



В Leaseweb мы всегда ищем новые способы расширить возможности вас и вашего бизнеса. Прошлый год не стал исключением. Мы добавили процессоры AMD, панели управления, API-интерфейсы и поддержку загрузки UEFI, чтобы улучшить автоматизацию серверов. Мы реструктурировали и переработали клиентский портал Leaseweb, чтобы обеспечить удобство работы с клиентами, а также добавили возможности для обновления вашего жесткого диска и оперативной памяти или заказа SSL-сертификатов непосредственно с клиентского портала. Мы добавили дополнительные меры безопасности с помощью DDoS IP Protection Advanced и DNSSEC одним щелчком мыши. Выпуск Leaseweb Monitoring позволяет вам активно отслеживать состояние вашего сервера. Мы запустили Cloud Connect, ваше новое безопасное и частное соединение с общедоступным облаком, а также Elastic Compute, ваше частное облачное решение с расширением облака для максимальной масштабируемости. В наше портфолио были добавлены плавающие IP-адреса Metro, которые позволяют легко маршрутизировать трафик между двумя центрами обработки данных в городской зоне. Наши специалисты доступны круглосуточно и без выходных, чтобы вы всегда получали постоянную поддержку.

Чтобы продолжать предоставлять вам услуги того же качества, раз в год мы корректируем наши сборы за услуги, чтобы отразить изменения рынка. Мы удерживаем это повышение до 3% в соответствии с нашими Условиями продаж. Вы можете найти ихздесь.

Пересмотренные сборы применяются только с 1 января 2021 г. к контрактам на продажу, начавшимся 1 января 2020 г. или ранее. Пересмотренные сборы будут включены в ваш первый счет за 2021 г., и их можно предварительно просмотреть на портале клиентов Leaseweb.

Мы ценим, что вы выбрали нас в качестве поставщика облачного хостинга, и с нетерпением ждем продолжения поиска новых способов помочь вам в достижении бизнес-целей в ближайшие годы. Если у вас есть какие-либо вопросы, вы можете в любое время связаться с нашим отделом обслуживания клиентов.

С уважением,
Бенджамин Шёнфельд
Управляющий директор
Leaseweb Asia Pacific Pte. ООО

Linxdatacenter вошел в топ-30 поставщиков ИТ для операторов связи по версии CNews



Компания Linxdatacenter, международный эксперт в сфере высокотехнологичных решений по хранению данных, облачных сервисов и телекоммуникаций, вошла в рейтинг CNews Analytics «Крупнейшие поставщики ИТ для операторов связи 2019», подготовленного в рамках обзора «Телеком 2020» издания CNews.

Общая динамика роста российского телеком-рынка в 2019 году составила 4%, что позволило достичь объема примерно в 1,8 трлн рублей. 36,8% этой суммы приходится на документальную электросвязь, под которой понимается, в том числе, доступ в Интернет, 22% — на мобильную связь, 14,7% — на услуги присоединения и пропуска трафика и 9,7% — на почтовую связь.

Совокупная выручка участников рейтинга крупнейших поставщиков ИТ для операторов связи по итогам 2019 года составила 166 млрд рублей. По сравнению с 2018 годом показатель вырос на 59,5%. При этом порог входа в рейтинг вырос до 272 млн рублей.

Linxdatacenter вошел в топ-30 ведущих поставщиков ИТ для телеком-операторов с общим объемом выручки от работы с операторами связи в 350 млн рублей, что составляет 26,8% от ее общего размера. По сравнению с 2018 годом рост составил 2,4%.

«Связность ИТ-систем и ресурсов провайдеров различных решений и сервисов, объединенных в экосистемы и маркетплейсы, становится сегодня важнейшим фактором развития бизнеса.

Для дата-центра взаимодействие с операторами связи в этом свете обретает особую важность. ЦОД становится не только площадкой для обеспечения связности и обмена трафиком, но также составным элементом в цепочке создания дополнительной бизнес-ценности для своих партнеров и, в итоге, улучшения качества сервисов для конечных потребителей.

Мы постоянно расширяем свои компетенции в этом направлении как через развитие внутренних сетевых ресурсов, так и за счет обеспечения связности с передовыми глобальными ИТ-провайдерами. Дата-центр выполняет для клиентов роль единого хаба, покрывающего любые актуальные на текущий момент потребности в доступе к облакам, каналам связи и инструментам маршрутизации трафика», — комментирует генеральный директор Linxdatacenter в России Ольга Соколова.

Отметим, что ранее в 2020 году компания также вошла в рейтинг CNews Analytics, «Крупнейшие поставщики услуг ЦОД 2020» в рамках обзора «Центры обработки данных 2020», впервые стала участником рейтинга «Крупнейшие поставщики ИТ для промышленных предприятий 2019» в рамках обзора «ИТ в промышленности 2020», а также была включена в первый в России рейтинг SLA облачных провайдеров, составленный ИТ-маркетплейсом Market.CNews.

ru.linxdatacenter.com

Институт Гладстона создает огненный шар Backblaze, издание XXXL

Здесь, в Backblaze, мы, как известно, поступаем немного иначе. Мы часто выбираем другой путь — от модулей хранения и хранилищ Backblaze до данных о сельском хозяйстве и жестких дисках. Поэтому неудивительно, что мы любим рассказы о людях, которые нестандартно мыслят, когда сталкиваются с проблемой. Это особенно верно, когда эта история связана с созданием сервера хранения mongo, почтенной Toyota 4Runner и парой ИТ-инженеров, одержимых целью получить 1,2 петабайта данных своей организации за пределами офиса. Давайте познакомимся с Алексом Акостой и Эндрю Дэвисом из Gladstone Institutes.

Данные в бегах
Охранник на стойке регистрации понимающе кивнул, когда Алекс и Эндрю катили три больших чемодана «Черепахи» через вестибюль и выходили из парадной двери Гладстонского института. Хорошо известные и широко уважаемые, два ИТ-инженера составляли в то время две трети персонала ИТ-операций, и у них был 25-летний опыт работы в Гладстоне. Как ни странно, что ИТ-персонал покидает безопасный объект в нерабочее время с тремя крупными делами, все было на подъеме.

В середине февраля были сумерки. Алекс и Эндрю приготовились к холоду, когда они вышли на почти пустую автостоянку, неся драгоценный груз в этих трех ящиках. 4Runner Эндрю был близок к этому, он прибыл рано в тот день — важный день, день переезда. Они осторожно затащили тяжелые чемоданы в 4Runner. Большую часть веса составляли сами корпуса, остальной частью был сервер хранения 4U, а в двух других — 36 жестких дисков. Незначительная часть веса, если вообще была, была причиной того, что они делали все это — 200 терабайт данных исследований Института Гладстона.

Они закрепили чемоданы, захлопнули дверь багажника, сели в 4Runner и привели колеса в движение для следующей части своего плана. Они свернули на шоссе 101 и направились на юг. Движение было ужасным, даже автострада; ужин будет поздно, как и многие предыдущие ужины.


Назад к началу
Было много других поздних ночей с тех пор, как они начали этот проект шесть месяцев назад. Проект Fireball XXXL, как в итоге назвали его Алекс и Эндрю, был продиктован их миссией по защите данных биомедицинских исследований Гладстона от неминуемой катастрофы. В неизвестный день середины лета Алекс и Эндрю находились в серверной в Гладстоне в окружении более 900 лент, которые выдавали себя за систему резервного копирования.

Эндрю размышлял: «Это могла быть программа-вымогатель, здание загорелось, кто-то случайно удалил наборы данных из-за записи в командной строке, может произойти любое количество вещей, которые все это уничтожат». Алекс, махнув рукой по постоянно расширяющейся ленточной библиотеке, добавил: «Мы больше не можем полагаться на это. Ленты громоздкие, грязные и портятся, даже если вы все делаете правильно. Мы тратим так много времени на устранение неполадок, и в 2020 году нам больше не придется заниматься устранением неполадок». Они решили найти лучший способ получить свои данные за пределами офиса.

Проверка в реальных условиях
Алекс и Эндрю перечислили цели своего проекта: получить 1,2 петабайта данных, которые в настоящее время хранятся на месте и в их ленточной библиотеке, безопасно за пределами площадки, иметь возможность добавлять 10–20 терабайт новых данных каждый день и иметь возможность удалять файлы по мере необходимости. Тот факт, что практически каждый байт рассматриваемых данных представляет собой исследование биомедицинских заболеваний, включая данные, непосредственно применимые к борьбе с глобальной пандемией, означал, что они должны были выполнить все вышеперечисленное с минимальным временем простоя и максимальной надежностью. Да, и все это им пришлось делать, не увеличивая свой бюджет. Оптимисты.

Поскольку облачное хранилище является наиболее многообещающим вариантом, они сначала подумали о создании собственного частного облака в удаленном центре обработки данных в пустыне. Они быстро отказались от этой идеи, поскольку первоначальные затраты были ошеломляющими, не говоря уже о текущих затратах на персонал и техническое обслуживание для управления удаленными системами.

Они решили, что лучший вариант — использовать облачное хранилище, и сравнили ведущих поставщиков. Алекс был знаком с Backblaze, много лет следил за блогом, особенно с сообщениями о статистике дисков и модулях хранения. Более того, облачное хранилище Backblaze B2 было простым и доступным. Кое-что он не мог сказать о других ведущих поставщиках облачных хранилищ.

Следующей проблемой была пропускная способность. Вы могли подумать, что соединения со скоростью 5 Гбит / с будет достаточно, но у них была организация, которая требовала много исследований и данных, и использовала это соединение. Они затачивали свои карандаши для пропускной способности и, с учетом институционального использования, подсчитали, что могут легко поддерживать загрузку 10–20 терабайт в день. Проблема была в том, что загрузить существующие 1,2 петабайта данных было бы совсем другим делом. Они связались со своим поставщиком пропускной способности и им сказали, что они могут удвоить свою текущую пропускную способность до 10 Гбит / с по многолетнему соглашению почти в два раза дороже, и, кстати, пройдет от нескольких месяцев до года, прежде чем они смогут начать работу. Ой.

Они обратились к Backblaze, который предложил свой сервис передачи данных Backblaze Fireball, который мог загружать около 70 терабайт за поездку. «Даже с Fireball нам потребуется 15, может быть, 20 поездок туда и обратно», — сетовал Эндрю во время очередного ночного сеанса просмотра резервных копий. «Я бы хотел, чтобы у них была коробка побольше», — сказал Алекс, на что Эндрю ответил: «Может, мы сможем построить такую».

Родился план: построить сервер хранения mongo, загрузить на него данные и отнести в Backblaze.


Спросите
Прежде чем они появились в центре обработки данных Backblaze со своим творением, они решили, что сначала должны спросить Backblaze. Алекс отметил: «В большинстве компаний, если вы скажете:« Эй, я хочу построить массивный файловый сервер, доставить его в ваш центр обработки данных и подключить. Разве вы мне не доверяете? »Они ответят:« Нет, 'и повесили трубку, но Backblaze этого не сделал, они прислушались».

После долгих размышлений Backblaze согласился разрешить персоналу Gladstone войти в ближайший центр обработки данных, который был точкой пиринга для сети Backblaze. В восторге от того, что они нашли родственных душ, у Алекса и Эндрю появился партнер в проекте Fireball XXXL. Хотя это сотрудничество было уникальной возможностью для обеих сторон, для Эндрю и Алекса это также означало бы больше поздних ночей и буррито в микроволновке. Теперь это не имело значения, они чувствовали, что у них есть отличный шанс реализовать свой проект.

Сборка
Алекс и Эндрю выделили некоторый бюджет на, казалось бы, несвязанный проект: построить собственный сервер хранения, который будет служить системой горячего резервирования для текущих активных лабораторных проектов. Таким образом, если в лаборатории что-то пойдет не так, они смогут при необходимости получить последнюю сохраненную версию данных. Используя эти средства, они поняли, что могут построить что-то, что будет использоваться в качестве их огромного Fireball XXXL, а затем, когда циклы передачи данных будут завершены, они могут перепрофилировать систему в качестве резервного сервера, на который они заложили бюджет.

Вдохновленные Backblaze Storage Pod с открытым исходным кодом, они работали с Backblaze над спецификациями для своего Fireball XXXL. Они пошли по пути нестандартной сборки, начав с шасси 4U и больших дисков, а затем добавили несколько мощных компонентов.

Огненный шар XXXL
  • Шасси: 4U Supermicro с 36 отсеками, 3,5-дюймовое дисковое шасси, построенное iXsystems.
  • Процессор: Двухъядерный Intel Xeon Gold 5217.
  • Оперативная память: 4 x 32 ГБ (128 ГБ).
  • Диски данных: 36 14 ТБ HE14 от Western Digital.
  • ЗИЛ: 120 ГБ NVMe SSD.
  • L2ARC: 512 ГБ SSD.
По сути, они построили систему RAID 1 + 0 на 200 терабайт с 36 отсеками для репликации данных с помощью rclone. Эндрю отметил: «Rclone требует больших ресурсов как в отношении ОЗУ, так и циклов ЦП. Когда мы определяли систему, нам нужно было убедиться, что у нас достаточно мощностей, чтобы rclone мог передавать данные со скоростью 10 Гбит / с. Это не просто чтение с дисководов; для этого нужна обработка".

Загрузка
Gladstone запускает TrueNAS в своих локальных производственных системах, поэтому имело смысл использовать его на недавно построенном сервере передачи данных. «Мы смогли отправить ZFS с наших внутренних серверов на то, что выглядело как гигантский внешний жесткий диск из-за отсутствия лучшего описания», — сказал Эндрю. «Это позволило нам выполнять репликацию на уровне блоков в сжатом виде, поэтому было намного выше производительность при копировании данных в эту систему».

Эндрю и Алекс ранее решили, что они начнут с четырех наборов данных размером более 40 терабайт каждый. Каждый набор данных представляет собой годы исследований в соответствующих лабораториях, помещая их в верхнюю часть очереди резервного копирования за пределами предприятия. В течение 10 дней они загрузили данные в Fireball XXXL. По завершении они выключили систему и удалили диски. Открыв чехлы Turtle с пенопластом, которые они приобрели ранее, они осторожно поместили шасси в один корпус, а 36 дисков — в два других. Они закрыли одеяла и направились в вестибюль Гладстона.

В дата-центре
В конце концов Алекс и Эндрю прибыли в центр обработки данных, где они нашли необходимую точку пиринга сети Backblaze. При входе последовали проверки, и хотя Backblaze поручился за ребят из Гладстона, процесс входа был трудным. Как и должно быть. Оказавшись в назначенной комнате, они подключили несколько кабелей, ввели несколько команд терминала, и данные начали загружаться в их учетную запись Backblaze B2. Fireball XXXL работал, как и ожидалось, с устойчивой скоростью передачи от 8 до 10 Гбит / с. На загрузку всех данных ушло чуть больше трех дней.

Через несколько недель они совершат еще одну поездку и запланировали еще два. С каждой поездкой все больше данных Gladstone надежно хранится за пределами площадки.

Институты Гладстона с более чем 40-летней историей и более 450 сотрудников являются мировым лидером в области биомедицинских исследований сердечно-сосудистых и неврологических заболеваний, геномной иммунологии и вирусологии, причем некоторые лаборатории недавно переключили свое внимание на SARS-CoV- 2, вирус, вызывающий COVID-19. Исследователи из Gladstone полагаются на свою ИТ-команду, чтобы защитить и защитить свои жизненно важные исследования.


Эпилог
Прежде чем вы загрузите свой 200-терабайтный медиа-сервер в заднюю часть внедорожника или пикапа и направитесь в центр обработки данных Backblaze — остановитесь. Хотя мы восхищаемся находчивостью Эндрю и Алекса, с нашей стороны процесс был трудным. Процедуры безопасности, связанные с ними документы и время, необходимое для того, чтобы наши герои Гладстона получили доступ к центру обработки данных и нашей сети с их Fireball XXXL, были «существенными». Тем не менее, мы рады, что сделали это. В ходе этого процесса мы многому научились, и, возможно, когда-нибудь мы предложим наш собственный Fireball XXXL. Если да, то мы знаем, где найти пару парней, которые умеют спроектировать одну систему ударов. Спасибо за поездку, господа.

новое предложение Hosted Private Cloud

OVHcloud предложит новое предложение Hosted Private Cloud, объединяющее технологии Google Anthos, совместим с технологиями opensource из собственной выделенной гипермасштабируемой инфраструктуры, которая будет полностью эксплуатироваться и управляться в Европе командами OVHcloud.


— Это стратегическое партнерство поможет европейским организациям ускорить преобразование в облако и удовлетворить свои строгие потребности с точки зрения безопасности и конфиденциальности данных. — Он будет сосредоточен на предоставлении лучших технологических инноваций в облаке, с гибкостью для решения задач масштаба и скорости.

OVHcloud объявляет о заключении стратегического партнерства с Google Cloud, чтобы повысить способность французских и европейских организаций вести цифровую трансформацию своей деятельности. Это партнерство направлено на предоставление европейским организациям передовых технологий, основанных на надежной инфраструктуре, для удовлетворения их растущих потребностей с точки зрения строгого контроля своих данных, безопасности, прозрачности и конфиденциальности при непосредственном развертывании приложений. создано в облаке. OVHcloud предложит новое предложение Hosted Private Cloud, объединяющее технологию Anthos от Google Cloud, совместимую с технологиями с открытым исходным кодом, и собственную выделенную гипермасштабируемую инфраструктуру, которая будет полностью использоваться и управляться в Европе командами OVHcloud.

Предоставляйте европейские данные с последними инновациями и полным контролем
В последние годы организации и политики подчеркивают необходимость для поставщиков облачных услуг защищать данные своих клиентов более прозрачным образом, подчеркивая необходимость повышения уровней безопасности, конфиденциальность, автономность и живучесть последних. Чтобы удовлетворить эти потребности, OVHcloud и Google Cloud установили партнерство, в основе которого лежат открытый исходный код, прозрачность, функциональная совместимость и обратимость. Обе компании преследуют цель предоставить европейским организациям средства для ускорения их цифровой трансформации и уверенного использования последних достижений в облачных технологиях.

Открытый исходный код: важная опора для расширения европейской экосистемы
В рамках этого партнерства OVHcloud и Google Cloud продемонстрируют свои передовые технологии и навыки. Обе компании планируют разработать совместные решения, которые позволят их клиентам в полной мере воспользоваться преимуществами открытого многооблачного подхода с привлечением большой экосистемы разработчиков.

Это соглашение свидетельствует о твердом намерении предоставлять инновационные решения для обслуживания клиентов, одновременно поддерживая развитие их цифровых навыков и способствуя сотрудничеству с сообществом разработчиков открытого исходного кода.

Мы гордимся тем, что сотрудничаем с Google Cloud, чтобы совместно предоставлять инновационные решения, которые будут отвечать растущим требованиям Европы в отношении независимости данных. Это важный шаг к созданию нового ценностного предложения на европейском рынке. Для OVHcloud очень важно объединить передовые технологии для сообщества разработчиков и одновременно укрепить экосистему участников, объединенных единым ядром ценностей. Это партнерство открывает широкие возможности, поэтому мы рады сделать это возможным вместе
Мишель Полен, управляющий директор OVHcloud

Мы рады подписать наше первое такое партнерство с OVHcloud. Прислушиваясь к мнению наших клиентов, партнеров и политиков в Европе, мы понимаем их потребность в большем контроле и автономии. Мы реагируем на них по-разному и с нетерпением ждем продолжения выполнения наших обязательств перед нашими клиентами значимым образом с партнером, ценности которого мы разделяем: доверие, инновации, сотрудничество, открытость, безопасность, совместимость, прозрачность и экологическая ответственность, чтобы объединить больше пользы и помочь нашим клиентам ускорить цифровую трансформации
Томас Куриан, генеральный директор Google Cloud

Предоставляем всем желающим бесплатный тестовый период виртуального хостинга на 10 дней!



Не теряйте время, оцените наш хостинг и оперативную поддержку прямо сейчас:
zomro.com/virtual.html
Кстати, перенесём сайты и сделаем все настройки бесплатно!

Вам точно понравится =)