Новая возможность Cloud2. Watchdog для виртуальной машины

Использование watchdog I6300ESB в виртуальных машинах в Cloud2
Сегодня мы расскажем о полезной возможности Cloud2, которая позволяет повысить доступность виртуальных машин за счет использования виртуального устройства watchdog, которое доступно внутри VPS.

Сначала несколько слов о том, что такое watchdog. В апаратных серверах промышленного класса всегда есть специальная микросхема, которая работает автономно от всего и представляет собой обычный таймер с действием при достижении нуля. По умолчанию, таймер отключен и действие не установлено, но с помощью специального программного обеспечения, например, ipmitool, можно это изменить и задать определенное поведение — например, перезапуск сервера через reset при достижении нулевого значения, а начальное значение, например, установить в 360 секунд. Далее, в системе запускается специальная программа, которая просто обновляет таймер, не давая ему достигнуть нулевой отметки. Таким образом, пока система работает и процессы выполняются, таймер обновляется и watchdog не срабатывает, однако, как только операционная система зависла, программа, обновляющая таймер перестает работать тоже. В течение максимум 360 секунд счетчик достигнет нулевой отметки, и система перезагрузится с помощью виртуального нажатия на кнопку «reset». Механизм абсолютно надежный, поскольку работает на уровне аппаратного обеспечения, позволяя администраторам в большинстве случаев значительно уменьшить время недоступности систем при возникновении ошибочных ситуаций.

Реализация для виртуальных машин. Для виртуальных машин тоже существуют реализации watchdog, которые внутри виртуальной машины воспринимаются как аппаратные, при этом виртуализация этой микросхемы производится самим гипервизором и работает отдельно от виртуальной машины. Таким образом, если виртуальная машина зависнет, гипервизор сможет выполнить заданное действие для нее, если watchdog настроен и запущен.

Реализация в Cloud2. В Cloud2 используется гипервизор KVM, который поддерживает watchdog на базе микросхемы Intel i6300esb, эмуляция которой и осуществляется гипервизором. Мы задали действие для watchdog как reset, таким образом при зависании машина будет перезапускаться.

Использование watchdog в Cloud2. Использование i6300ESB в ОС Linux не представляет труда. Для начала использования необходимо выполнить следующие действия (Ubuntu Linux 16.04):

Установить ПО watchdog:
# apt-get update && apt install watchdog

Узнать как собрана поддержка устройства I6300ESB для вашей ОС:
# grep I6300ESB /boot/config-$(uname -r)
CONFIG_I6300ESB_WDT=m

Если «m», значит, модуль необходимо загрузить. Если «y», значит, что поддержка встроена в ядро, если «n», требуется пересборка ядра. Скорее всего, у вас будет «m», если это так, необходимо установить дополнительные компоненты ядра:
# apt install linux-image-extra-$(uname -r)

Теперь можно загрузить модуль:
# modprobe i6300esb
# lsmod | grep i6300esb
i6300esb 16384 1

Видим, что все отлично — модуль загружен. Теперь необходимо добавить его для автоматической загрузки. Пакет watchdog в Ubuntu позволяет сделать это через добавление параметра в настройки запуска сервиса watchdog:
# cat /etc/default/watchdog 
run_watchdog=1
run_wd_keepalive=1
watchdog_module="i6300esb"

Последняя строка как раз указывает, что надо сделать такую загрузку. Теперь выполним настройку сервиса watchdog. В самом простом варианте необходимо раскомментировать строку
watchdog-device = /dev/watchdog

в файле /etc/watchdog.conf.

Выполним запуск сервиса watchdog:
# service watchdog start

Если запуск прошел успешно, то в журнале /var/log/syslog, Вы увидите следующие записи:
Oct 2 03:55:08 sop watchdog[22526]: test=none(0) repair=none(0) alive=/dev/watchdog heartbeat=none to=root no_act=no force=no
Oct 2 03:55:08 sop watchdog[22526]: watchdog now set to 60 seconds
Oct 2 03:55:08 sop watchdog[22526]: hardware watchdog identity: i6300ESB timer

Если система зависнет, то в течение 60 секунд для нее будет выполнено действие «reset». Убедитесь, что сервис watchdog корректно стартует после перезапуска системы.

Проверить работоспособность можно посредством генерации состояния Kernel Panic:
echo c > /proc/sysrq-trigger

Не более чем через 60 секунд система должна перезагрузиться.

В статье приведена настройка только для Ubuntu Linux. Для Debian, CentOS и других ОС семейства Linux настройка будет похожа. Настройка для других операционных систем (MS Windows, *BSD и других) осуществляется посредством интерфейсов и приложений, которые в них предоставляются для взаимодействия с таймером i6300esb и в этой статье не рассматриваются.

Case Study об использовании подсистемы Linux FS-Cache

Case Study об использовании подсистемы Linux FS-Cache для решения проблемы производительности хранилища


У одного из наших клиентов большой портал, данные которого хранятся на отдельном выделенном NFS сервере. На сегодняшний день — это множество изображений, которые хранятся в одном плоском каталоге и занимают более 3 TB. Даже листинг этого каталога занимает несколько десятков секунд. До недавнего времени все работало более-менее неплохо, но потом движок обновили и случилось чудо, нагрузка на хранилище выросла на порядок. Все наши увещевания, что было хорошо, стало плохо ни к чему не привели, разработчики просто разводят руками.

Одна из самых больших проблем — это плоская структура каталога, в котором хранятся все файлы, таким образом, операции, которым нужен листинг просто превращают хранилище в тыкву и 4x2TB RAID10 никак не справляются. На периоды пиковой нагрузки мы переносили данные клиенты на наше SSD-хранилище, чтобы преодолеть проблему.

Новый виток боли начался недавно — у клиента стало заканчиваться место в хранилище, мы выполнили перенос на временный сервер, но проблема усугубилась — после перемонтирования хранилища NFS IOPS-ы стали зашкаливать, так как сервер приложений выкачивал все данные непосредственно с хранилища, и система просто встала колом. К счастью, на сервере приложений было около 500 GB высокоскоростного пространства на SSD и мы решили попробовать использовать FS-Cache для решения проблемы. Это был первый опыт применения данной технологии, но делать было нечего, все равно ничего не работало.

Проверяем совместимость ядра
# grep CONFIG_NFS_FSCACHE /boot/config-3.13.0-147-generic
CONFIG_NFS_FSCACHE=y

Отлично, ядро пересобирать не надо.

Монтируем NFS с нужным параметром FSC
server://files /mnt/vgslow-data nfs nfsvers=4,async,rw,_netdev,fsc 0 0
Обращаем внимание. Перемонтирование через remount не даст эффекта. Необходимо отмонтировать и смонтировать с параметром «fsc».

Устанавливаем и настраиваем демон кэширования
apt-get install cachefilesd
Редактируем настройки
# cat /etc/cachefilesd.conf 
###############################################################################
#
# Copyright © 2006,2010 Red Hat, Inc. All Rights Reserved.
# Written by David Howells (dhowells@redhat.com)
#
# This program is free software; you can redistribute it and/or
# modify it under the terms of the GNU General Public License
# as published by the Free Software Foundation; either version
# 2 of the License, or (at your option) any later version.
#
###############################################################################

dir /var/cache/fscache
tag mycache
brun 10%
bcull 7%
bstop 3%
frun 10%
fcull 7%
fstop 3%

# Assuming you're using SELinux with the default security policy included in
# this package
# secctx system_u:system_r:cachefiles_kernel_t:s0

В настройках мы изменили только параметр dir. Остальные параметры оставлены по умолчанию. Демон умеет определять доступное место на диске и держать его на заданных уровнях.

Указываем, что демон должен запускаться:
# cat /etc/default/cac
cacerts cachefilesd 
root@np0121:~# cat /etc/default/cachefilesd 
# Defaults for cachefilesd initscript
# sourced by /etc/init.d/cachefilesd

# You must uncomment the run=yes line below for cachefilesd to start.
# Before doing so, please read /usr/share/doc/cachefilesd/howto.txt.gz as
# extended user attributes need to be enabled on the cache filesystem.
RUN=yes

# Additional options that are passed to the Daemon.
DAEMON_OPTS=""

Запускаем сервис
service cachefilesd start

Проверяем работоспособность
# cat /proc/fs/nfsfs/volumes
NV SERVER   PORT DEV  FSID             FSC
v4 b078194a 801  0:35 16f9381700e59eda yes


Важно, чтобы в колонке FSC было yes. Это означает, что кэширование активировалось.

Теперь смотрим статистику кэша:
# cat /proc/fs/fscache/stats
FS-Cache statistics
Cookies: idx=6 dat=1890275 spc=0
Objects: alc=1097490 nal=0 avl=1097490 ded=1016804
ChkAux : non=0 ok=171729 upd=0 obs=0
Pages : mrk=148687337 unc=145492607
Acquire: n=1890281 nul=0 noc=0 ok=1890281 nbf=0 oom=0
Lookups: n=1097490 neg=925761 pos=171729 crt=925761 tmo=0
Invals : n=0 run=0
Updates: n=0 nul=0 run=0
Relinqs: n=1759445 nul=0 wcr=0 rtr=0
AttrChg: n=0 ok=0 nbf=0 oom=0 run=0
Allocs : n=0 ok=0 wt=0 nbf=0 int=0
Allocs : ops=0 owt=0 abt=0
Retrvls: n=2393196 ok=465345 wt=723800 nod=1927851 nbf=0 int=0 oom=0
Retrvls: ops=2393196 owt=662915 abt=0
Stores : n=118288880 ok=118288880 agn=0 nbf=0 oom=0
Stores : ops=2049040 run=120337487 pgs=118288447 rxd=118288880 olm=0
VmScan : nos=145461870 gon=0 bsy=0 can=433 wt=11
Ops : pend=662994 run=4442236 enq=153450538 can=0 rej=0
Ops : dfr=36586 rel=4442236 gc=36586
CacheOp: alo=0 luo=0 luc=0 gro=0
CacheOp: inv=0 upo=0 dro=0 pto=0 atc=0 syn=0
CacheOp: rap=0 ras=0 alp=0 als=0 wrp=0 ucp=0 dsp=0

Если счетчики двигаются, значит все ОК, настройка завершена.

Заключение
Нам повезло, что нагрузка клиента в основном представляет собой операции чтения, что позволяет использовать FS-Cache совместно с NFS. Если бы проблема была в нагрузке по записи, мы бы не смогли эффективно воспользоваться данной технологией.

billing.netpoint-dc.com/billmgr?func=register&lang=ru

Переезд в Cloud2 из частного облака



Настройка сетевой карты VM
Первое, что необходимо сделать перед переносом — убедиться в том, что виртуальная машина настроена на получение сети по DHCP с первой сетевой карты. Если вы используете Linux и в настройках сетевой карты или настройках Udev есть MAC-адрес, удалите его:

В CentOS редактируем файлы, указываем, что получение адреса происходит по DHCP, удаляем HWADDR:
/etc/sysconfig/network-scripts/ifcfg-*
/etc/udev/rules.d/70-persistent-net.rules # удаляем


В Ubuntu/Debian делаем то же самое редактированием следующих файлов:
/etc/network/interfaces
/etc/network/interfaces.d
/etc/netplan/*.yaml
/etc/udev/rules.d/70-persistent-net.rules # удаляем

В Cloud2 используется несколько VM — первая карта для публичной сети, вторая и следующие — для приватных сетей. Вам необходимо указать настройки DHCP только для первой сетевой карты.

Конвертация образа VM в формат QCOW2
Сконвертировать образ в формат QCOW2 можно с помощью утилиты qemu-img, которая входит в поставку Qemu. К примеру для VMDK:
qemu-img convert -f vmdk -O qcow2 vm.1-disk1.vmdk vm-disk1.qcow2

Сконвертированный образ можно сжать в BZ2 или GZip для ускорения загрузки:
bzip2 vm-disk1.qcow2

Получите файл vm-disk1.qcow2.bz2.

Выбор способа загрузки образа в облако
Мы рекомендуем загрузку через URL, но CloudStack позволяет осуществить и локальную загрузку.
Вы не можете загрузить в Cloud2 файл размером более 200 GB. Если необходимо загрузить большой образ, обратитесь в техническую поддержку и мы выполним загрузку через системные механизмы.
Рассмотрим как организована процедура загрузки образа. Когда вы загружаете образ, неважно, с помощью URL или c локального компьютера, CloudStack сначала загружает образ в хранилище, а потом выполняет его проверку и, если необходимо, извлечение из архива. Это может занять много времени. Вы не сможете использовать образ, пока он не будет полностью подготовлен.
Если вы планируете осуществить импорт образа в Cloud2 с минимальными затратами времени, а образ VM занимает много места, вы никогда ранее это не делали, в наличии нет утилиты конвертации Qemu-img, обратитесь в техническую поддержку и мы сделаем это за вас.
Если вы решили загружать образ с помощью URL, то вам необходимо разместить его на сервере, который доступен по порту 80, 8080, 443. Мы рекомендуем использовать Nginx или Apache. Мы НЕ рекомендуем использовать IIS.
При загрузке с URL никогда не используйте WEB-сервисы для хранения файлов (Google Drive, Yandex Диск, Dropbox, …), обычно они не отдают совместимый с загрузчиком CloudStack HTTP-поток, а ориентированы на браузеры и выполняют различные переадресации. Если вам недоступен обычный HTTP-сервер без ограничений, выбирайте локальную загрузку.

Не используйте HTTPS с самоподписными сертификатами. Используйте HTTPS только в том случае, если на сервере установлен корректный SSL сертификат.

Загрузка через скачивание с URL
Итак, убедитесь, что вам доступен образ для скачивания, через браузер. Для примера будем использовать образ, хранящийся на DL.OPENVM.EU:
http://dl.openvm.eu/cloudstack/macchinina/x86_64/macchinina-kvm.qcow2.bz2

Скачайте его из браузера и убедитесь, что загрузка началась. Если все работает, можно прервать загрузку. Обратите внимание. Образ имеет расширение qcow2 и сжат с помощью bz2. Образы для гипервизора KVM должны иметь формат Qcow2. Теперь можно начать загрузку образа в Cloud2. Для этого зайдите в панель управления, перейдите в раздел Templates и нажмите на кнопку «+ Add» в правой верхней части экрана. Вы увидите диалоговое окно следующего вида:


В этом диалоге вы задаете откуда будет скачиваться шаблон и какие свойства будут применяться к виртуальным машинам, которые будут из него создаваться. Рассмотрим значение полей:
  • URL — источник загрузки, в нашем примере dl.openvm.eu/cloudstack/macchinina/x86_64/macchinina-kvm.qcow2.bz2
  • Name — имя шаблона;
  • Description — описание шаблона;
  • Zone — зона, в которую будет загружен шаблон, сейчас мы предоставляем услуги только в зоне Tomsk;
  • Hypervisor — KVM, другие гипервизоры в Cloud2 не поддерживаются;
  • Original XS Version is 6.1+ — не используется с гипервизором KVM, включать не нужно;
  • Root Disk Controller — рекомендуется выбирать VirtIO SCSI, VirtIO или osdefault;
  • Format — устанавливаем QCOW2; для MS Windows лучше устанавливать как osdefault;
  • OS Type — выбирайте максимально приближенный формат к вашей операционной системе, если нет точного или вы его не знаете;
  • Extractable — указывайте, если хотите, чтобы шаблон можно было скачать;
  • Password Enabled — указывайте, если в шаблоне используется Cloud Init или другой механизм установки внешнего пароля и SSH-ключа;
  • Dynamically Scalable — для KVM неприменимо;
  • Public — установите, если хотите чтобы другие пользователи видели ваш шаблон (обычно не нужно устанавливать);
  • HVM — указывает, что используется аппаратное ускорение.

Если все указали правильно — нажимайте «OK». Теперь будем смотреть прогресс загрузки. Шаблон из примера очень маленький — 50 MB, на его загрузку уйдет меньше минуты. В реальности шаблоны могут загружаться очень долго.
Загрузка через URL удобна тем, что вам не надо держать браузер открытым и ваш компьютер не участвует в загрузке. Это удобно для больших шаблонов.

Итак, смотрим как загружается шаблон. Для этого кликнем на шаблон и перейдем на вкладку Zones:


Как видно, шаблон загрузился на 23% и его статус Ready = No. Если нажимать кнопку «Refresh», через несколько секунд статус изменится:


Если шаблон большой и сжат BZIP2, его распаковка займет много времени, шаблон будет загружен на 100%, но не готов: Ready = No. Вы должны дождаться, пока статус готовности станет равным «Yes».
Теперь шаблон готов к использованию.

Загрузка с локального компьютера
Загрузка с локального компьютера выполняется точно так же, как и загрузка с URL, для ее осуществления необходимо нажать кнопку «Upload From Local», выбрать файл на локальном диске и указать все параметры, как и в случае загрузки с URL.


После этого начнется загрузка и будет продолжаться пока файл не будет отправлен на сервер. Если вы будете смотреть статус загрузки, то увидите загадочное состояние «Not Uploaded» вместо процентов. Это нормально для данного способа загрузки, продолжайте периодически обновлять состояния до изменения статуса «Download Complete» и «Ready».

Удаление шаблонаУдаление шаблона производится из конкретной зоны. Для этого перейдите в эту зону на вкладке Zones и удалите шаблон из нее:


billing.netpoint-dc.com/billmgr?func=register&lang=ru

Новый стык в Москве — Hurricane Electric (AS6939)



Установлены пиринговые отношение с сетью Hurricane Electric (HE) в режиме тестовой эксплуатации. HE — крупнейший оператор хостинга и датацентров, признный лидер по надежности оказания услуг во всем мире. Мы надеемся, что связность с HE позволит нашим абонентам получать еще более качественные услуги.

Подключение организовано на площадке MSK-IX в Москве.

Розыгрыш NVMe SSD ускорителя Intel Optane 900p 480GB среди пользователей Cloud2



Для продвижения нашей новой услуги Cloud2 мы решили устроить розыгрыш SSD-ускорителя Intel Optane 900P размером 480 GB. Память 3d-Xpoint совершила революцию в мире SSD, предоставляя недостижимую для других SSD производительность и надежность. Мы в НетПоинт широко используем продукты Intel, основанные на 3d-Xpoint и наши клиенты уже успели оценить их по достоинству.

Сегодня мы объявляем розыгрыш такого ускорителя среди пользователей Cloud2.


В настоящее время все карты Intel Optane идут в комплекте с бесплатным эксклюзивным кораблем для игры Star Citizen — Sabre Raven.

Для участия в розыгрыше необходимо заказать услугу Premium VPS с ресурсами не менее 4 GB RAM и 60 GB дискового пространства (1100 рублей). В этой квоте можно создать от 1 до 4х VPS, например, высокопроизводительный VPS: highcpu.2c4g с диском 60 GB или 4 lowcpu.1c1g.

Розыгрыш состоится 20 ноября 2018 года среди пользователей, которые потратили за период с 18 октября по 18 ноября не менее 1100 рублей на услуги Cloud2. Розыгрыш будет осуществляться случайным выбором из всех счетов в биллинге, которые удовлетворяют указанным выше критериям. Номера всех счетов, участвующих в розыгрыше, будут опубликованы на сайте НетПоинт.

Мы напоминаем, что Вы можете заказать бесплатный перенос вашего ресурса как с услуги CS1 так и с других услуг НетПоинт в Cloud2, а так же со сторонних площадок.

Все аккаунты, которые уже используют Cloud2 и соответствуют критериям, описанным выше участвуют в розыгрыше.

Отказ от ответственности. В том случае, если компания Intel перестанет распространять ускорители с купоном на Sabre Raven, мы будем разыгрывать ускоритель без этого корабля. Однако, в настоящий момент, нам не известно о таких планах поставщика.

billing.netpoint-dc.com/billmgr?func=register&lang=ru

Распродажа серверных SAS-дисков со склада

Добрый день, мы распродаем избытки SAS-дисков со склада. Все диски проверены на работоспособность. Гарантия — 2 недели с возвратом средств. Оплата наличным расчетом. Самовывоз из офиса. Дополнительная проверка на стенде в присутствии клиента.

#	Interface	Phy. Size	Volume	RPM	Vendor	Series	Model	Цена (Руб)
1	SAS	2,5	146GB	10000	Seagate	Savvio 10K.3	ST9146803SS	600
2	SAS	2,5	146GB	10000	Seagate	Savvio 10K.3	ST9146803SS	600
3	SAS	2,5	146GB	10025	Fujitsu	—	MBD2147RC	600
4	SAS	2,5	146GB	10025	Fujitsu	—	MBD2147RC	600
5	SAS	2,5	146GB	10000	HP	—	DG146BB976	600
6	SAS	2,5	146GB	10000	HP	—	DG146BB976	600
7	SAS	2,5	146GB	10000	HP	—	DG146BB976	600
8	SAS	2,5	146GB	15000	Dell (HGST)	Ultrastar C15K147	HUC151414CSS600	1000
9	SAS	2,5	146GB	15000	Dell (HGST)	Ultrastar C15K147	HUC151414CSS600	1000
10	SAS	2,5	146GB	15000	Dell (HGST)	Ultrastar C15K147	HUC151414CSS600	1000
11	SAS	2,5	146GB	15000	Dell (HGST)	Ultrastar C15K147	HUC151414CSS600	1000
12	SAS	2,5	146GB	15000	Dell (HGST)	Ultrastar C15K147	HUC151414CSS600	1000
13	SAS	2,5	146GB	15000	Dell (HGST)	Ultrastar C15K147	HUC151414CSS600	1000
14	SAS	2,5	146GB	15000	Dell (Seagate)	Savvio 15K.3	ST9146853SS	1000
15	SAS	2,5	146GB	15000	Dell (Seagate)	Savvio 15K.3	ST9146853SS	1000
16	SAS	2,5	146GB	15000	Dell (Seagate)	Savvio 15K.2	ST9146852SS	1000
17	SAS	2,5	146GB	15000	Dell (Seagate)	Savvio 15K.3	ST9146853SS	1000
18	SAS	2,5	146GB	15000	Dell (Seagate)	Savvio 15K.3	ST9146853SS	1000
19	SAS	2,5	300GB	10000	HP	—	EG0300FBDBR	2000
20	SAS	3,5	400GB	10000	Seagate	Cheetah NS	ST3400755SS	2200
21	SAS	3,5	400GB	10000	Seagate	Cheetah NS	ST3400755SS	2200
22	SAS	2,5	450GB	10025	Toshiba	—	MBF245LRC	2500
23	SAS	2,5	450GB	10000	HP	—	EG0450FBVFM	2500
24	SAS	2,5	450GB	10000	HP	—	EG0450FBVFM	2500
25	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
26	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
27	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
28	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
29	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
30	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
31	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
32	SAS	2,5	500GB	7200	Dell (Seagate)	Constellation.2	ST9500620SS	1500
35	SAS	3,5	3TB	7200	Seagate	Constellation ES.3	ST3000NM0023	4000


634050 Россия, г. Томск, ул. Шишкова 13, 3 этаж
Тел.: +7 (3822) 705-476
E-mail: sales@netpoint-dc.com

5 Online ИБП 2KVA-3KVA

Добрый день, продолжаем ликвидацию залежавшихся остатков склада.

Сегодня продаем 5 online ИБП SNR shop.nag.ru (стоечные ИБП 2KVA-3KVA), 1 фаза вход, одна фаза выход.

В рабочем состоянии:
2 KVA — 4000 рублей
3 KVA — 6000 рублей

Резервирование через биллинговую систему. Забрать можно в офисе. Оплата наличными.

Два ИБП в нерабочем состоянии (индикация ошибки, требуется электронщик для ремонта): Inelt, Eaton — 4 и 5 KVA, по 3000 рублей за шт.

Cloud2: Использование аффинитетных групп Cloud2

Cloud2: Использование аффинитетных групп Cloud2 для построения отказоустойчивых и высокопроизводительных систем

Новые виртуальные машины в Cloud2 размещаются на наименее загруженных узлах. Обычно, это то, что вы хотите и это работает отлично. Однако, бывают случаи, когда пользователи хотят, чтобы машины не размещались в едином домене отказа, то есть не выходили из строя одновременно при каких-либо проблемах в облаке, или, наоборот, пользователь может хотеть, чтобы машины размещались на одном хосте, чтобы уменьшить сетевую задержку между ними и увеличить полосу пропускания — в Cloud2 действует бэкбон-сеть между машинами одного аккаунта, которая в рамках одного хоста не имеет ограничений в 10Gbit/s.
В Cloud2 домен отказа — это вычислительный хост. При отказе хоста, машины размещенные на других хостах не подвержены проблеме. В настоящее время мы не используем разделяемые хранилища, поскольку стремимся обеспечивать высочайшие показатели IOPS и минимальные задержки при I/O, что не возможно с использованием удаленных, разделяемых хранилищ.

В настоящее время мы поддерживаем два вида групп условного размещения виртуальных машин (аффинитетных групп):
  • Host anti-affinity — размещает все машины, добавленные в нее на разные узлы, в настоящее время максимальное количество машин, которые можно указать в данной группе — 3;
  • Host affinity — размещает все машины на одном узле.
С помощью интерфейса CloudStack вы можете создавать аффинитетные группы, а при создании машин, можете помещать их в них. Каждая машина может быть в одной или более группах.

Пример 1. Создана host anti-affinity группа mysql-galera, в нее добавлено 3 узла db1, db2, db3. В результате, каждая машина будет размещена на уникальном узле Cloud2.

Пример 2. Создано две группы:
  • host anti-affinity: mysql-master-slave,
  • host affinity: apps.
В группу mysql-master-slave добавлены виртуальные машины db-master, db-slave. В группу apps добавлены две машины db-master, app-server.

В результате app-server будет размещен на том же хосте, где и db-master, а db-slave будет размещен на хосте, отличном от того, где размещен db-master.


Рассмотрим работу с аффинитетными группами с помощью интерфейса CloudStack.

Создадим необходимые группы. Перейдем в раздел аффинитетных групп. Как видно, групп нет.


Создадим две группы из примера 2.


Создадим, три виртуальные машины, поместив их в нужные группы. Сначала app-server, который добавлен в группу app-at-master:


Затем db-slave в группе mysql-master-slave:


и db-master в групах mysql-master-slave и app-at-master:


Теперь, если кликнуть на группу и перейти в раздел View Instances, то можно увидеть машины, которые в группе находятся.

billing.netpoint-dc.com/billmgr?func=register&lang=ru

Ликвидация дисковых полок NetApp

Отдадим почти даром 5 FibreChannel полок:
library.netapp.com/ecm/ecm_download_file/ECMP1112854
в каждую полку можно поставить до 14 дисков 3.5 размером до 2TB, итого до 28 TB в 3х юнитах. 14 салазок под диски в комплекте.

С каждой полкой дадим одну FC-карту для подключения к серверу и один дополнительный DAC FC кабель для наращивания мощности или подключения к близкому серверу. Идеально для видеонаблюдения и малых архивов, если место в стойке не является проблемой. Стоимость полка+карта — 2 тысячи рублей, только наличные. Продаем в связи с недостаточной плотностью размещения данных.

Полок 5 штук, приезжать, забирать из нашего офиса на Шишкова 13.