все новости по филиалам
Поиск
Adding new 100G from our DCs in Europe: SBG, RBX, GRA
We added new capacity in Francfort, DE. Ready to add new 100G
On parle de VAC5 à VAC16 dans les 18 mois à venir
Bonjour,
Nous allons proposer le vRack sur le PCI/VPS. Le Public Cloud.
On va le dérouler en plusieurs étages:
1) d'abord, vous allez pouvoir créer un vrack entre les VM d'un
même DC
2) en suite, on va l’élargir (automatiquement) à tous les services
d'un même DC (SD+PCC+PCI/VPS)
3) puis multi-dc, mais sachant que le vrack 2 est déjà multi-dc
dés que le 2) est fait, ça sera multi-dc, juste on aura à changer
la techno entre les DC pour utiliser les 100G au lieu de Nx10G
Il faut compter 6 semaines entre le 1) et 3). Le 1) commence
la semaine prochaine. On attend le matos pour finir le 2) et
le 3) et complétement arrêter le vrack 2.0 qui va mourir au
profit de vrack 3: 100% vxlan de bout à bout.
Comment ça va marcher?
— Le vRack de PCI/VPS est un vrack standard. Un segment L2,
un mega bridge multi dc par client qui peut se terminer sur
chaque service chez ovh. C'est l'eth1 de serveurs dédiés si
on veut. Sur ce segment vous pouvez créer 4000 vlan. Par
exemple le vlan 123 c'est eth1.123.
Sur le PCI on vous configure un vlan spécifique par interface,
c'est à dire vous allez pouvoir configurer le vlan 123 sur eth1
directement. Pas besoin de faire eth1.123, le vlan 123 est déjà
specifié de notre côté. Plus tard, on va vous proposer aussi
tout les vrack entier sur une seule interface ethX puis vous
allez pouvoir configurer vous même les vlans que vous voulez
eth5.123 eth5.1984 etc.
toujours plus et moins cher
— En parallèle, nous travaillons sur l'accélération de traitement
de packets dans le PCI/VPS. Vous savez qu'Ovh a fait son
propre router à la base de X86. On gère 160Gbps/160Mpps
par châssis. On est en train de préparer la mise en place du
vR sur RBX1, un petit DC avec les Kimsufi où nous avons 80Gbps
de trafic Aujourd'hui, le routage est assuré par 2 ASR9001
avec 120Gbps de capa chaque. Demain, on aura 4x vR avec
4x160Gbps de capa et ceci pour 10% du prix des ASR9K
Cette même techno est portée dans les hosts de PCI/VPS
afin de supporter 10Gbps/10Mpps (25Gbps/25Mpps demain).
Il nous manque encore quelques devs mais pour fin mars
on devrait l’intégrer dans tous les hosts de PCI/VPS. Le gros
avantage est qu'un DDoS n'aura plus aucun impact sur les
hosts ni sur les VM hébergés sur ce host. Ça sera routé comme
un routeur vR.
Le cerise sur le gâteau: nous sommes en train d’intégrer
le VAC + l'Anti-DDoS GAME sur le vR. C'est à dire par défaut
on veut protéger tous les clients sans détecter les DDoS.
24/24 par défaut tous les packets sont analysés en input
et output. RBX1 sera le 1er à avoir cette techno et les autres
DC vont suivre. On devrait être 100% vR pour la fin 2016
et donc de faire x10 sur les capacités de nos DCs pour un
coût de 10%.
L'Anti-DDoS de vR sera porté sur les hosts PCI/VPS et donc
ça sera pareil pour les VPS, c'est à dire 100% de PCI et VPS
seront protégés 24/24.
On est en train de terminer le VAC4 pour GRA en se basant
sur le vR + Anti-DDoS. Le VAC4 sera comme le VAC1/2/3
sauf qu'il coutera 10% du prix. On va pouvoir donc le déployer
massivement dans nos 12 nouveaux DCs, sans limite de
capacité de traitement. On parle de VAC5 à VAC16 dans
les 18 mois à venir.
Amicalement
Octave
Nous allons proposer le vRack sur le PCI/VPS. Le Public Cloud.
On va le dérouler en plusieurs étages:
1) d'abord, vous allez pouvoir créer un vrack entre les VM d'un
même DC
2) en suite, on va l’élargir (automatiquement) à tous les services
d'un même DC (SD+PCC+PCI/VPS)
3) puis multi-dc, mais sachant que le vrack 2 est déjà multi-dc
dés que le 2) est fait, ça sera multi-dc, juste on aura à changer
la techno entre les DC pour utiliser les 100G au lieu de Nx10G
Il faut compter 6 semaines entre le 1) et 3). Le 1) commence
la semaine prochaine. On attend le matos pour finir le 2) et
le 3) et complétement arrêter le vrack 2.0 qui va mourir au
profit de vrack 3: 100% vxlan de bout à bout.
Comment ça va marcher?
— Le vRack de PCI/VPS est un vrack standard. Un segment L2,
un mega bridge multi dc par client qui peut se terminer sur
chaque service chez ovh. C'est l'eth1 de serveurs dédiés si
on veut. Sur ce segment vous pouvez créer 4000 vlan. Par
exemple le vlan 123 c'est eth1.123.
Sur le PCI on vous configure un vlan spécifique par interface,
c'est à dire vous allez pouvoir configurer le vlan 123 sur eth1
directement. Pas besoin de faire eth1.123, le vlan 123 est déjà
specifié de notre côté. Plus tard, on va vous proposer aussi
tout les vrack entier sur une seule interface ethX puis vous
allez pouvoir configurer vous même les vlans que vous voulez
eth5.123 eth5.1984 etc.
toujours plus et moins cher
— En parallèle, nous travaillons sur l'accélération de traitement
de packets dans le PCI/VPS. Vous savez qu'Ovh a fait son
propre router à la base de X86. On gère 160Gbps/160Mpps
par châssis. On est en train de préparer la mise en place du
vR sur RBX1, un petit DC avec les Kimsufi où nous avons 80Gbps
de trafic Aujourd'hui, le routage est assuré par 2 ASR9001
avec 120Gbps de capa chaque. Demain, on aura 4x vR avec
4x160Gbps de capa et ceci pour 10% du prix des ASR9K
Cette même techno est portée dans les hosts de PCI/VPS
afin de supporter 10Gbps/10Mpps (25Gbps/25Mpps demain).
Il nous manque encore quelques devs mais pour fin mars
on devrait l’intégrer dans tous les hosts de PCI/VPS. Le gros
avantage est qu'un DDoS n'aura plus aucun impact sur les
hosts ni sur les VM hébergés sur ce host. Ça sera routé comme
un routeur vR.
Le cerise sur le gâteau: nous sommes en train d’intégrer
le VAC + l'Anti-DDoS GAME sur le vR. C'est à dire par défaut
on veut protéger tous les clients sans détecter les DDoS.
24/24 par défaut tous les packets sont analysés en input
et output. RBX1 sera le 1er à avoir cette techno et les autres
DC vont suivre. On devrait être 100% vR pour la fin 2016
et donc de faire x10 sur les capacités de nos DCs pour un
coût de 10%.
L'Anti-DDoS de vR sera porté sur les hosts PCI/VPS et donc
ça sera pareil pour les VPS, c'est à dire 100% de PCI et VPS
seront protégés 24/24.
On est en train de terminer le VAC4 pour GRA en se basant
sur le vR + Anti-DDoS. Le VAC4 sera comme le VAC1/2/3
sauf qu'il coutera 10% du prix. On va pouvoir donc le déployer
massivement dans nos 12 nouveaux DCs, sans limite de
capacité de traitement. On parle de VAC5 à VAC16 dans
les 18 mois à venir.
Amicalement
Octave
February Newsletter
The OVH Public Cloud is leading CloudScreener's ranking
Using comparison software, CloudScreener thoroughly assesses the infrastructures of more than 30 providers, including AWS, Google, Microsoft Azure and OVH. Each evaluation is based on several criteria, notably RAM, CPU or disk responsiveness.
www.ovh.ie/news/cp2073.ovh_public_cloud_is_leading_cloudscreeners_ranking
Enhanced Public Cloud Control Panel!
You can now enjoy new features in your Control Panel: post installation script, ability to launch 10 identical machines in one click, shortcuts for everyday IP tasks (reverse DNS, anti-DDoS mitigation, and firewall)…
Dedicated Cloud: towards maintenance as a Service
Our new module helps you monitor and manage your infrastructure.
Go to the «Operations» tab in your control panel.
Get into the .cloud!
Buy your domain for only €17.99 excl. VAT for the first year
www.ovh.ie/domains/dotcloud.xml
GRA the new electricity pylon for our DC. 225kV +40MVA
OVH Public Cloud awarded 2nd place in North-America
POP Frankfurt,DE. Upgrade 100Gbps DWDM SBG/FRA + RBX/FRA + GRA/FRA
Garanties de BP sur 10G/25G et qq news
Bonjour,
On est en train de mettre en place de réseau dans
le DC où on pourra garantir 10G et 25G, aussi bien
en réseau public et réseau privé (vrack). C'est un
nouveau réseau qui coute un peu plus cher que
le réseau 10G qu'on a actuellement. Et on veut pas
toucher aux prix qu'on vous propose. Ca marche
très bien et on veut rien changer.
On a donc décidé que:
1)
les serveurs HOST qui ont 10G en réseau public
et privé, auront une limité de 3Gbps par port
aussi bien sur le réseau public vers exterieur (ça
c'est historique), mais aussi vers les IP d'Ovh à
l’intérieur du réseau et sur le vrack. C'est une
offre très compétitive et le fait de limiter le
trafic à 3Gbps au lieu de 10Gbps à l’intérieur de
nos DCs ne devrait pas poser de gros problèmes
à beaucoup de clients.
2)
les serveurs mHG, HG, BigHG, FS qui ont des
interfaces 10G auront une limite de 3Gbps vers
extérieur (comme aujourd'hui) et on va changer
le réseau pour garantir le 10G entre les serveurs
d'ovh aussi bien sur le réseau public que le vrack.
Ca passera par le changement de tous les switchs
dans les baies (aie) et la mise en place de 160Gbps
(4x40G) de capacité par baie minimum.
3)
On a proposé EG-128 2014 avec du 10G. Il va
évoluer comme le HOST. Pour l'instant. Car on
réfléchit comment évoluer la gamme EG pour
vous proposer du 10G garantie. Cette réflexion
inclue une nouvelle fonctionalité qu'on veut
proposer sur les mHG/HG/BigHG/FS et donc EG.
Vous avez 2 ports et vous pouvez choisir à n'importe
lequel moment de faire:
— 1x10G réseau public et 1x10G vrack
— 2x10G le réseau public, pas de vrack
— pas de réseau public, 2x10G vrack
A chaque fois, c'est du FULL HA, c'est à dire que
chaque 10G est attaché à un équipement différent.
Et donc si vous avez 2x10G en LAG, c'est un LAG
multi-chassis sur 2 équipements. Si l'un est mort
ça marche toujours sur l'autre. C'est exactement
la configuration qu'on fait sur le PCC et on veut
vous la proposer sur le SD. Ca coute un peu plus
cher mais on souhaite l'inclure dans le prix de
la série HG, FS et EG (mais il faut encore regarder).
4)
on va sortir bientôt les HG / FS avec les interfaces
25Gbps garantie. C'est top pour les gros clusters
de HBase par exemple ou de CEPH, Swift. Bref
du stockage avec de Peta de données
5)
enfin, le plus beau pour la fin. Aujourd'hui quand
vous prenez un SD, vous avez une IP dans un vlan
avec 240/250 autres clients. On veut vous proposer
un vlan par serveur ou par client (à vous de choisir).
Vous êtes seul dans votre vlan et vous avez un /32.
Vous pouvez ajouter les autres serveurs dedans
et donc d'avoir plusieurs /32 pour chaque serveurs.
Si vous prenez une /24, elle est dans votre vlan
et vous pouvez distribuer les /32 sur tous les serveurs
et faire une migration de /32 directement sans nous.
C'est un peu comme le vrack aujourd'hui quand on
accroche le réseau public. Cette configuration on
vous la proposer par défaut sur tous les serveurs
Ovh. A côté de ça, le vrack, le réseau privé sera
vraiment privé sans possibilité de faire router les
IP public, mais vous aurez un VPN pour entrer
dedans. Bien sûr ces réseaux public et privé sont
compatibles PCC et PCI/VPS avec la même logique.
Bref, ça bosse dur et on continue d'innover.
Amicalement
Octave
On est en train de mettre en place de réseau dans
le DC où on pourra garantir 10G et 25G, aussi bien
en réseau public et réseau privé (vrack). C'est un
nouveau réseau qui coute un peu plus cher que
le réseau 10G qu'on a actuellement. Et on veut pas
toucher aux prix qu'on vous propose. Ca marche
très bien et on veut rien changer.
On a donc décidé que:
1)
les serveurs HOST qui ont 10G en réseau public
et privé, auront une limité de 3Gbps par port
aussi bien sur le réseau public vers exterieur (ça
c'est historique), mais aussi vers les IP d'Ovh à
l’intérieur du réseau et sur le vrack. C'est une
offre très compétitive et le fait de limiter le
trafic à 3Gbps au lieu de 10Gbps à l’intérieur de
nos DCs ne devrait pas poser de gros problèmes
à beaucoup de clients.
2)
les serveurs mHG, HG, BigHG, FS qui ont des
interfaces 10G auront une limite de 3Gbps vers
extérieur (comme aujourd'hui) et on va changer
le réseau pour garantir le 10G entre les serveurs
d'ovh aussi bien sur le réseau public que le vrack.
Ca passera par le changement de tous les switchs
dans les baies (aie) et la mise en place de 160Gbps
(4x40G) de capacité par baie minimum.
3)
On a proposé EG-128 2014 avec du 10G. Il va
évoluer comme le HOST. Pour l'instant. Car on
réfléchit comment évoluer la gamme EG pour
vous proposer du 10G garantie. Cette réflexion
inclue une nouvelle fonctionalité qu'on veut
proposer sur les mHG/HG/BigHG/FS et donc EG.
Vous avez 2 ports et vous pouvez choisir à n'importe
lequel moment de faire:
— 1x10G réseau public et 1x10G vrack
— 2x10G le réseau public, pas de vrack
— pas de réseau public, 2x10G vrack
A chaque fois, c'est du FULL HA, c'est à dire que
chaque 10G est attaché à un équipement différent.
Et donc si vous avez 2x10G en LAG, c'est un LAG
multi-chassis sur 2 équipements. Si l'un est mort
ça marche toujours sur l'autre. C'est exactement
la configuration qu'on fait sur le PCC et on veut
vous la proposer sur le SD. Ca coute un peu plus
cher mais on souhaite l'inclure dans le prix de
la série HG, FS et EG (mais il faut encore regarder).
4)
on va sortir bientôt les HG / FS avec les interfaces
25Gbps garantie. C'est top pour les gros clusters
de HBase par exemple ou de CEPH, Swift. Bref
du stockage avec de Peta de données
5)
enfin, le plus beau pour la fin. Aujourd'hui quand
vous prenez un SD, vous avez une IP dans un vlan
avec 240/250 autres clients. On veut vous proposer
un vlan par serveur ou par client (à vous de choisir).
Vous êtes seul dans votre vlan et vous avez un /32.
Vous pouvez ajouter les autres serveurs dedans
et donc d'avoir plusieurs /32 pour chaque serveurs.
Si vous prenez une /24, elle est dans votre vlan
et vous pouvez distribuer les /32 sur tous les serveurs
et faire une migration de /32 directement sans nous.
C'est un peu comme le vrack aujourd'hui quand on
accroche le réseau public. Cette configuration on
vous la proposer par défaut sur tous les serveurs
Ovh. A côté de ça, le vrack, le réseau privé sera
vraiment privé sans possibilité de faire router les
IP public, mais vous aurez un VPN pour entrer
dedans. Bien sûr ces réseaux public et privé sont
compatibles PCC et PCI/VPS avec la même logique.
Bref, ça bosse dur et on continue d'innover.
Amicalement
Octave