Рейтинг
0.00

Дата-центры OVH

34 читателя, 1208 топиков

Новые трансатлантические сети 6x100G

Un nouveau lien 100G sous l'Atlantique pour les clients d'OVH

Pour prendre en charge un trafic sans cesse croissant, l'équipe réseau d'OVH a mis en production mardi 15 mars un nouveau lien sous l'Atlantique. Partant de Skewjack au Royaume-Uni, il rejoint Northport, aux États-Unis en empruntant le câble sous-marin FLAG Atlantic-1.

Chaque jour, plus de 12 pétabits (plus d'une dizaine de milliers de térabits) de données transitent sous l'Atlantique par le réseau détenu en propre par OVH. Développé progressivement, ce réseau débouche depuis plusieurs années sur de nombreux points de présence aux États-Unis et relie les datacentres d'Amérique du Nord aux 14 autres datacentres européens du groupe. En septembre 2015, Laurent Allard a annoncé lors de l'OVH Summit la construction de nouveaux datacentres à travers le monde, dont deux aux États-Unis, situés respectivement sur la côte Est et Ouest du pays. C'est pour soutenir cette hausse de trafic continue que de nouveaux liens sont mis en place entre le continent européen et l'Amérique du Nord.

Pour Antoine Guenet, membre de l'équipe Network d'OVH, la mise en production de ce lien transatlantique représente un progrès pour les clients du groupe. Avec une latence de 67 ms aller/retour, ce nouveau lien permet d'échanger plus rapidement un plus grand nombre d'informations et offre la possibilité à OVH d'envoyer au plus près des opérateurs locaux le trafic de ses clients. Le groupe a ainsi signé des accords avec des opérateurs américains tels que Comcast, Cox, Bell ou Videotron pour une interconnexion directe avec son propre réseau.

Des fibres reliaient déjà les deux continents depuis plusieurs années, mais OVH a passé ce 15 mars 2016 un nouveau cap en mettant en production un nouveau lien 100G reliant le Royaume-Uni aux États-Unis. Passant sous l'Atlantique, ce câble peut faire transiter jusqu'à 100G de données chaque seconde. Dans les semaines qui viennent, ce seront plusieurs nouveaux liens 100G qui seront mis en place, faisant ainsi passer la capacité globale du réseau transatlantique à 6x100G.

On parle de VAC5 à VAC16 dans les 18 mois à venir

Bonjour,
Nous allons proposer le vRack sur le PCI/VPS. Le Public Cloud.
On va le dérouler en plusieurs étages:

1) d'abord, vous allez pouvoir créer un vrack entre les VM d'un
même DC
2) en suite, on va l’élargir (automatiquement) à tous les services
d'un même DC (SD+PCC+PCI/VPS)
3) puis multi-dc, mais sachant que le vrack 2 est déjà multi-dc
dés que le 2) est fait, ça sera multi-dc, juste on aura à changer
la techno entre les DC pour utiliser les 100G au lieu de Nx10G

Il faut compter 6 semaines entre le 1) et 3). Le 1) commence
la semaine prochaine. On attend le matos pour finir le 2) et
le 3) et complétement arrêter le vrack 2.0 qui va mourir au
profit de vrack 3: 100% vxlan de bout à bout.

Comment ça va marcher?
— Le vRack de PCI/VPS est un vrack standard. Un segment L2,
un mega bridge multi dc par client qui peut se terminer sur
chaque service chez ovh. C'est l'eth1 de serveurs dédiés si
on veut. Sur ce segment vous pouvez créer 4000 vlan. Par
exemple le vlan 123 c'est eth1.123.

Sur le PCI on vous configure un vlan spécifique par interface,
c'est à dire vous allez pouvoir configurer le vlan 123 sur eth1
directement. Pas besoin de faire eth1.123, le vlan 123 est déjà
specifié de notre côté. Plus tard, on va vous proposer aussi
tout les vrack entier sur une seule interface ethX puis vous
allez pouvoir configurer vous même les vlans que vous voulez
eth5.123 eth5.1984 etc.

toujours plus et moins cher
— En parallèle, nous travaillons sur l'accélération de traitement
de packets dans le PCI/VPS. Vous savez qu'Ovh a fait son
propre router à la base de X86
. On gère 160Gbps/160Mpps
par châssis. On est en train de préparer la mise en place du
vR sur RBX1, un petit DC avec les Kimsufi où nous avons 80Gbps
de trafic Aujourd'hui, le routage est assuré par 2 ASR9001
avec 120Gbps de capa chaque. Demain, on aura 4x vR avec
4x160Gbps de capa et ceci pour 10% du prix des ASR9K

Cette même techno est portée dans les hosts de PCI/VPS
afin de supporter 10Gbps/10Mpps (25Gbps/25Mpps demain).
Il nous manque encore quelques devs mais pour fin mars
on devrait l’intégrer dans tous les hosts de PCI/VPS. Le gros
avantage est qu'un DDoS n'aura plus aucun impact sur les
hosts ni sur les VM hébergés sur ce host. Ça sera routé comme
un routeur vR.

Le cerise sur le gâteau: nous sommes en train d’intégrer
le VAC + l'Anti-DDoS GAME sur le vR. C'est à dire par défaut
on veut protéger tous les clients sans détecter les DDoS.
24/24 par défaut tous les packets sont analysés en input
et output. RBX1 sera le 1er à avoir cette techno et les autres
DC vont suivre. On devrait être 100% vR pour la fin 2016
et donc de faire x10 sur les capacités de nos DCs pour un
coût de 10%.

L'Anti-DDoS de vR sera porté sur les hosts PCI/VPS et donc
ça sera pareil pour les VPS, c'est à dire 100% de PCI et VPS
seront protégés 24/24.

On est en train de terminer le VAC4 pour GRA en se basant
sur le vR + Anti-DDoS. Le VAC4 sera comme le VAC1/2/3
sauf qu'il coutera 10% du prix. On va pouvoir donc le déployer
massivement dans nos 12 nouveaux DCs, sans limite de
capacité de traitement. On parle de VAC5 à VAC16 dans
les 18 mois à venir.

Amicalement
Octave