Conduire à 100G sans visibilité - Le petit secret du marché de la surveillance

Par :
Tim Nichols

lun, 29/04/2013 - 12:58

Selon les dernières données d'Infonetics, les réseaux 100G prennent réellement de l'ampleur et pas seulement parmi les entreprises de télécommunications. Si vous regardez la messagerie  de n'importe quel grand fournisseur d'infrastructure, ils poussent tous les systèmes de commutation 40G et 100G, seuls capables de déplacer de grandes quantités de données dans le datacenter. Par : Tim Nichols - Endace.

sIl est intéressant de noter que le 100G ne se limite pas aux centres de données. L'ESnet (Internet 2) a annoncé il y a quelques mois que ces fournisseurs raccordaient les centres de recherche sur l'Internet public à 100G pour aider les chercheurs à accéder à de grandes quantités de données.


C'est sûr que 100 Gigabits de données (ou 12,5 Go) c'est une grande quantité de données. Mais cela représente quoi concrètement ? Concrètement, en 1 seconde, un lien 100G à pleine charge devrait pouvoir  transmettre les éléments suivants:
4 films d'Avengers
4 167 chansons de Lady Gaga
41 667 ebooks Kindle
178 571 flux Netflix simultanés "Breaking Bad"
1 250 000 appels téléphoniques skype
89 285 714 SMS 'LOL'
 
Le 100G n'est pas pour tout le monde pour des raisons évidentes, mais les grandes banques, les instituts de recherche, les telcos, les prestataires de services et les entreprises de loisirs et de médias sont les premiers à devoir l'utiliser. L'aspect économique des réseaux 100G est en fait très convaincant par rapport au réseau 10 Gbps. Sur fibre optique, un lien 10 Gbps consomme une fibre et utilise un connecteur ; le 100G livré avec une fibre optique 10 Gbps SR consomme 10 fibres  reliées entre elles mais avec un seul connecteur. La technologie 100G de type LR / ER  est encore plus efficace, et ne consomme qu'une fibre et un connecteur, soit dix fois plus d'efficacité. Donc, si vous déplacez beaucoup de données, alors vous devez choisir le 100G.


Malheureusement, déployer du 100G et travailler en 100G sont deux choses différentes. D'un point de vue informatique, les segments de réseau 100G sont comme n'importe quel autre segment, ils doivent être surveillés, analysés et enregistrés afin que les problèmes puissent être détectés et étudiés avant que les utilisateurs soient impliqués.


Contrairement aux  segments 10 Gbps qui peuvent être adaptés directement à un port de contrôle 10 Gbps sur une plate-forme d'analyse ou IDS, il n'existe pas de système de surveillance 100G. Rien, nada,niet. La vraie vérité c'est que l'industrie de la surveillance a été prise au dépourvu. Aujourd'hui, quiconque exploite un réseau 100G le fait à l'aveuglette. Vous ne conduisez jamais votre voiture les yeux bandés, alors pourquoi gérer votre réseau de cette façon ?


En fait, ce n'est pas la première fois que cette situation se présente. En 2008, lorsqu'apparut le 10 Gbps, la plupart des entreprises qui avaient à l'époque des infrastructures de surveillance à 1Gbps ont été confrontées au même problème. La réponse a pris la forme d'une matrice de commutation de couche 1, que Gartner a appelée Network Packet Brokers au début 2013. Les NBP ont résolu le problème presque du jour au lendemain par l'ingestion du trafic 10 Gbps et en équilibrant les charges sur plusieurs ports à 1 Gbps pouvant être connectés à l'infrastructure 1 Gbps existante. Au cours des 5 dernières années, ce marché a évolué pour devenir une industrie de 250 millions de dollars, aidant les entreprises à accéder, filtrer, équilibrer les charges et dupliquer le trafic réseau 10 Gbps et 1 Gbps.


Donc la question est  : "Pourquoi l'histoire ne s'est-elle pas répétée avec le 100G ?" Eh bien, le moment venu, elle se répétera certainement, mais il ya quelques problèmes majeurs que les fournisseurs de solutions de  surveillance et de NBP doivent surmonter et gérer.


Tout d'abord, le 100G est beaucoup plus compliqué à gérer que le 10 Gbps. Le marché du NBP est d'aujourd'hui basé sur des puces standards (équivalentes à celles qu'on trouvait  dans les commutateurs Ethernet standards) qui conviennent parfaitement pour  déplacer le trafic 10Gbps mais elles ne vont pas suffire pour répondre aux exigences du 100G. Il va falloir prendre une approche architecturale différente en utilisant éventuellement une technologie différente pour répondre à la multiplication par 10 du débit  et cela semble être au-delà de la portée et de la capacité de la plupart, sinon la totalité de l'ensemble actuel des fournisseurs de NBP.


Deuxièmement, il ya un problème fondamental avec  les outils 10 Gbps qui va faire des dégâts dans le monde du 100G. La triste vérité est que très peu, sinon aucun outil de surveillance et de sécurité sur le marché aujourd'hui  prenant en charge les ports 10 Gbps n'est effectivement capable de fonctionner à 10 Gbps pour une période de temps prolongée. Les performances à 10 Gbps peuvent varier de 1 à 5 Gbps, mais sont rarement près de 10. À un certain moment, les technologies traditionnelles basées sur la capture de paquets de plus de 2 Gbps sur lesquels la plupart des outils de surveillance et de sécurité sont construits commencent à laisser s'échapper les  paquets.


La question de la perte de paquets est largement ignorée par la plupart des organisations et des fournisseurs d'aujourd'hui, mais elle viendra à l'esprit quand il va s'agir de la surveillance 100G parce que le type d'entreprises qui achètent du 100G se soucient vraiment de ce genre de choses et poseront des questions difficiles que la plupart les gens ont tenté de contourner au cours des 5 dernières années. Peut-être le 100G va-t-il enfin résoudre le problème des pertes de paquets 10 Gbps ?

Tim Nichols - Endace

A propos de l'auteur

Tim Nichols