banner
Centre d'Information
Composants de premier ordre, gestion précise de la qualité.

Ethernet 100 Gb/s

Aug 19, 2023

Avez-vous besoin d'Ethernet 100 Gbit/s ? Les vraies questions semblent être de savoir si vous êtes prêt à payer pour cela et, compte tenu de la croissance du trafic au sein du centre de données, si cela est inévitable.

Profitez de cet article ainsi que de tout notre contenu, y compris des guides électroniques, des actualités, des conseils et bien plus encore.

Vous avez oublié de fournir une adresse e-mail.

Cette adresse e-mail ne semble pas valide.

Cette adresse email est déjà enregistrée. Veuillez vous connecter.

Vous avez dépassé la limite maximale de caractères.

Veuillez fournir une adresse e-mail professionnelle.

Veuillez cocher la case si vous souhaitez continuer.

Veuillez cocher la case si vous souhaitez continuer.

En soumettant mon adresse e-mail, je confirme avoir lu et accepté les conditions d'utilisation et la déclaration de consentement.

La norme a été ratifiée en 2010 en tant que IEEE 802.3ba. Il a été inventé par Bob Metcalfe et Dave Boggs au Xerox PARC en 1973 et offrait ce qui était alors un énorme 2,94 Mbps.

Avance rapide de 40 ans et l'Ethernet 1 Gbit/s (1GbE) est courant dans le LAN, les puces qui alimentent les ports Ethernet sont efficaces et presque gratuites, et 1GbE est assez bon pour les besoins de la plupart des utilisateurs.

Dans le centre de données, cependant, c'est une autre histoire. Selon Cisco, le trafic IP mondial des centres de données va presque quadrupler au cours des cinq prochaines années, avec un taux de croissance annuel composé de 31 %.

Il y a un certain nombre de raisons à cela, mais une croissance énorme des volumes et des types de trafic passant par le centre de données joue le rôle le plus important. Au fur et à mesure que les données s'enrichissent et augmentent en taille, en raison de l'augmentation du nombre d'appareils mobiles toujours actifs, des ordinateurs de bureau d'entreprise centralisés ou de l'explosion du cloud computing, pour n'en citer que quelques-uns, une pression accrue se fait sentir au niveau du back-end.

La virtualisation a également profondément modifié les modèles de données des centres de données. Traditionnellement, le trafic consistait en des sources externes faisant des demandes à partir d'un serveur à l'intérieur du centre de données, suivies de la réponse du serveur. Ce modèle a conduit à des réseaux à trois niveaux, les couches d'accès, d'agrégation et de commutation centrale devenant la topologie de réseau de centre de données par défaut, et la densité de trafic étant la plus faible au niveau de la couche d'accès, augmentant à mesure que vous vous rapprochiez du cœur.

Tout cela a changé. Le rapport Global Cloud Index de Cisco a montré que 76 % du trafic reste désormais dans le centre de données. Une grande partie du trafic concerne désormais la séparation des fonctions allouées aux différents serveurs à l'intérieur de l'installation, telles que les applications, le stockage et les bases de données. Ceux-ci génèrent ensuite du trafic pour la sauvegarde et la réplication et un trafic de lecture/écriture dans le centre de données.

Des technologies telles que VMware vMotion déplacent les machines virtuelles dans le centre de données. La virtualisation du stockage, qui, entre autres attributs, fait apparaître plusieurs baies comme une seule entité, augmente également les volumes de transferts automatisés de gros volumes de données dans l'ensemble de l'installation. Le traitement parallèle divise ensuite les tâches en morceaux et les distribue.

Les pages Web d'aujourd'hui sont plus complexes que les demandes source-serveur et inversement, ce qui entraîne des accès aux données pour une seule page Web à partir de plusieurs emplacements au sein du centre de données.

De plus, selon Shaun Walsh, vice-président senior du marketing chez Emulex, des applications telles que le trading financier à haut débit, l'analyse et le tri des transactions par carte de crédit créent de nombreuses petites communications qui restent dans le rack et nécessitent une connectivité à haut débit.

Les réseaux de centres de données commencent à se modifier pour s'adapter à ces modèles de trafic changeants. Au lieu d'une architecture conçue pour acheminer le trafic des serveurs vers la périphérie du réseau et vice versa - connu sous le nom de trafic nord-sud - ils deviennent des structures, avec tous les nœuds interconnectés, permettant une bande passante à haut débit pour la connectivité est-ouest comme Bien.

Selon Clive Londubat, fondateur du cabinet d'analystes Quocirca, ces tissus de réseau de centres de données engendrent un besoin considérable de bande passante supplémentaire.

"La nécessité de faire face à l'augmentation du trafic est-ouest signifiera que le 100GbE est le meilleur moyen de gérer la latence dans le centre de données, à condition que les bons outils soient en place pour garantir que tout fonctionne efficacement", a-t-il déclaré.

Vitesses Ethernet utilisées

"Avec le temps, il deviendra alors le noyau pour remplacer le 10GbE, le 10GbE devenant le remplaçant du 1GbE [technologie en cascade standard]", ajoute Londubat.

Ainsi, les nouveaux modèles de trafic et les nouvelles structures de réseau stimulent la demande de bande passante, mais les technologies de réseau sont-elles prêtes à relever ce défi ? En ce qui concerne les serveurs, la réponse est non.

Selon l'organisme de normalisation IEEE dans son rapport Industry Connections Ethernet Bandwidth Assessment en 2012, un grand changement est en cours, passant de l'Ethernet 1GbE dans le centre de données à 10 Gbit/s. Ses recherches ont montré en 2011 que les ports de serveur 10 Gbit/s représentaient environ 17 % du total, mais qu'ils devraient atteindre 59 % en 2014 à mesure que davantage de serveurs équipés de bus PCIe 3.0 seront mis en ligne.

En d'autres termes, le 10GbE est là maintenant - et vous pouvez trouver de nombreux serveurs avec quatre ports 10GbE en standard.

Cependant, chaque serveur hôte de virtualisation ayant besoin d'au moins deux ports Ethernet à des fins de redondance, pour passer à 100 GbE afin de fournir la bande passante complète sur les deux ports, une autre génération de bus de serveur à bande passante plus élevée sera nécessaire.

Le rapport IEEE disait : « La prochaine génération de PCIe prendra en charge 100 Gbit/s dans une configuration x8, mais l'avenir de PCIe était inconnu au moment de la rédaction de cette évaluation. Il a été suggéré que PCIe 4.0 permettrait d'activer deux ports de serveur Ethernet 100 Gbit/s à partir de 2015. ."

Le PCI-SIG, l'organisme de pilotage du PCIe, soutient cette évaluation. "Les spécifications PCIe 4.0 finales, y compris les mises à jour des spécifications du facteur de forme, devraient être disponibles fin 2015", a-t-il déclaré.

Les serveurs haut de gamme incluent aujourd'hui des ports 10GbE, mais les projets de l'IEEE prévoient que le 40GbE supplantera ceux d'ici un an environ, le 100GbE apparaissant vers 2015. Cependant, Walsh d'Emulex affirme que même le PCIe 4.0 ne suffira pas aux besoins du 100GbE.

"Intel parle d'un nouveau remplacement pour PCIe 4.0 qui n'arrivera pas avant 2017-18", dit-il, qui répondra mieux aux exigences des technologies de réseau à bande passante plus élevée.

Mais l'IEEE se préoccupe principalement des besoins en bande passante, moins si ce besoin peut être satisfait par une seule technologie. Aujourd'hui, des racks de serveurs délivrent et reçoivent régulièrement des centaines de gigabits par seconde en utilisant l'agrégation, généralement de liaisons 10GbE ou 40GbE.

Selon Tim Boerner, ingénieur réseau senior au National Center for Supercomputing Applications (NCSA) de l'Université de l'Illinois, l'agrégation de la technologie 40GbE est semée d'embûches.

Le NCSA utilise ses ressources de calcul pour des calculs tels que la simulation de la façon dont les galaxies entrent en collision et fusionnent, comment les protéines se replient et comment les molécules se déplacent à travers la paroi d'une cellule.

Le projet Blue Waters du NCSA abrite quelque 300 To et doit déplacer 300 Gbit/s des clusters de serveurs via une structure Ethernet vers un système d'archivage ou vers une destination externe. Il utilise la technologie 40GbE d'Extreme Networks et le protocole d'agrégation de liens (LACP) pour déplacer ses gros volumes de données.

Boerner dit que l'agrégation peut fournir "de bons chiffres [de performances] avec un transfert suffisant", mais "ce que vous rencontrez n'est pas une limite du réseau mais la difficulté de jongler avec la façon dont les E/S sont affectées à différents processeurs et emplacements PCI".

Malgré les difficultés associées à l'agrégation, la NCSA a délibérément décidé de ne pas opter pour le 100GbE. "Ce serait une dépense énorme d'opter pour le 100GbE et d'avoir tous les périphériques sur ce système", déclare Boerner.

Il considère que le fait que le NCSA soit un département de recherche est un avantage lors de la mise en place de tels réseaux. "Nous avons beaucoup de compétences en matière de réglage des performances et pouvons prendre du temps pour atteindre ces objectifs d'une manière qu'une entreprise pourrait ne pas trouver rentable. Venant du secteur privé, je sais qu'ils veulent que cela se branche et fonctionne." il dit.

"Ces liens entre commutateurs, l'accès à l'agrégation et l'agrégation au cœur, sont là où nous verrons l'essentiel du 40GbE et du 100GbE utilisé à court et moyen terme", déclare Brian Yoshinaka, ingénieur marketing produit pour la division LAN Access d'Intel. .

Les principaux fournisseurs de réseaux, tels que Cisco, Juniper et Brocade, vendent déjà des commutateurs et des routeurs compatibles 100GbE, principalement destinés aux structures de centres de données pour les utilisateurs tels que les opérateurs de télécommunications et les fournisseurs de cloud. Les grandes entreprises disposent désormais des outils nécessaires pour créer des réseaux en tissu, et comme la technologie existe, il est possible de construire un tel réseau à haut débit.

Mais les ports de commutation 40GbE coûtent en moyenne 2 500 $ chacun, ce qui fait que le 100GbE est loin d'être l'option bon marché.

Une alternative est l'agrégation de liens, une technique utilisée par de nombreuses personnes, y compris le National Center for Supercomputing Applications (NCSA) de l'Université de l'Illinois. Une limitation à l'agrégation est que tous les ports physiques groupés doivent résider sur le même commutateur, bien qu'il existe des moyens de contourner cela. Il y a cependant un autre problème, plus fondamental.

« À court terme, les réseaux fabric peuvent masquer le besoin [de 100 GbE] en agrégeant les liens pour créer toute la bande passante nécessaire », déclare Londubat. "Ceux qui ne regardent pas le tissu ne sont probablement pas du genre à avoir besoin de 100 Gbps de si tôt.

"Mais si vous vous en tenez à Ethernet Cat6, il n'y a qu'un nombre limité de ports dans un espace, et si vous en utilisez 10 pour créer l'équivalent d'un port, cela devient coûteux en espace, en câbles et en énergie à transporter. sur ce chemin », dit-il.

Les entreprises commencent seulement maintenant à acheter des ports 10 Gbit/s en grand nombre, de sorte que les prix des ports plus rapides devraient rester élevés dans un proche avenir. De plus, le coût des périphériques et des technologies telles que les inspecteurs de paquets et les outils de gestion restera également élevé et devra être compatible avec le 100GbE.

Ainsi, le 40GbE est une route plus rentable à moyen terme. En outre, les gestionnaires de réseau de centres de données peuvent s'attendre à ce que l'entreprise sous-traite des volumes importants de trafic à divers fournisseurs de cloud, ce qui les dispense d'avoir à réfléchir et à payer pour des mises à niveau coûteuses du réseau.

Ceux qui optent pour le 100GbE se sont probablement armés d'un argumentaire financier très puissant pour investir dans la technologie à ce stade.

Avez-vous besoin d'Ethernet 100 Gbit/s ? Les vraies questions semblent être de savoir si vous êtes prêt à payer pour cela et, compte tenu de la croissance du trafic au sein du centre de données, si cela est inévitable. Clive Londubat