Quel switch data center choisir ?
Critères fondamentaux pour un switch data center
Un switch data center se distingue radicalement d'un switch campus par cinq caractéristiques non négociables : une densité de ports haut débit (25G/100G/400G au lieu de 1G), une latence inférieure à 2µs (contre 5-10µs pour du campus), une capacité de buffer adaptée aux rafales (40-80MB), le support natif des protocoles overlay (VXLAN, EVPN avec BGP control plane), et une résilience hardware complète (alimentations redondantes hot-swap, ventilateurs N+1). Si votre switch ne coche pas ces cinq cases, vous n'achetez pas du data center — vous achetez du campus mal positionné.
Le choix se fait ensuite sur trois axes : le rôle dans la fabric (leaf ToR vs spine vs border), le débit cible par port (25G server access, 100G uplink, 400G spine), et l'écosystème d'automatisation (Cisco ACI/NDFC, Juniper Apstra, ou NX-OS/Junos standalone avec Ansible).
Cisco Nexus 9300 : la référence du marché
Positionnement et modèles clés
La gamme Nexus 9300 est le standard de facto du data center enterprise en France et en Europe. Cisco détient environ 45% du marché switching data center mondial. La gamme 9300 couvre les rôles leaf et border dans les fabrics spine-leaf, avec des modèles fixes 1U allant de 48×10G jusqu'à 36×400G.
Modèles les plus déployés en 2024-2026 :
- N9K-C93180YC-FX (C93180YC-FX) : 48× 10/25G SFP28 + 6× 100G QSFP28. Le leaf universel. Latence ~1µs. Buffer 40MB partagé. Prix OPTINOC : ~12 000-15 000€ HT.
- N9K-C9336C-FX2 : 36× 40/100G QSFP28. Le spine standard pour fabrics 100G. Peut aussi servir de leaf haute densité 100G. Prix : ~18 000-22 000€ HT.
- N9K-C9332D-GX2B : 32× 400G QSFP-DD. Le spine nouvelle génération 400G. Pour les fabrics qui visent le 400G dès aujourd'hui. Prix : ~45 000-55 000€ HT.
- N9K-C9364C-GX : 64× 40/100G QSFP28. Très haute densité, idéal pour spine ou super-spine. Prix : ~30 000-35 000€ HT.
- N9K-C9316D-GX : 16× 400G QSFP-DD. Compact 400G, parfait pour DCI ou spine petit DC. Prix : ~35 000-40 000€ HT.
NX-OS standalone vs ACI
Deux modes opératoires existent pour les Nexus 9300. En mode NX-OS standalone, le switch est autonome — vous le configurez en CLI ou via Ansible/Terraform, comme un routeur classique. C'est le mode recommandé pour les fabrics EVPN-VXLAN gérées par NDFC (Nexus Dashboard Fabric Controller) ou par automation maison.
En mode ACI (Application Centric Infrastructure), le switch est piloté par 3 contrôleurs APIC qui gèrent la fabric end-to-end avec un modèle intent-based (EPGs, contracts, VRFs). ACI est puissant pour les très grands DCs (>50 racks) mais la courbe d'apprentissage est raide (compter 6-12 mois pour maîtriser ACI). Pour les DCs petits et moyens (<50 racks), NX-OS standalone + NDFC est plus pragmatique.
Fonctionnalités EVPN-VXLAN sur Nexus
- VXLAN avec BGP-EVPN : Type-2 (MAC/IP), Type-5 (IP prefix), multi-tenancy via VRF/VNI. Standard depuis NX-OS 9.2.
- vPC (Virtual Port-Channel) : MLAG entre 2 Nexus pour dual-homing serveurs. Peer-keepalive + peer-link obligatoires.
- ITD (Intelligent Traffic Director) : load balancing L4 intégré au switch — évite un load balancer externe pour certains cas.
- Streaming telemetry : export continu des metrics vers Kafka/InfluxDB/Prometheus. Indispensable pour l'observabilité DC.
- Python on-box (Guest Shell) : scripts Python exécutables directement sur le switch. Pour automation, monitoring, et troubleshooting.
Juniper QFX5120/5130 : l'alternative Junos
Positionnement et modèles clés
Juniper QFX est le challenger principal face au Nexus, avec un argument de poids : Junos OS unifié sur toute la gamme (MX, SRX, EX, QFX) avec commits atomiques et rollback natif. Pour les équipes qui gèrent déjà du Juniper en routage (MX chez les opérateurs) ou en campus (EX), le QFX offre une cohérence opérationnelle imbattable.
- QFX5120-48Y : 48× 25G SFP28 + 8× 100G QSFP28. Latence ~550ns (la plus basse du marché dans cette gamme). Buffer 32MB. Le leaf modern par excellence. Prix OPTINOC : ~10 000-13 000€ HT.
- QFX5120-32C : 32× 100G QSFP28. Spine ou leaf 100G haute densité. Prix : ~15 000-18 000€ HT.
- QFX5130-32CD : 32× 400G QSFP-DD. Le spine 400G Juniper. Latence ~800ns. Buffer 64MB. Prix : ~40 000-48 000€ HT.
- QFX5700 : chassis 4 slots, jusqu'à 144× 400G. Pour les super-spines ou DCs très haute densité. Prix : ~80 000-100 000€ HT.
Avantages Junos pour le data center
- Commits atomiques : les changements de configuration sont appliqués en bloc ou pas du tout. Pas de half-config comme sur NX-OS si une ligne échoue.
- Rollback temporel : revenir à n'importe quelle version de la config des 49 derniers commits (rollback 25 = il y a 25 commits).
- Commit confirmed : sécurité contre le lock-out — si vous ne confirmez pas dans N minutes, la config revient automatiquement. Indispensable en remote.
- RPL (Routing Policy Language) : le langage de filtrage BGP le plus puissant et expressif du marché. Crucial pour les fabrics EVPN multi-tenant.
- NETCONF natif depuis 2003 : automation avec Ansible/Nornir/Salt sans wrapper — le switch parle NETCONF nativement.
Apstra : fabric automation multi-vendor
Juniper Apstra (acquis en 2021) est la plateforme intent-based pour automatiser les fabrics EVPN-VXLAN. Son avantage unique : le multi-vendor. Apstra gère nativement les QFX, mais aussi les Cisco Nexus, Arista EOS, SONiC, et NVIDIA Cumulus. Si vous avez une fabric mixte ou si vous envisagez une migration de Cisco vers Juniper (ou l'inverse), Apstra est la solution d'orchestration logique.
Blueprint Apstra : vous décrivez la fabric voulue (nombre de spines, leafs, VRFs, tenants), Apstra génère la configuration switch par switch et la déploie. À tout moment, Apstra compare l'état réel à l'intent et alerte en cas d'écart. Le troubleshooting est automatisé : 'votre VLAN 100 est isolé sur le leaf 12 → cause : route EVPN Type-2 manquante sur spine 2'.
Comparatif technique Nexus vs QFX
Sur les critères qui comptent en data center :
- Latence cut-through : QFX5120 = 550ns, Nexus 93180YC-FX = 1µs. Avantage QFX pour le HFT et les clusters GPU/storage latency-sensitive.
- Buffer : Nexus 93180YC = 40MB partagé, QFX5120-48Y = 32MB. Avantage Nexus pour les workloads burst-heavy (storage, backup).
- Densité 400G : N9K-C9332D = 32×400G, QFX5130-32CD = 32×400G. Parité.
- Écosystème automation : Cisco a ACI + NDFC + NX-API. Juniper a Apstra (multi-vendor) + Junos NETCONF natif. Avantage Juniper pour la pureté automation, Cisco pour l'écosystème intégré.
- Compétences marché France : Cisco domine largement (80%+ des ingénieurs DC ont du Cisco). Juniper progresse mais le recrutement est plus difficile.
- Prix : QFX5120 = 15-20% moins cher que Nexus 9300 à configuration équivalente. Sur un projet 32 switches, c'est 50-80K€ d'économie.
Dimensionnement d'une fabric spine-leaf
Calcul du nombre de spines
La règle fondamentale : chaque leaf doit être connecté à TOUS les spines. Le nombre de spines détermine la bande passante nord-sud (vers l'extérieur) et la résilience (perte d'un spine = dégradation linéaire, pas de coupure).
- Formule oversubscription : OS = (bande passante totale downlinks) / (bande passante totale uplinks vers spines).
- Exemple : leaf 48×25G = 1200G downlinks. Si 6 uplinks 100G vers 6 spines = 600G uplinks. OS = 1200/600 = 2:1.
- Cible standard : OS 3:1 acceptable pour workloads classiques (web, API, bases de données). OS 2:1 recommandé pour storage/backup. OS 1:1 (non-blocking) obligatoire pour AI/ML training et HPC.
Calcul du nombre de leafs
Le nombre de leafs dépend du nombre de serveurs et de la densité par rack :
- Standard : 1 leaf ToR par rack. Chaque rack contient 20-40 serveurs connectés en 25G.
- High-density : 2 leafs par rack (dual-ToR) pour redondance. Chaque serveur a 2 NICs vers 2 leafs différents (MLAG/vPC).
- Collapsed : 1 leaf pour 2-3 petits racks (économie mais single point of failure).
Exemple concret : DC de 200 serveurs, 10 racks, dual-ToR. → 20 leafs QFX5120-48Y + 4-6 spines QFX5130-32CD. Budget modules optiques : ~80K-120K€. Budget switches : ~300K-400K€ HT.
Fonctionnalités indispensables en 2026
- EVPN-VXLAN avec BGP : non négociable. C'est LE protocole fabric data center moderne. Si le switch ne le supporte pas, ne l'achetez pas.
- ECMP (Equal Cost Multi-Path) : répartition du trafic sur tous les chemins spine. Sans ECMP, votre fabric n'est pas une fabric.
- BFD (Bidirectional Forwarding Detection) : détection de panne sub-seconde (50ms) entre leaf et spine. Indispensable pour convergence rapide.
- Streaming telemetry (gNMI, gRPC) : export continu des metrics. SNMP polling est mort pour le DC moderne.
- ZTP (Zero Touch Provisioning) : déploiement automatisé des nouveaux switches. Sur un projet 32 switches, ZTP économise 2-3 jours d'installation.
- MACsec 256-bit : chiffrement L2 hop-by-hop sur les liens inter-switches. Requis pour les DCs conformes NIS2, PCI-DSS, HDS.
Recommandations OPTINOC par taille de DC
Petit DC (< 8 racks, < 100 serveurs)
- 4-8 leafs QFX5120-48Y ou Nexus 93180YC-FX
- 2 spines QFX5120-32C ou Nexus 9336C-FX2
- Automation : Ansible + CLI ou Apstra lite
- Budget switches : 80-150K€ HT
DC moyen (8-50 racks, 100-1000 serveurs)
- 16-50 leafs + 4-6 spines 100G
- NDFC (Cisco) ou Apstra (Juniper) pour orchestration
- Dual-ToR recommandé pour les racks critiques
- Budget switches : 300K-800K€ HT
Grand DC (50+ racks, 1000+ serveurs)
- 50-200 leafs + 8-16 spines + super-spines
- ACI (Cisco) ou Apstra full (Juniper) obligatoire
- 400G spine-to-spine, 100G leaf-to-spine
- Budget switches : 1M€+ HT
Conclusion : Nexus ou QFX ?
Si votre équipe est certifiée Cisco (CCNP/CCIE DC) et que vous êtes déjà en écosystème Cisco : restez sur Nexus 9300. L'écosystème ACI/NDFC, le support TAC, et la disponibilité des compétences en France justifient le premium de 15-20%.
Si vous partez de zéro, si vous valorisez l'automation pure (Junos + NETCONF + Apstra), ou si le budget est un critère fort : Juniper QFX5120/5130 est le meilleur rapport qualité/prix/opérabilité du marché en 2026.
OPTINOC distribue les deux gammes en garantie constructeur avec support TAC/JTAC éligible. Demandez un devis comparatif sur votre architecture cible — nous dimensionnons gratuitement.
