Which switch data center choisir ?
Critères fondamentaux for un switch data center
Un switch data center se distingue radicalement d'un switch campus par cinq features non négociables : une densité de ports haut throughput (25G/100G/400G au lieu de 1G), une latence inférieure to 2µs (contre 5-10µs for of campus), une capacity de buffer adaptée aux rafales (40-80MB), le support natif of protocoles overlay (VXLAN, EVPN with BGP control plane), and une résilience hardware complète (alimentations redondantes hot-swap, ventilateurs N+1). Si your switch ne coche pas these cinq cases, vous n'achetez pas of data center — vous achetez of campus mal positionné.
Le choix se fait ensuite sur trois axes : le rôle dans la fabric (leaf ToR vs spine vs border), le throughput cible par port (25G server access, 100G uplink, 400G spine), and l'écosystème d'automatisation (Cisco ACI/NDFC, Juniper Apstra, or NX-OS/Juour standalone with Ansible).
Cisco Nexus 9300 : la référence of marché
Positionnement and modèles clés
La gamme Nexus 9300 est le standard de facto of data center enterprise en France and en Europe. Cisco détient environ 45% of marché switching data center mondial. La gamme 9300 couvre les rôles leaf and border dans les fabrics spine-leaf, with of modèles fixes 1U allant de 48×10G jusqu'à 36×400G.
Modèles les plus déployés en 2024-2026 :
- N9K-C93180YC-FX (C93180YC-FX) : 48× 10/25G SFP28 + 6× 100G QSFP28. Le leaf universel. Latence ~1µs. Buffer 40MB partagé. Prix OPTINOC : ~12 000-15 000€ HT.
- N9K-C9336C-FX2 : 36× 40/100G QSFP28. Le spine standard for fabrics 100G. Peut also servir de leaf haute densité 100G. Prix : ~18 000-22 000€ HT.
- N9K-C9332D-GX2B : 32× 400G QSFP-DD. Le spine new generation 400G. For les fabrics qui visent le 400G dès aujourd'hui. Prix : ~45 000-55 000€ HT.
- N9K-C9364C-GX : 64× 40/100G QSFP28. Très haute densité, ideal for spine or super-spine. Prix : ~30 000-35 000€ HT.
- N9K-C9316D-GX : 16× 400G QSFP-DD. Compact 400G, parfait for DCI or spine petit DC. Prix : ~35 000-40 000€ HT.
NX-OS standalone vs ACI
Deux modes opératoires existent for les Nexus 9300. En mode NX-OS standalone, le switch est autonome — vous le configurez en CLI or via Ansible/Terraform, comme un router classique. C'est le mode recommandé for les fabrics EVPN-VXLAN gérées par NDFC (Nexus Dashboard Fabric Controller) or par automation maison.
En mode ACI (Application Centric Infrastructure), le switch est piloté par 3 contrôleurs APIC qui gèrent la fabric end-to-end with un modèle intent-based (EPGs, contracts, VRFs). ACI est puissant for les très grands DCs (>50 racks) mais la courbe d'apprentissage est raide (compter 6-12 mois for maîtriser ACI). For les DCs petits and moyens (<50 racks), NX-OS standalone + NDFC est plus pragmatique.
Fonctionnalités EVPN-VXLAN sur Nexus
- VXLAN with BGP-EVPN : Type-2 (MAC/IP), Type-5 (IP prefix), multi-tenancy via VRF/VNI. Standard depuis NX-OS 9.2.
- vPC (Virtual Port-Channel) : MLAG entre 2 Nexus for dual-homing serveurs. Peer-keepalive + peer-link obligatoires.
- ITD (Intelligent Traffic Director) : load balancing L4 integrated au switch — évite un load balancer externe for certains cas.
- Streaming telemetry : export continu of metrics vers Kafka/InfluxDB/Prometheus. Indispensable for l'observabilité DC.
- Python on-box (Guest Shell) : scripts Python exécutables directement sur le switch. For automation, monitoring, and troubleshooting.
Juniper QFX5120/5130 : l'alternative Junos
Positionnement and modèles clés
Juniper QFX est le challenger principal face au Nexus, with un argument de poids : Juour OS unifié sur toute la gamme (MX, SRX, EX, QFX) with commits atomiques and rollback natif. For les équipes qui gèrent déjà of Juniper en routage (MX chez les opérateurs) or en campus (EX), le QFX offers une cohérence opérationnelle imbattable.
- QFX5120-48Y : 48× 25G SFP28 + 8× 100G QSFP28. Latence ~550ns (la plus basse of marché dans this gamme). Buffer 32MB. Le leaf modern par excellence. Prix OPTINOC : ~10 000-13 000€ HT.
- QFX5120-32C : 32× 100G QSFP28. Spine or leaf 100G haute densité. Prix : ~15 000-18 000€ HT.
- QFX5130-32CD : 32× 400G QSFP-DD. Le spine 400G Juniper. Latence ~800ns. Buffer 64MB. Prix : ~40 000-48 000€ HT.
- QFX5700 : chassis 4 slots, jusqu'à 144× 400G. For les super-spines or DCs très haute densité. Prix : ~80 000-100 000€ HT.
Avantages Juour for le data center
- Commits atomiques : les changements de configuration sont appliqués en bloc or pas of tout. Pas de half-config comme sur NX-OS si une ligne échoue.
- Rollback temporel : revenir to n'importe quelle version of the config of 49 derniers commits (rollback 25 = il y a 25 commits).
- Commit confirmed : security contre le lock-out — si vous ne confirmez pas dans N minutes, la config revient automatiquement. Indispensable en remote.
- RPL (Routing Policy Language) : le langage de filtrage BGP le plus puissant and expressif of marché. Crucial for les fabrics EVPN multi-tenant.
- NETCONF natif depuis 2003 : automation with Ansible/Nornir/Salt without wrapper — le switch parle NETCONF nativement.
Apstra : fabric automation multi-vendor
Juniper Apstra (acquis en 2021) est la plateforme intent-based for automatiser les fabrics EVPN-VXLAN. Its avantage unique : le multi-vendor. Apstra gère nativement les QFX, mais also les Cisco Nexus, Arista EOS, SONiC, and NVIDIA Cumulus. Si vous avez une fabric mixte or si vous envisagez une migration de Cisco vers Juniper (ou l'inverse), Apstra est la solution d'orchestration logique.
Blueprint Apstra : vous décrivez la fabric voulue (nombre de spines, leafs, VRFs, tenants), Apstra génère la configuration switch par switch and la déploie. À tout moment, Apstra compare l'état réel to l'intent and alerte en cas d'écart. Le troubleshooting est automatisé : 'your VLAN 100 est isolé sur le leaf 12 → cause : route EVPN Type-2 manquante sur spine 2'.
Comparatif technique Nexus vs QFX
Sur les critères qui comptent en data center :
- Latence cut-through : QFX5120 = 550ns, Nexus 93180YC-FX = 1µs. Avantage QFX for le HFT and les clusters GPU/storage latency-sensitive.
- Buffer : Nexus 93180YC = 40MB partagé, QFX5120-48Y = 32MB. Avantage Nexus for les workloads burst-heavy (storage, backup).
- Densité 400G : N9K-C9332D = 32×400G, QFX5130-32CD = 32×400G. Parité.
- Écosystème automation : Cisco a ACI + NDFC + NX-API. Juniper a Apstra (multi-vendor) + Juour NETCONF natif. Avantage Juniper for la pureté automation, Cisco for l'écosystème integrated.
- Compétenthese marché France : Cisco domine largement (80%+ of ingénieurs DC ont of Cisco). Juniper progresse mais le recrutement est plus difficile.
- Prix : QFX5120 = 15-20% moins cher que Nexus 9300 to configuration équivalente. Sur un projet 32 switches, c'est 50-80K€ d'économie.
Dimensionnement d'une fabric spine-leaf
Calcul of nombre de spines
La règle fondamentale : chaque leaf doit être connecté to TOUS les spines. Le nombre de spines détermine la bandwidth nord-sud (vers l'extérieur) and la résilience (perte d'un spine = dégradation linéaire, pas de coupure).
- Formule oversubscription : OS = (bandwidth totale downlinks) / (bandwidth totale uplinks vers spines).
- Exemple : leaf 48×25G = 1200G downlinks. Si 6 uplinks 100G vers 6 spines = 600G uplinks. OS = 1200/600 = 2:1.
- Cible standard : OS 3:1 acceptable for workloads classiques (web, API, baits de données). OS 2:1 recommandé for storage/backup. OS 1:1 (non-blocking) obligatoire for AI/ML training and HPC.
Calcul of nombre de leafs
Le nombre de leafs dépend of nombre de serveurs and of the densité par rack :
- Standard : 1 leaf ToR par rack. Chaque rack contient 20-40 serveurs connectés en 25G.
- High-density : 2 leafs par rack (dual-ToR) for redundancy. Chaque serveur a 2 NICs vers 2 leafs différents (MLAG/vPC).
- Collapsed : 1 leaf for 2-3 petits racks (économie mais single point of failure).
Exemple concret : DC de 200 serveurs, 10 racks, dual-ToR. → 20 leafs QFX5120-48Y + 4-6 spines QFX5130-32CD. Budget modules optiques : ~80K-120K€. Budget switches : ~300K-400K€ HT.
Fonctionnalités indispensables en 2026
- EVPN-VXLAN with BGP : non négociable. C'est LE protocole fabric data center moderne. Si le switch ne le supporte pas, ne l'achetez pas.
- ECMP (Equal Cost Multi-Path) : répartition of trafic sur tous les chemins spine. Without ECMP, your fabric n'est pas une fabric.
- BFD (Bidirectional Forwarding Detection) : détection de panne sub-seconde (50ms) entre leaf and spine. Indispensable for convergence rapide.
- Streaming telemetry (gNMI, gRPC) : export continu of metrics. SNMP polling est mort for le DC moderne.
- ZTP (Zero Touch Provisioning) : déploiement automatisé of nouveaux switches. Sur un projet 32 switches, ZTP économise 2-3 jours d'installation.
- MACsec 256-bit : chiffrement L2 hop-by-hop sur les liens inter-switches. Requis for les DCs conformes NIS2, PCI-DSS, HDS.
Recommandations OPTINOC par taille de DC
Petit DC (< 8 racks, < 100 serveurs)
- 4-8 leafs QFX5120-48Y or Nexus 93180YC-FX
- 2 spines QFX5120-32C or Nexus 9336C-FX2
- Automation : Ansible + CLI or Apstra lite
- Budget switches : 80-150K€ HT
DC moyen (8-50 racks, 100-1000 serveurs)
- 16-50 leafs + 4-6 spines 100G
- NDFC (Cisco) or Apstra (Juniper) for orchestration
- Dual-ToR recommandé for les racks critiques
- Budget switches : 300K-800K€ HT
Grand DC (50+ racks, 1000+ serveurs)
- 50-200 leafs + 8-16 spines + super-spines
- ACI (Cisco) or Apstra full (Juniper) obligatoire
- 400G spine-to-spine, 100G leaf-to-spine
- Budget switches : 1M€+ HT
Conclusion : Nexus or QFX ?
Si your équipe est certifiede Cisco (CCNP/CCIE DC) and que vous êtes déjà en écosystème Cisco : restez sur Nexus 9300. L'écosystème ACI/NDFC, le support TAC, and la disponibilité of compétenthese en France justifient le premium de 15-20%.
Si vous partez de zéro, si vous valorisez l'automation pure (Juour + NETCONF + Apstra), or si le budget est un critère fort : Juniper QFX5120/5130 est le meilleur rapport qualité/prix/opérabilité of marché en 2026.
OPTINOC distribue les deux gammes en manufacturer warranty with support TAC/JTAC éligible. Demandez un devis comparatif sur your architecture cible — nous dimensionnons gratuitement.
