Design data center : spine-leaf vs 3 niveaux
Le choix entre data center spine-leaf et 3-tier traditionnel est structurant pour les 10 prochaines années de votre DC. Spine-leaf domine depuis 2015 avec l'explosion du trafic est-ouest (VM-to-VM, microservices, AI/ML). Guide comparatif architectural complet 2026.
Architecture 3-tier (DC classique)
- Core (cœur) : 2 switchs redondants, uplinks vers WAN
- Aggregation (distribution) : agrège les ToR par rangée
- Access (ToR — Top-of-Rack) : 24-48 ports serveurs par rack
- STP entre agg et access pour éviter boucles L2
- Trafic nord-sud (serveur → Internet/user) dominant
Architecture spine-leaf
- Spine : switchs haute densité 100G/400G
- Leaf : switchs ToR connectés à TOUS les spines
- Pas de liens spine-spine ni leaf-leaf
- Routing L3 ECMP entre spine et leaf
- Trafic est-ouest optimisé (2 hops max serveur-serveur)
Comparaison directe
Scale
- 3-tier : limité par la taille du core (~500 ports 10G)
- Spine-leaf : scale horizontale (ajouter spine = +capacité, ajouter leaf = +serveurs)
Latence
- 3-tier : 3-4 hops serveur-à-serveur (access → agg → agg → access) = 5-10 µs
- Spine-leaf : 2 hops (leaf → spine → leaf) = 1.5-3 µs
Bande passante
- 3-tier : oversubscription variable selon design
- Spine-leaf : oversubscription uniforme leaf-spine (ex : 3:1)
Résilience
- 3-tier : perte d'un core = dégradation 50%
- Spine-leaf : perte d'un spine sur 4 = -25% capacité, pas d'interruption
Control plane
- 3-tier : STP, HSRP, FHRP — convergence 3-10s
- Spine-leaf : BGP ECMP, convergence <1s avec BFD
Quand choisir 3-tier
- Petit DC (<50 serveurs), budget serré
- Trafic nord-sud dominant (ex : DC hébergement web statique)
- Existing brownfield : cohabitation avec legacy 3-tier
- Équipe pas encore formée à EVPN-VXLAN/BGP
Quand choisir spine-leaf
- DC moderne avec virtualization, microservices, containers
- Applications avec trafic est-ouest (Hadoop, Spark, Kafka, AI/ML)
- Besoin scale horizontale (ajout racks progressif)
- Adoption EVPN-VXLAN pour L2 stretched
Sizing spine-leaf vs 3-tier
100 serveurs 25G
- 3-tier : 2× core 10G + 4× agg + 4× ToR = ~80 000€ HT
- Spine-leaf : 2× spine QFX5120-32C + 4× leaf QFX5120-48Y = ~175 000€ HT
- Spine-leaf plus cher à l'init mais scale mieux
500 serveurs 25G
- 3-tier : impossible à sizer proprement (limit core)
- Spine-leaf : 4× spine + 16× leaf = ~700 000€ HT
- ROI spine-leaf évident à cette échelle
Évolution : super-spine
Au-delà de 500+ racks, introduire super-spine (aka Clos 5-stage) :
- Super-spine → spine → leaf (3 layers)
- Pod-based : chaque pod = 1 fabric spine-leaf indépendant
- Inter-pod via super-spine en 400G
- Scale à 10 000+ serveurs
Évolution : disaggregation + SONiC
Tendance hyperscale : white-box switches + SONiC (Microsoft open NOS). Coût : -50% vs Cisco/Juniper mais complexité opérationnelle.
Commander chez OPTINOC
Audit architecture DC + design spine-leaf EVPN-VXLAN. Cisco Nexus, Juniper QFX, Arista. Modules 100G/400G compatibles OPTINOC économie 50%. Devis DC 20-500 racks sous 48h.
