Design fabric EVPN-VXLAN spine-leaf
EVPN-VXLAN est devenu le standard de facto pour les data centers modernes en architecture spine-leaf. Il combine BGP EVPN (control plane) et VXLAN (data plane) pour résoudre les limitations de STP/HSRP. Guide design complet : topologie, choix symmetric/asymmetric IRB, multi-homing, multi-site.
Architecture spine-leaf
- Spine : switchs haute densité 100G/400G (ex : Cisco Nexus 9300-GX, Juniper QFX5130)
- Leaf : switchs 25G serveurs + 100G uplinks (ex : Nexus 93180YC-FX, QFX5120-48Y)
- Liens spine-leaf : ECMP full mesh
- Pas de liens spine-spine, pas de liens leaf-leaf
- Scale : N spines × M leaves = oversubscription 1:N (ex : 4 spines × 32 leaves = 8:1 oversubs)
Underlay routing
eBGP underlay
Le choix le plus courant. Chaque leaf a un AS privé unique, spines ont un AS. Peering eBGP multihop entre loopbacks. Simple, scale bien, facile à automatiser.
OSPF/IS-IS underlay
Alternative historique. OSPF area 0 sur toute la fabric, BFD agressif (50/150ms). Moins scalable que eBGP au-delà de 50 switches.
Overlay EVPN BGP
- iBGP EVPN : spines = route reflectors, leaves = clients RR
- eBGP EVPN : possible mais plus complexe
- Address-family l2vpn evpn activée
- Route targets (RT) pour isolation multi-tenant
Symmetric vs Asymmetric IRB
Symmetric IRB (recommandé)
Chaque leaf route localement pour toutes les subnets. Trafic inter-subnet = forward via VNI transit L3. Scale mieux, moins de routes par leaf.
Asymmetric IRB
Leaf source route, leaf dest bridge. Requiert toutes les VNI sur tous les leafs. Ne scale pas au-delà de 10-15 VNI.
Multi-homing (ESI LAG)
- EVPN Ethernet Segment Identifier (ESI) pour multi-homed servers
- Type-4 routes pour auto-discovery
- Type-1 routes pour per-ES auto-discovery
- Load balancing par flow (hash) ou active/active MAC
- Alternative à vPC (Cisco) ou MLAG avec plus de flexibilité
Multi-site EVPN
Pour interconnexion DC1 + DC2 :
- Border leaves (ou border gateways) à chaque DC
- EVPN multi-site : RT import/export inter-DC
- DCI (Data Center Interconnect) : dark fiber, MPLS, Internet IPsec
- Anycast gateway global : hors scope sans VPC-LACP (Cisco) ou MH-EVPN (Juniper)
Sizing fabric
Small (50 racks)
- 2× spine QFX5120-32C
- 10× leaf QFX5120-48Y (48×25G serveurs)
- Budget : ~280 000€ HT
- Capacité : 480 serveurs 25G
Medium (200 racks)
- 4× spine QFX5200-32C
- 40× leaf
- Budget : ~1.2M€ HT
Large (>500 racks, super-spine)
- Architecture 5-stage : super-spine + spine + leaf
- Pod-based design
- Budget : 5-15M€ HT
Alternatives
- Cisco ACI : intent-based + GUI, controllers APIC requis
- VMware NSX : overlay hyperviseur, pas hardware fabric
- Juniper Apstra : automation multi-vendor de fabric EVPN-VXLAN
Commander chez OPTINOC
Fabric EVPN-VXLAN spine-leaf clé-en-main. Cisco Nexus, Juniper QFX, Arista. Transceivers 100G/400G compatibles économie 50%. Devis DC 20-500 racks sous 48h.
