Network data center : architecture and choix d'équipements
L'architecture data center moderne (2026) repose sur spine-leaf EVPN-VXLAN, 100G/400G entre spines, serveurs 25G bonded, automation intent-based. Sortie of anciens 3-tier Cisco Nexus 7000. Ce guide détaille architecture, sizing, cooling, power, connectivité, tendanthese AI/ML DC 2026.
Principes design DC moderne
- Spine-leaf obligatoire (pas de 3-tier)
- Pas de L2 stretched (L3 routed access + overlay VXLAN)
- Multi-tenant via VRF/EVPN tenants
- Automation : Ansible, Apstra, ACI, NSX-T
- Observabilité : streaming telemetry, Prometheus, Grafana
- Security : micro-segmentation hardware (Pensando, NSX-T)
Topologie spine-leaf
Small (1 fabric)
- 2-4 spine switchs 32×100G (ex : Nexus 9336C-FX2)
- 8-32 leaf switchs 48×25G + 6-8×100G uplinks (Nexus 93180YC-FX)
- Ratio oversubscription 3:1 typique
- Capacity : 200-1500 serveurs 25G
Large (super-spine, multi-pod)
- Super-spine : 8× Nexus 9336C-GX (36×400G)
- Spine par pod : 4× Nexus 9336C-FX2
- Leaf par pod : 16-32× Nexus 93180YC-FX
- Pods : 4-8 par DC
- Capacity : 5000-30 000 serveurs
Connectivité serveurs
- Serveurs 1U entreprise : 2× 10G SFP+ MC-LAG (HP DL380, Dell R750)
- Serveurs GPU AI/ML (A100, H100) : 2-4× 100G InfiniBand or Ethernet RoCE
- Hyperconverged (Nutanix, VxRail) : 2× 25G SFP28
- Storage SAN : 32G Fibre Channel (déclinant) or iSCSI 25G
- NVMe-oF over Ethernet : 100G RoCEv2
Storage DC
- All-flash array (Pure Storage, NetApp AFF, Dell PowerStore) : 1-20 PB
- NVMe-oF (NVMe over Fabrics) : 25G/100G
- Object storage (Ceph, MinIO, S3-compatible) : for backup/archive
- Backup : Veeam + Cohesity + bande LTO-9 (18 TB native)
Cooling and power
- PUE cible : 1.3-1.5 (conventionnel) or 1.1-1.2 (moderne free-cooling)
- Densité : 5-15 kW/rack standard, 30-50 kW/rack AI/ML
- Cooling AI/ML : liquid immersion (Submer, Asperitas), rear-door HX, direct-to-chip
- Power : A+B feeds, UPS + generator + N+1 redundancy
- Connection : 2× alims par serveur sur PDU A+B
Security DC
- Firewall N-S périmétrique (Palo Alto PA-5400/7000, FortiGate 4200F/6000)
- Micro-segmentation E-W (VMware NSX, Cisco ACI contracts, Illumio)
- Zero-trust : EDR sur chaque VM, identity-based policies
- DDoS protection : Radware, Arbor, cloud Akamai/Cloudflare
- Physical : badge + biométrie, CCTV, mantrap
Orchestration
- Cisco ACI : intent-based Cisco-centric
- Juniper Apstra : multi-vendor intent-based
- VMware NSX-T : overlay hyperviseur
- Arista CloudVision : Arista-focused
- Nokia SR Linux + EDA : nouveau challenger
DC AI/ML moderne
- NVIDIA DGX H100 : 8×H100 GPU, 1.5 kW, 10× 400G InfiniBand
- Fabric IB or Ethernet RoCEv2 : spine-leaf 400G/800G
- Storage rapide : DDN EXAScaler, WEKA, Pure FlashBlade
- Cooling : direct liquid cooling obligatoire (>30 kW/rack)
- Orchestration : Kubernetes + GPU operator + MIG (Multi-Instance GPU)
Tendanthese 2026
- 400G → 800G spine-leaf
- Co-packaged optics (CPO) : optiques integratedes au switch
- DPU (Data Processing Unit) : AWS Nitro, NVIDIA BlueField, Intel IPU
- Disaggregation : white-box SONiC + NVIDIA/Broadcom ASICs
- Sustainability : PUE <1.15, renewable energy, heat reuse
Commander chez OPTINOC
Architecture DC clé-en-main : spine-leaf EVPN-VXLAN Cisco/Juniper/Arista, transceivers 100G/400G OPTINOC certifieds (-50% vs constructeur), intégration Apstra/ACI. Devis 20-500 racks sous 48h.
