Data Center — architettura, componenti e tier

📋 Obiettivi di apprendimento
Descrivere le tipologie di data center (enterprise, colocation, cloud) e i tre pilastri fondamentali: compute, storage e network
Confrontare la topologia three-tier con la topologia spine-leaf spiegando perché quest’ultima è dominante nei data center moderni
Classificare i data center secondo lo standard ANSI/TIA-942 Tier 1–4 indicando disponibilità, ridondanza e downtime annuale
Descrivere i quattro livelli di sicurezza di un data center: perimetrale, infrastruttura, dati e ambientale
📄
Slides
Data Center — architettura, topologie e Tier

Cos’è un Data Center

Un data center è una struttura fisica progettata per ospitare, gestire e proteggere l’infrastruttura informatica di un’organizzazione: server, sistemi di storage, apparati di rete, impianti di alimentazione e sistemi di raffreddamento. Non è semplicemente una “stanza piena di computer” — è un ecosistema integrato in cui ogni componente è progettato per garantire continuità operativa, sicurezza e prestazioni elevate.

Il concetto chiave che distingue un data center da un semplice server room è la progettazione sistematica della ridondanza: ogni elemento critico deve avere almeno un duplicato in grado di subentrare in caso di guasto. Un data center professionale non si “spegne mai” — la disponibilità è misurata in frazioni percentuali di downtime annuale.

Tipologie di Data Center

🏢 Enterprise DC

Gestito internamente dall’azienda per i propri sistemi. L’organizzazione possiede e controlla tutto lo stack: hardware, software, rete, sicurezza fisica.

Esempi: DC interno di una banca, ospedale, PA
✅ Controllo totale su dati e configurazioni
✅ Conformità normativa semplificata
❌ Costi fissi elevati
❌ Scalabilità limitata dall’hardware
🏭 Colocation DC

Il provider offre spazio fisico (rack, cage, suite), alimentazione, raffreddamento e connettività. Il cliente porta i propri server e li gestisce autonomamente.

Esempi: Equinix, Digital Realty, Aruba DC
✅ Infrastruttura fisica professionale senza costruirla
✅ Connettività a multiple reti (carrier-neutral)
❌ Accesso fisico ai server non immediato
❌ Dipendenza dal provider per il sito fisico
☁️ Cloud DC

Gestito da provider cloud (AWS, Azure, GCP). Il cliente accede alle risorse tramite API — non vede né tocca l’hardware fisico. Scalabilità dinamica in tempo reale.

Esempi: AWS us-east-1, Azure West Europe
✅ Scalabilità immediata, pay-per-use
✅ Nessuna gestione hardware
❌ Minore controllo su localizzazione dati
❌ Costi variabili difficili da prevedere

I tre pilastri — Compute, Storage, Network

Qualsiasi dato center, indipendentemente dalla tipologia, si regge su tre componenti fondamentali che devono lavorare in modo coordinato:

⚙️
COMPUTE

Server fisici e virtualizzati che eseguono le applicazioni. Composto da CPU (elaborazione), RAM (memoria di lavoro) e schede di rete.

Dimensionamento:
Numero di vCPU e RAM determinati dal carico applicativo — database, web server, analytics hanno esigenze molto diverse
💾
STORAGE

Sistema di archiviazione permanente dei dati. Tre architetture principali per scenari d’uso diversi:

DAS: disco direttamente nel server — alta velocità, non condivisibile
NAS: storage in rete via NFS/SMB — file sharing tra server
SAN: rete dedicata Fibre Channel/iSCSI — massime prestazioni I/O
🌐
NETWORK

Connette server, storage e utenti. Deve garantire latenza minima, banda sufficiente e ridondanza totale.

Tipicamente 10/25/100 GbE tra server, con uplink a 100/400 GbE verso il core. I link sono ridondati — se cade un cavo, il traffico migra sull’altro in millisecondi
📌 Il collo di bottiglia è sempre la rete

In un data center moderno, CPU e storage raramente sono il collo di bottiglia. La rete interna è il componente critico: se due server non riescono a comunicare abbastanza velocemente, anche il più potente sistema di compute rimane inutilizzato. Per questo i data center moderni investono enormemente nella topologia di rete interna — ed è qui che la scelta tra three-tier e spine-leaf fa la differenza.

Topologie di rete interna del Data Center

Three-Tier — l’architettura tradizionale

La topologia three-tier (a tre livelli) è l’architettura di rete tradizionale dei data center, derivata dalla struttura gerarchica delle reti aziendali. Organizza gli apparati in tre strati funzionali:

Three-Tier — struttura gerarchica
CORE LAYER
Switch core ad alta velocità — gateway verso Internet e WAN
↕↕
DISTRIBUTION / AGGREGATION LAYER
Routing, policy, VLAN, firewall, bilanciamento del carico
↕↕↕↕
ACCESS LAYER
Switch TOR (Top of Rack) — connessione diretta ai server nel rack
✅ Architettura familiare, ben documentata
✅ Buona per traffico nord-sud (client → server)
❌ Alta latenza est-ovest (server → server)
❌ Scalabilità limitata — il core è un collo di bottiglia
❌ STP introduce convergenza lenta in caso di guasto
📌 Traffico Nord-Sud vs Est-Ovest

Nella three-tier si distingue il traffico nord-sud (utente esterno → server — scende e risale la gerarchia) dal traffico est-ovest (server → server, es. un web server che chiama un database). Nel data center moderno il traffico est-ovest è diventato dominante grazie a microservizi e virtualizzazione — e la three-tier lo gestisce male, perché ogni comunicazione tra server su rack diversi deve attraversare tutti e tre i livelli.

Spine-Leaf — l’architettura moderna

La topologia spine-leaf è stata progettata specificamente per ottimizzare il traffico est-ovest nei data center moderni. Elimina la gerarchia verticale a favore di una struttura piatta a due livelli in cui ogni nodo leaf è connesso a ogni nodo spine:

Spine-Leaf — struttura piatta e scalabile
SPINE 1
SPINE 2
SPINE 3
SPINE 4
ogni leaf → ogni spine (full mesh)
LEAF 1
Rack A
LEAF 2
Rack B
LEAF 3
Rack C
LEAF 4
Rack D
BORDER LEAF
→ Internet
✅ Latenza uniforme tra qualsiasi coppia di server (sempre 2 hop)
✅ Scalabilità orizzontale: aggiungi un leaf, la topologia non cambia
✅ ECMP (Equal-Cost Multi-Path) — traffico distribuito su tutti i path
✅ Nessun STP — routing L3 con BGP/OSPF già al leaf
⚠️ I leaf non comunicano direttamente tra loro — solo via spine
⚠️ Numero di porte spine = numero di leaf (scala quadratica)
⚠️ Configurazione BGP/OSPF più complessa della three-tier semplice
Confronto Three-Tier vs Spine-Leaf
AspettoThree-TierSpine-Leaf
Hop est-ovestVariabile (2–6+)Sempre 2 (leaf→spine→leaf)
ScalabilitàLimitata dal coreOrizzontale — aggiungi leaf
Protocollo loop preventionSTP (convergenza lenta)BGP/OSPF + ECMP (veloce)
Uso tipicoDC legacy, campus networkDC moderni, cloud provider
Traffico ottimizzatoNord-SudEst-Ovest + Nord-Sud

Sicurezza del Data Center — quattro livelli

La sicurezza di un data center non è un singolo meccanismo ma una stratificazione di protezioni che agiscono a livelli diversi. Se un livello viene violato, gli altri continuano a proteggere. Questo principio si chiama defense in depth — già visto nel Modulo 3.

🔒 1. Sicurezza Perimetrale
Protegge il confine fisico e logico del DC.

Fisica: tornelli, badge RFID, biometria (impronta, iride), mantrap (camera di sicurezza a doppia porta), videosorveglianza H24, guardie di sicurezza.

Logica: firewall di frontiera, IDS/IPS, WAF (Web Application Firewall), segmentazione VLAN, ACL sui router di bordo.
🖧 2. Sicurezza dell’Infrastruttura
Riguarda la resilienza tecnica dell’architettura IT.

Rete: switch e router ridondati, link aggregation, protocolli di failover (VRRP/HSRP).

Server: patch management, hardening del SO, disabilitazione servizi non necessari.

Monitoraggio: SIEM (Security Information and Event Management), log centralizzati, alerting automatico.
💾 3. Sicurezza dei Dati
Il livello più critico — protegge le informazioni stesse.

At rest: cifratura dei dischi (AES-256), key management centralizzato (HSM).

In transit: TLS per tutte le comunicazioni, VPN per accessi remoti.

Accesso: RBAC (Role-Based Access Control), MFA obbligatoria, principio del least privilege. Backup periodici con test di ripristino documentati.
🌡️ 4. Sicurezza Ambientale
Protegge dall’hardware fisico da eventi ambientali.

Alimentazione: UPS (Uninterruptible Power Supply) per continuità immediata, generatori diesel per blackout prolungati, doppi circuiti elettrici indipendenti.

Raffreddamento: CRAC/CRAH (Computer Room Air Conditioner/Handler), hot aisle/cold aisle separation, sistemi ridondati N+1 o 2N.

Antincendio: rilevatori smoke/VESDA, gas inerte FM-200 o Novec (non danneggia i server a differenza dell’acqua).

Hot Aisle / Cold Aisle — il principio del raffreddamento efficiente

Organizzazione del piano del DC per il raffreddamento
❄️ COLD AISLE    [RACK][RACK][RACK] 🔥 HOT AISLE    [RACK][RACK][RACK] ❄️ COLD AISLE
I rack sono disposti a coppie alternando corsie fredde (aria condizionata in entrata) e corsie calde (aria calda in uscita dai server)

I server prendono aria fredda dal fronte (cold aisle) e espellono aria calda sul retro (hot aisle). I sistemi di raffreddamento aspirano l’aria calda dal hot aisle e reimmettono aria fredda nel cold aisle. Questo evita la ricircolazione — il caso peggiore in cui l’aria calda rientra nella presa del server.

Standard ANSI/TIA-942 — i Tier del Data Center

Lo standard ANSI/TIA-942 (e il parallelo Uptime Institute Tier Standard) classifica i data center in quattro livelli basati sulla ridondanza e sulla disponibilità garantita. Maggiore è il Tier, maggiore è la continuità operativa — e il costo di costruzione.

ANSI/TIA-942 — Tier 1, 2, 3, 4
Tier
Caratteristiche
Disponibilità
Downtime/anno
TIER 1
Basic
Infrastruttura base senza ridondanza. Un singolo percorso di alimentazione e raffreddamento. Manutenzione richiede interruzione del servizio. Vulnerabile a qualsiasi guasto singolo.
99,671%
28,8 h/anno
TIER 2
Redundant Components
Componenti ridondati (N+1) per alimentazione e raffreddamento. Un singolo percorso non ridondato. La manutenzione dei componenti ridondanti è possibile senza interruzioni, ma il percorso principale no.
99,741%
22 h/anno
TIER 3
Concurrently Maintainable
Doppi percorsi di alimentazione e raffreddamento (solo uno attivo). Manutenzione di qualsiasi componente senza interruzione del servizio. Tollerante al guasto singolo pianificato.
99,982%
1,6 h/anno
TIER 4
Fault Tolerant
Doppi percorsi attivi di alimentazione e raffreddamento (2N). Tollerante a qualsiasi guasto singolo non pianificato senza impatto sul servizio. Manutenzione completamente live. Doppia connessione Internet su provider diversi.
99,995%
26 min/anno
📌 Il costo della disponibilità

Passare da Tier 1 a Tier 4 non è solo una questione tecnica — è economica. Un data center Tier 4 costa tipicamente 3–5 volte più di un Tier 2 a parità di capacità, a causa della doppia (o tripla) ridondanza di ogni sistema. La scelta del Tier dipende dal valore del servizio erogato: un ospedale o una borsa valori richiedono Tier 4; un server di sviluppo interno può stare su Tier 1. L’SLA (Service Level Agreement) con i clienti determina il Tier minimo accettabile.

PUE — Power Usage Effectiveness

La PUE è un indicatore di efficienza energetica del data center: misura il rapporto tra l’energia totale consumata dalla struttura e quella effettivamente utilizzata dai sistemi IT.

PUE = Energia totale DC / Energia sistemi IT
PUE 3.0
Molto inefficiente — DC obsoleto
PUE 2.0
Nella media — DC tradizionale
PUE 1.5
Buono — DC moderno efficiente
PUE 1.1
Eccellente — hyperscaler (Google)
PUE = 1.0 è il valore teorico ideale (tutta l’energia va ai server). I DC di Google raggiungono ~1.10.
📌 Riepilogo — Punti chiave
  • I data center si classificano in Enterprise (controllo totale), Colocation (spazio condiviso, hardware proprio) e Cloud (risorse on-demand via API). I tre pilastri sono Compute, Storage e Network
  • Three-tier ottimizza il traffico nord-sud ma soffre sul traffico est-ovest — il dominante nei DC moderni con microservizi. Spine-leaf garantisce sempre 2 hop tra qualsiasi coppia di server e scala orizzontalmente aggiungendo leaf switch
  • La sicurezza del DC si articola su quattro livelli: perimetrale (fisico+logico), infrastruttura (ridondanza+hardening), dati (cifratura+RBAC), ambientale (UPS+raffreddamento+antincendio)
  • Tier 1: 28,8 h downtime/anno, nessuna ridondanza → Tier 4: 26 min/anno, doppi percorsi attivi (2N), fault tolerant completo. La scelta del Tier dipende dal valore del servizio e dall’SLA
  • Il PUE misura l’efficienza energetica — un Tier 4 con PUE 1.1 è tecnicamente eccellente sia per affidabilità sia per sostenibilità

Lascia un commento