Con l'avvicinarsi del 2026, la sfida principale per il settore dei data center non sarà più la semplice espansione della capacità. L'attenzione si concentrerà invece sull'utilizzo efficiente di ogni kilowatt di potenza e risorsa di calcolo per far fronte alla rapida crescita aziendale, all'aumento dei costi di investimento e alla crescente complessità delle operazioni infrastrutturali, ponendo solide basi per la costruzione di data center di nuova generazione, efficienti e intelligenti.
Il progresso dell'intelligenza artificiale è diventato il motore principale dell'aggiornamento delle infrastrutture dei data center. La rapida adozione dell'IA generativa e dei modelli linguistici di grandi dimensioni (LLM) richiede capacità di elaborazione pari a quelle dei supercomputer per addestrare modelli sofisticati e analizzare enormi set di dati. Ciò può essere ottenuto solo distribuendo i carichi di lavoro su enormi cluster di server GPU interconnessi.
I moderni chip GPU consumano da 700W a 1200W ciascuno, e un singolo server AI ad alta densità può superare gli 8 kW di consumo energetico. Con 10 GPU installate in un solo rack, il consumo energetico raggiunge facilmente gli 80 kW, il che comporta requisiti più elevati per l'alimentazione, il raffreddamento, il cablaggio e i sistemi di trasmissione di rete dei data center.
Le dimensioni dei cluster di addestramento per l'IA si stanno espandendo a una velocità straordinaria, evolvendo da cluster iniziali di 10.000 GPU a centinaia di migliaia o addirittura milioni di implementazioni di GPU. Oracle prevede di lanciare un'implementazione iniziale di 50.000 GPU per i servizi di IA a partire dal 2026, mentre i principali colossi del settore puntano a raggiungere fino a 50 milioni di GPU entro i prossimi cinque anni, incrementando ulteriormente la domanda di cablaggio ad alta densità e interconnessioni ad alta velocità.

Spinte dalle esigenze di interconnessione ad alta velocità, le velocità di rete su tutti i livelli dei data center stanno subendo una profonda evoluzione. Le connessioni GPU-to-GPU di backend stanno passando da 800G a 1,6T, mentre i collegamenti inter-cluster si stanno evolvendo verso i 3,2T. Le connessioni switch-to-switch di frontend stanno passando da 400G/800G a 1,6T e i collegamenti di accesso ai server si stanno spostando da 100G/200G verso i 400G, supportando pienamente l'addestramento di modelli di intelligenza artificiale, l'analisi dei dati in tempo reale e il funzionamento delle applicazioni cloud.
Per supportare questi aggiornamenti ad altissima velocità, i cavi Direct Attach Copper (DAC) e Active Optical Cables (AOC) ad alta larghezza di banda sono diventati soluzioni standard per le connessioni dirette alle GPU. Soluzioni ottiche monomodali parallele multifibra a bassa perdita e a basso costo sono ampiamente adottate per il cablaggio strutturato tra switch e server.
Attualmente, il settore adotta ampiamente velocità di linea di 100 Gb/s per supportare 400G su 8 fibre e 800G su 16 fibre. Con l'imminente standard IEEE 802.3dj, la cui uscita è prevista per la metà del 2026, le velocità di linea di 200 Gb/s consentiranno di raggiungere 800G su 8 fibre e 1,6T su 16 fibre. Guardando al futuro, la tecnologia a velocità di linea di 400 Gb/s è già in fase di sviluppo e supporterà 1,6T su 8 fibre e 3,2T su 16 fibre, potenziando ulteriormente le future architetture di trasmissione ad alta velocità per i data center.
In qualità di fornitore professionale di soluzioni di comunicazione ottica e cablaggio per data center, Kexint monitora attentamente le tendenze globali del settore, innova costantemente nei prodotti per la trasmissione ottica ad alta velocità e nelle soluzioni di cablaggio ottimizzate, e offre un supporto infrastrutturale affidabile e ad alte prestazioni per lo sviluppo di data center e cloud computing a livello globale.