Em 2026, o principal desafio para o setor de data centers não é mais a simples expansão da capacidade. Em vez disso, o setor se concentra em utilizar com eficiência cada quilowatt de energia e recurso computacional para lidar com o rápido crescimento dos negócios, o aumento dos custos de investimento e as operações de infraestrutura cada vez mais complexas, estabelecendo uma base sólida para a construção de data centers de próxima geração, inteligentes e de alta eficiência.
Os avanços em IA tornaram-se o principal motor da modernização da infraestrutura de data centers. A rápida adoção de IA generativa e Modelos de Linguagem de Grande Porte (LLMs) exige capacidades de processamento de nível supercomputador para treinar modelos sofisticados e analisar conjuntos de dados massivos. Isso só pode ser alcançado distribuindo as cargas de trabalho por clusters de servidores GPU interconectados de grande escala.
Os chips de GPU modernos consomem de 700 W a 1200 W cada, e um único servidor de IA de alta densidade pode ultrapassar 8 kW de consumo de energia. Com 10 GPUs instaladas em um único rack, o consumo de energia facilmente atinge 80 kW, o que aumenta as exigências para o fornecimento de energia, refrigeração, cabeamento e sistemas de transmissão de rede do data center.
A escala dos clusters de treinamento de IA está se expandindo a uma velocidade extraordinária, evoluindo de clusters iniciais com 10.000 GPUs para centenas de milhares ou até milhões de implantações de GPUs. A Oracle planeja lançar uma implantação inicial de 50.000 GPUs para serviços de IA a partir de 2026, enquanto gigantes líderes do setor almejam até 50 milhões de GPUs nos próximos cinco anos, impulsionando ainda mais a demanda por cabeamento de alta densidade e interconexão de alta velocidade.

Impulsionadas pelas exigências de interconexão de alta velocidade, as velocidades de rede em todas as camadas do data center estão passando por uma reformulação abrangente. As conexões GPU-para-GPU de backend estão migrando de 800G para 1,6T, enquanto os links entre clusters estão evoluindo para 3,2T. As conexões switch-para-switch de frontend estão sendo atualizadas de 400G/800G para 1,6T, e os links de acesso ao servidor estão migrando de 100G/200G para 400G, oferecendo suporte completo ao treinamento de modelos de IA, análise de dados em tempo real e operação de aplicativos em nuvem.
Para acomodar essas atualizações de altíssima velocidade, os cabos de cobre de conexão direta (DAC) e os cabos ópticos ativos (AOC) de alta largura de banda tornaram-se soluções comuns para conexões diretas de GPUs. Soluções ópticas monomodo paralelas de múltiplas fibras e baixo custo são amplamente adotadas para cabeamento estruturado entre switches e servidores.
Atualmente, a indústria adota amplamente taxas de transmissão de 100 Gb/s por canal para suportar 400G em 8 fibras e 800G em 16 fibras. Com o lançamento previsto do padrão IEEE 802.3dj em meados de 2026, taxas de transmissão de 200 Gb/s por canal permitirão 800G em 8 fibras e 1,6T em 16 fibras. Olhando para o futuro, a tecnologia de taxa de transmissão de 400 Gb/s por canal já está em desenvolvimento, o que suportará 1,6T em 8 fibras e 3,2T em 16 fibras, impulsionando ainda mais a arquitetura de transmissão de alta velocidade de data centers.
Como fornecedora profissional de soluções de cabeamento para comunicação óptica e data centers, a Kexint acompanha de perto as tendências globais de data centers, inova continuamente em produtos de transmissão óptica de alta velocidade e soluções de cabeamento otimizadas, e oferece suporte de infraestrutura confiável e de alto desempenho para o desenvolvimento global de data centers e computação em nuvem.