De cara a 2026, el principal desafío para la industria de los centros de datos ya no reside en la simple expansión de la capacidad. En cambio, la industria se centra en utilizar de forma eficiente cada kilovatio de energía y recurso informático para hacer frente al rápido crecimiento empresarial, el aumento de los costes de inversión y la creciente complejidad de las operaciones de infraestructura, sentando así una base sólida para la construcción de centros de datos inteligentes y de alta eficiencia de próxima generación.
El avance de la IA se ha convertido en el motor principal de la modernización de la infraestructura de los centros de datos. La rápida adopción de la IA generativa y los modelos de lenguaje a gran escala (LLM) requiere capacidades de procesamiento a nivel de supercomputación para entrenar modelos sofisticados y analizar conjuntos de datos masivos. Esto solo se puede lograr distribuyendo las cargas de trabajo entre clústeres de servidores GPU interconectados de gran tamaño.
Los chips GPU modernos consumen entre 700 W y 1200 W cada uno, y un único servidor de IA de alta densidad puede superar los 8 kW de consumo energético. Con 10 GPU instaladas en un solo rack, el consumo alcanza fácilmente los 80 kW, lo que impone mayores exigencias a los sistemas de alimentación, refrigeración, cableado y transmisión de red del centro de datos.
La escala de los clústeres de entrenamiento de IA se está expandiendo a una velocidad extraordinaria, evolucionando desde clústeres iniciales de 10 000 GPU hasta cientos de miles o incluso millones de implementaciones de GPU. Oracle planea lanzar una implementación inicial de 50 000 GPU para servicios de IA a partir de 2026, mientras que los principales gigantes de la industria aspiran a alcanzar hasta 50 millones de GPU en los próximos cinco años, lo que impulsará aún más la demanda de cableado de alta densidad e interconexión de alta velocidad.

Impulsadas por los requisitos de interconexión de alta velocidad, las velocidades de red en todas las capas del centro de datos están experimentando una iteración integral. Las conexiones de GPU a GPU en el backend están migrando de 800G a 1,6T, mientras que los enlaces entre clústeres están evolucionando hacia 3,2T. Las conexiones de conmutador a conmutador en el frontend están actualizando de 400G/800G a 1,6T, y los enlaces de acceso a servidores están pasando de 100G/200G a 400G, lo que permite el soporte completo para el entrenamiento de modelos de IA, el análisis de datos en tiempo real y el funcionamiento de aplicaciones en la nube.
Para dar cabida a estas actualizaciones de ultra alta velocidad, los cables de cobre de conexión directa (DAC) y los cables ópticos activos (AOC) de alto ancho de banda se han convertido en soluciones habituales para las conexiones directas de GPU. Las soluciones ópticas monomodo paralelas multifibra de baja pérdida y rentables se utilizan ampliamente para el cableado estructurado entre conmutadores y servidores.
Actualmente, la industria adopta ampliamente velocidades de carril de 100 Gb/s para admitir 400G sobre 8 fibras y 800G sobre 16 fibras. Con el próximo estándar IEEE 802.3dj, que se espera se publique a mediados de 2026, las velocidades de carril de 200 Gb/s permitirán 800G sobre 8 fibras y 1,6T sobre 16 fibras. De cara al futuro, la tecnología de velocidad de carril de 400 Gb/s ya está en desarrollo, lo que permitirá 1,6T sobre 8 fibras y 3,2T sobre 16 fibras, potenciando aún más la futura arquitectura de transmisión de alta velocidad para centros de datos.
Como proveedor profesional de soluciones de comunicación óptica y cableado para centros de datos, Kexint sigue de cerca las tendencias mundiales en centros de datos, innova continuamente en productos de transmisión óptica de alta velocidad y soluciones de cableado optimizadas, y ofrece soporte de infraestructura fiable y de alto rendimiento para el desarrollo global de centros de datos y computación en la nube.