À l'aube de 2026, le principal défi pour le secteur des centres de données n'est plus la simple augmentation des capacités. Il s'agit désormais d'optimiser l'utilisation de chaque kilowatt de puissance et de chaque ressource informatique afin de répondre à la croissance rapide des entreprises, à la hausse des coûts d'investissement et à la complexité croissante des opérations d'infrastructure, jetant ainsi les bases de centres de données de nouvelle génération, performants et intelligents.
Les progrès de l'IA sont devenus le principal moteur de la modernisation des infrastructures de centres de données. L'adoption rapide de l'IA générative et des grands modèles de langage (LLM) exige des capacités de calcul de niveau supercalculateur pour entraîner des modèles sophistiqués et analyser des ensembles de données massifs. Ceci n'est possible qu'en répartissant les charges de travail sur d'immenses clusters de serveurs GPU interconnectés.
Les puces graphiques modernes consomment entre 700 et 1 200 W chacune, et un seul serveur d'IA haute densité peut dépasser 8 kW en consommation. Avec 10 GPU déployés dans une seule baie, la consommation atteint facilement 80 kW, ce qui impose des exigences accrues aux systèmes d'alimentation, de refroidissement, de câblage et de transmission réseau des centres de données.
Le nombre de clusters d'entraînement d'IA augmente à une vitesse extraordinaire, passant de quelques dizaines de milliers de GPU à des centaines de milliers, voire des millions de déploiements. Oracle prévoit un déploiement initial de 50 000 GPU pour ses services d'IA dès 2026, tandis que les géants du secteur visent jusqu'à 50 millions de GPU dans les cinq prochaines années, ce qui stimulera encore davantage la demande en câblage haute densité et en interconnexion à haut débit.

Sous l'impulsion des exigences d'interconnexion à haut débit, les vitesses de réseau à tous les niveaux des centres de données font l'objet d'une évolution majeure. Les connexions GPU-à-GPU du backend migrent de 800 Gbit/s à 1,6 Tbit/s, tandis que les liaisons inter-clusters évoluent vers 3,2 Tbit/s. Les connexions commutateur-à-commutateur du frontend passent de 400 Gbit/s/800 Gbit/s à 1,6 Tbit/s, et les liaisons d'accès aux serveurs passent de 100 Gbit/s/200 Gbit/s à 400 Gbit/s, prenant ainsi pleinement en charge l'entraînement des modèles d'IA, l'analyse des données en temps réel et l'exploitation des applications cloud.
Pour prendre en charge ces mises à niveau à très haut débit, les câbles cuivre à connexion directe (DAC) et les câbles optiques actifs (AOC) à large bande passante sont devenus des solutions courantes pour les connexions directes aux GPU. Les solutions optiques monomodes parallèles multifibres à faibles pertes, économiques, sont largement utilisées pour le câblage structuré entre les commutateurs et les serveurs.
Actuellement, le secteur adopte largement des débits de 100 Gbit/s pour prendre en charge le 400G sur 8 fibres et le 800G sur 16 fibres. Avec la future norme IEEE 802.3dj, dont la publication est prévue mi-2026, des débits de 200 Gbit/s permettront d'atteindre le 800G sur 8 fibres et le 1,6T sur 16 fibres. À plus long terme, la technologie à 400 Gbit/s est déjà en développement ; elle prendra en charge le 1,6T sur 8 fibres et le 3,2T sur 16 fibres, renforçant ainsi l'architecture de transmission à haut débit des futurs centres de données.
En tant que fournisseur professionnel de solutions de communication optique et de câblage pour centres de données, Kexint suit de près les tendances mondiales en matière de centres de données, innove en permanence dans les produits de transmission optique à haut débit et les solutions de câblage optimisées, et fournit un support d'infrastructure fiable et performant pour le développement mondial des centres de données et du cloud computing.