Histoire des centres de données
Les centres de données remontent aux années 1940. L'intégrateur numérique et informatique électrique de l'armée américaine (ENIAC), achevé en 1945 à l'Université de Pennsylvanie, est un exemple précoce de centre de données nécessitant un espace dédié pour héberger ses machines massives.
Au fil des ans, les ordinateurs sont devenus plus compacts et ont nécessité moins d'espace physique. Dans les années 1990, les micro-ordinateurs ont fait leur apparition, réduisant considérablement l'espace nécessaire aux opérations informatiques. Ces micro-ordinateurs, qui ont commencé à occuper les anciennes salles informatiques des mainframes, sont devenus des « serveurs », et ces salles, des « centres de données ».
L'avènement du cloud computing au début des années 2000 a profondément bouleversé le paysage traditionnel des centres de données. Les services cloud permettent aux entreprises d'accéder à des ressources informatiques à la demande, via Internet, avec une tarification à l'utilisation, offrant ainsi une flexibilité d'évolution à la hausse ou à la baisse selon les besoins.
En 2006, Google a inauguré le premier centre de données hyperscale à The Dalles, dans l'Oregon. Cette installation hyperscale occupe actuellement 1,3 million de pieds carrés et emploie environ 200 opérateurs de centre de données.
Une étude de McKinsey & Company prévoit que le secteur connaîtra une croissance de 10 % par an jusqu'en 2030, avec des dépenses mondiales pour la construction de nouvelles installations atteignant 49 milliards de dollars.2

Types de centres de données
Il existe différents types d’installations de centres de données, et une même entreprise peut utiliser plusieurs types, en fonction des charges de travail et des besoins de l’entreprise.
Centres de données d'entreprise (sur site)
Ce modèle de centre de données héberge l'ensemble de l'infrastructure informatique et des données sur site. De nombreuses entreprises optent pour des centres de données sur site. Ils bénéficient d'un meilleur contrôle sur la sécurité des informations et peuvent plus facilement se conformer aux réglementations telles que le Règlement général sur la protection des données (RGPD) de l'Union européenne ou la loi américaine sur la portabilité et la responsabilité en matière d'assurance maladie (HIPAA). L'entreprise est responsable de toutes les tâches de déploiement, de surveillance et de gestion d'un centre de données d'entreprise.
Centres de données cloud publics et centres de données hyperscale
Les centres de données cloud (également appelés centres de données de cloud computing) hébergent des ressources d'infrastructure informatique destinées à être utilisées en partage par plusieurs clients, de plusieurs dizaines à des millions, via une connexion Internet.
La plupart des plus grands centres de données cloud, appelés centres de données hyperscale, sont gérés par des fournisseurs de services cloud majeurs (FSC), tels qu'Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud et Microsoft Azure. Ces entreprises disposent de centres de données majeurs dans toutes les régions du monde. IBM, par exemple, exploite plus de 60 centres de données cloud IBM répartis dans le monde entier.
Les centres de données hyperscale sont plus grands que les centres de données traditionnels et peuvent couvrir des millions de mètres carrés. Ils contiennent généralement au moins 5 000 serveurs et des kilomètres d'équipements de connexion, et peuvent parfois atteindre une superficie de 60 000 pieds carrés.
Les fournisseurs de services cloud disposent généralement de centres de données périphériques (EDC) plus petits, situés plus près des clients cloud (et de leurs clients). Ces centres constituent la base de l'edge computing, un cadre informatique distribué qui rapproche les applications des utilisateurs finaux. Ils sont idéaux pour les charges de travail en temps réel et gourmandes en données, telles que l'analyse du Big Data, l'intelligence artificielle (IA), le machine learning (ML) et la diffusion de contenu. Ils contribuent à minimiser la latence, améliorant ainsi les performances globales des applications et l'expérience client.
Centres de données gérés et installations de colocation
Les centres de données gérés et les installations de colocation sont des options pour les organisations qui manquent d'espace, de personnel ou d'expertise pour gérer leur infrastructure informatique sur site. Ces options sont idéales pour celles qui préfèrent ne pas héberger leur infrastructure et utiliser les ressources partagées d'un centre de données cloud public.
Dans un centre de données géré, l'entreprise cliente loue des serveurs dédiés, du matériel de stockage et de réseau auprès du fournisseur, et le fournisseur gère l'administration, la surveillance et la gestion de l'entreprise cliente.
Dans une installation de colocation, l'entreprise cliente est propriétaire de l'ensemble de l'infrastructure et loue un espace dédié pour l'héberger au sein de ses installations. Dans le modèle de colocation traditionnel, l'entreprise cliente bénéficie d'un accès exclusif au matériel et de l'entière responsabilité de sa gestion. Ce modèle est idéal pour la confidentialité et la sécurité, mais souvent peu pratique, notamment en cas de panne ou d'urgence. Aujourd'hui, la plupart des fournisseurs de colocation proposent des services de gestion et de surveillance aux clients qui le souhaitent.
Les entreprises choisissent souvent des centres de données gérés et des installations de colocation pour héberger la technologie de sauvegarde des données à distance et de reprise après sinistre (DR) pour les petites et moyennes entreprises (PME).

Architecture moderne du centre de données
La plupart des centres de données modernes, y compris les centres internes sur site, ont évolué par rapport à l'architecture informatique traditionnelle. Au lieu d'exécuter chaque application ou charge de travail sur du matériel dédié, ils utilisent désormais une architecture cloud où les ressources physiques telles que les processeurs, le stockage et le réseau sont virtualisées. La virtualisation permet de libérer ces ressources de leurs limites physiques et de les regrouper en capacités pouvant être allouées à plusieurs applications et charges de travail, selon les besoins.
La virtualisation permet également une infrastructure définie par logiciel (SDI), une infrastructure qui peut être provisionnée, configurée, exécutée, maintenue et « désactivée » par programmation sans intervention humaine.
Cette virtualisation a donné naissance à de nouvelles architectures de centres de données, telles que les centres de données définis par logiciel (SDDC), un concept de gestion de serveurs qui virtualise des éléments d'infrastructure tels que le réseau, le stockage et le calcul, en les fournissant sous forme de service. Cette capacité permet aux entreprises d'optimiser l'infrastructure pour chaque application et charge de travail sans modifications physiques, ce qui contribue à améliorer les performances et à maîtriser les coûts. Les modèles de centres de données sous forme de service sont appelés à se généraliser, IDC prévoyant que 65 % des acheteurs de technologies privilégieront ces modèles d'ici 2026.
