Kasaysayan ng mga sentro ng data
Ang mga sentro ng data ay nagsimula noong 1940s. Ang Electrical Numerical Integrator and Computer (ENIAC) ng militar ng US, na natapos noong 1945 sa Unibersidad ng Pennsylvania, ay isang maagang halimbawa ng isang sentro ng data na nangangailangan ng nakalaang espasyo upang paglagyan ng napakalaking makina nito.
Sa paglipas ng mga taon, ang mga computer ay naging mas mahusay sa laki, na nangangailangan ng mas kaunting pisikal na espasyo. Noong 1990s, ang mga microcomputer ay dumating sa eksena, na lubhang binabawasan ang dami ng espasyo na kailangan para sa mga pagpapatakbo ng IT. Ang mga microcomputer na ito na nagsimulang punan ang mga lumang mainframe na mga computer room ay naging kilala bilang "mga server," at ang mga silid ay naging kilala bilang "mga data center."
Ang pagdating ng cloud computing noong unang bahagi ng 2000s ay makabuluhang nakagambala sa tradisyonal na landscape ng data center. Nagbibigay-daan ang mga serbisyo sa cloud sa mga organisasyon na ma-access ang mga mapagkukunan ng computing on-demand, sa internet, gamit ang pagpepresyo ng pay-per-use—na nagbibigay-daan sa kakayahang umangkop na pataas o pababa kung kinakailangan.
Noong 2006, inilunsad ng Google ang unang hyperscale data center sa The Dalles, Oregon. Ang hyperscale facility na ito ay kasalukuyang sumasakop sa 1.3 milyong square feet ng espasyo at gumagamit ng kawani ng humigit-kumulang 200 data center operator.1
Ang isang pag-aaral mula sa McKinsey & Company ay nag-proyekto na ang industriya ay lalago sa 10% sa isang taon hanggang 2030, na may pandaigdigang paggasta sa pagtatayo ng mga bagong pasilidad na umaabot sa USD49 bilyon.2

Mga uri ng data center
Mayroong iba't ibang uri ng mga pasilidad ng data center, at maaaring gumamit ang isang kumpanya ng higit sa isang uri, depende sa mga workload at pangangailangan ng negosyo.
Mga sentro ng data ng enterprise (nasa lugar).
Ang modelo ng data center na ito ay nagho-host ng lahat ng imprastraktura ng IT at data sa lugar. Maraming kumpanya ang pumipili ng mga on-premises na data center. Mas may kontrol sila sa seguridad ng impormasyon at mas madaling makasunod sa mga regulasyon gaya ng European Union General Data Protection Regulation (GDPR) o US Health Insurance Portability and Accountability Act (HIPAA). Ang kumpanya ay responsable para sa lahat ng pag-deploy, pagsubaybay at mga gawain sa pamamahala sa isang enterprise data center.
Mga pampublikong cloud data center at hyperscale data center
Ang mga cloud data center (tinatawag din na cloud computing data centers) ay naglalaman ng mga mapagkukunan ng imprastraktura ng IT para sa ibinahaging paggamit ng maraming customer—mula sa mga marka hanggang milyon-milyon—sa pamamagitan ng koneksyon sa internet.
Marami sa pinakamalaking cloud data center—tinatawag na hyperscale data center—ay pinapatakbo ng mga pangunahing cloud service provider (CSP), gaya ng Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud at Microsoft Azure. Ang mga kumpanyang ito ay may mga pangunahing sentro ng data sa bawat rehiyon ng mundo. Halimbawa, ang IBM ay nagpapatakbo ng higit sa 60 IBM Cloud Data Center sa iba't ibang lokasyon sa buong mundo.
Ang mga hyperscale data center ay mas malaki kaysa sa mga tradisyunal na data center at maaaring sumaklaw sa milyun-milyong square feet. Karaniwang naglalaman ang mga ito ng hindi bababa sa 5,000 server at milya ng kagamitan sa koneksyon, at kung minsan ay maaaring kasing laki ng 60,000 square feet ang mga ito.
Karaniwang pinapanatili ng mga cloud service provider ang mas maliliit, edge data center (EDCs) na mas malapit sa mga customer ng cloud (at mga customer ng cloud customer). Ang mga sentro ng data ng gilid ay bumubuo ng pundasyon para sa edge computing, isang distributed computing framework na naglalapit sa mga application sa mga end user. Ang mga Edge data center ay perpekto para sa real-time, data-intensive na workload tulad ng malaking data analytics, artificial intelligence (AI), machine learning (ML) at paghahatid ng content. Tumutulong ang mga ito na mabawasan ang latency, pagpapabuti ng pangkalahatang pagganap ng application at karanasan ng customer.
Pinamamahalaang mga data center at mga pasilidad ng colocation
Ang mga pinamamahalaang data center at mga pasilidad ng colocation ay mga opsyon para sa mga organisasyong kulang sa espasyo, kawani, o kadalubhasaan upang pamahalaan ang kanilang imprastraktura sa IT sa lugar. Ang mga opsyon na ito ay mainam para sa mga mas gustong hindi mag-host ng kanilang imprastraktura sa pamamagitan ng paggamit ng mga nakabahaging mapagkukunan ng isang pampublikong cloud data center.
Sa isang pinamamahalaang data center, ang kumpanya ng kliyente ay nagpapaupa ng mga dedikadong server, storage at networking hardware mula sa provider, at pinangangasiwaan ng provider ang pangangasiwa, pagsubaybay at pamamahala ng kumpanya ng kliyente.
Sa isang pasilidad ng colocation, pagmamay-ari ng kumpanya ng kliyente ang lahat ng imprastraktura at umaarkila ng isang nakalaang espasyo upang i-host ito sa loob ng pasilidad. Sa tradisyunal na modelo ng colocation, ang kumpanya ng kliyente ay may tanging access sa hardware at buong responsibilidad para sa pamamahala nito. Ang modelong ito ay perpekto para sa privacy at seguridad ngunit kadalasan ay hindi praktikal, lalo na sa panahon ng mga outage o emergency. Sa ngayon, karamihan sa mga tagapagbigay ng colocation ay nag-aalok ng mga serbisyo sa pamamahala at pagsubaybay sa mga kliyenteng nais sila.
Kadalasang pinipili ng mga kumpanya ang mga pinamamahalaang data center at mga pasilidad ng colocation upang maglagay ng remote data backup at disaster recovery (DR) na teknolohiya para sa maliliit at katamtamang laki ng mga negosyo (SMB).

Modernong arkitektura ng data center
Karamihan sa mga modernong data center, kabilang ang mga in-house on-premises, ay nagbago mula sa tradisyonal na arkitektura ng IT. Sa halip na patakbuhin ang bawat application o workload sa nakalaang hardware, gumagamit na sila ngayon ng cloud architecture kung saan ang mga pisikal na mapagkukunan tulad ng mga CPU, storage at networking ay virtualized. Binibigyang-daan ng virtualization ang mga mapagkukunang ito na ma-abstract mula sa kanilang mga pisikal na limitasyon at i-pool sa kapasidad na maaaring ilaan sa maraming application at workload sa anumang dami ng kailangan nila.
Binibigyang-daan din ng virtualization ang software-defined infrastructure (SDI)—imprastraktura na maaaring ibigay, i-configure, patakbuhin, papanatilihin at "i-spun down" sa programmatically nang walang interbensyon ng tao.
Ang virtualization na ito ay humantong sa mga bagong arkitektura ng data center tulad ng software-defined data centers (SDDC), isang konsepto ng pamamahala ng server na nag-virtualize ng mga elemento ng imprastraktura gaya ng networking, storage at compute, na naghahatid sa kanila bilang isang serbisyo. Ang kakayahang ito ay nagbibigay-daan sa mga organisasyon na i-optimize ang imprastraktura para sa bawat aplikasyon at workload nang hindi gumagawa ng mga pisikal na pagbabago, na makakatulong na mapabuti ang pagganap at kontrolin ang mga gastos. Ang mga modelo ng data center bilang isang serbisyo ay nakahanda na maging mas laganap, na may pagtataya ng IDC na 65% ng mga tech na mamimili ang uunahin ang mga modelong ito sa 2026.
