Geschichte der Rechenzentren
Rechenzentren gibt es schon seit den 1940er Jahren. Der Electrical Numerical Integrator and Computer (ENIAC) des US-Militärs, der 1945 an der University of Pennsylvania fertiggestellt wurde, ist ein frühes Beispiel für ein Rechenzentrum, das für die Unterbringung seiner riesigen Maschinen einen eigenen Raum benötigte.
Im Laufe der Jahre wurden Computer immer platzsparender und benötigten weniger physischen Platz. In den 1990er Jahren kamen Mikrocomputer auf den Markt, die den Platzbedarf für IT-Operationen drastisch reduzierten. Diese Mikrocomputer, die die alten Großrechnerräume füllten, wurden als „Server“ bezeichnet, und die Räume als „Rechenzentren“.
Das Aufkommen des Cloud Computing Anfang der 2000er Jahre veränderte die traditionelle Rechenzentrumslandschaft erheblich. Cloud-Dienste ermöglichen Unternehmen den bedarfsgerechten Zugriff auf Rechenressourcen über das Internet und die Abrechnung nach Nutzung. Dies ermöglicht die flexible Skalierung nach Bedarf.
Im Jahr 2006 eröffnete Google das erste Hyperscale-Rechenzentrum in The Dalles, Oregon. Diese Hyperscale-Anlage umfasst derzeit eine Fläche von 120.000 Quadratmetern und beschäftigt rund 200 Rechenzentrumsmitarbeiter.
Einer Studie von McKinsey & Company zufolge wird die Branche bis 2030 jährlich um 10 % wachsen und die weltweiten Ausgaben für den Bau neuer Anlagen werden sich auf 49 Milliarden US-Dollar belaufen.2

Arten von Rechenzentren
Es gibt verschiedene Arten von Rechenzentrumseinrichtungen und ein einzelnes Unternehmen kann je nach Arbeitslast und Geschäftsanforderungen mehr als einen Typ verwenden.
Unternehmens-Rechenzentren (vor Ort)
Dieses Rechenzentrumsmodell hostet die gesamte IT-Infrastruktur und alle Daten vor Ort. Viele Unternehmen entscheiden sich für lokale Rechenzentren. Sie haben mehr Kontrolle über die Informationssicherheit und können Vorschriften wie die Datenschutz-Grundverordnung (DSGVO) der Europäischen Union oder den US-amerikanischen Health Insurance Portability and Accountability Act (HIPAA) leichter einhalten. Das Unternehmen ist für alle Bereitstellungs-, Überwachungs- und Verwaltungsaufgaben in einem Unternehmensrechenzentrum verantwortlich.
Öffentliche Cloud-Rechenzentren und Hyperscale-Rechenzentren
Cloud-Rechenzentren (auch Cloud-Computing-Rechenzentren genannt) beherbergen IT-Infrastrukturressourcen zur gemeinsamen Nutzung durch mehrere Kunden – von Dutzenden bis zu Millionen – über eine Internetverbindung.
Viele der größten Cloud-Rechenzentren – sogenannte Hyperscale-Rechenzentren – werden von großen Cloud-Service-Providern (CSPs) wie Amazon Web Services (AWS), Google Cloud Platform, IBM Cloud und Microsoft Azure betrieben. Diese Unternehmen verfügen über große Rechenzentren in allen Regionen der Welt. IBM beispielsweise betreibt über 60 IBM Cloud-Rechenzentren an verschiedenen Standorten weltweit.
Hyperscale-Rechenzentren sind größer als herkömmliche Rechenzentren und können mehrere Millionen Quadratmeter umfassen. Sie verfügen typischerweise über mindestens 5.000 Server und kilometerlange Verbindungsgeräte und können manchmal bis zu 5.570 Quadratmeter groß sein.
Cloud-Service-Anbieter betreiben typischerweise kleinere Edge-Rechenzentren (EDCs), die näher an den Cloud-Kunden (und deren Kunden) liegen. Edge-Rechenzentren bilden die Grundlage für Edge Computing, ein verteiltes Computing-Framework, das Anwendungen näher an die Endnutzer bringt. Edge-Rechenzentren eignen sich ideal für datenintensive Echtzeit-Workloads wie Big Data Analytics, künstliche Intelligenz (KI), maschinelles Lernen (ML) und Content Delivery. Sie tragen zur Minimierung der Latenz bei und verbessern so die allgemeine Anwendungsleistung und das Kundenerlebnis.
Verwaltete Rechenzentren und Colocation-Einrichtungen
Managed Data Centers und Colocation-Einrichtungen sind eine Option für Unternehmen, denen Platz, Personal oder Fachwissen fehlen, um ihre IT-Infrastruktur vor Ort zu verwalten. Diese Optionen sind ideal für alle, die ihre Infrastruktur nicht in einem öffentlichen Cloud-Rechenzentrum hosten möchten.
In einem verwalteten Rechenzentrum mietet das Kundenunternehmen dedizierte Server, Speicher- und Netzwerkhardware vom Anbieter und der Anbieter übernimmt die Verwaltung, Überwachung und das Management des Kundenunternehmens.
In einer Colocation-Einrichtung besitzt das Kundenunternehmen die gesamte Infrastruktur und mietet einen dedizierten Raum für deren Unterbringung. Im traditionellen Colocation-Modell hat das Kundenunternehmen alleinigen Zugriff auf die Hardware und trägt die volle Verantwortung für deren Verwaltung. Dieses Modell ist ideal für Datenschutz und Sicherheit, aber oft unpraktisch, insbesondere bei Ausfällen oder Notfällen. Heutzutage bieten die meisten Colocation-Anbieter ihren Kunden auf Wunsch Management- und Überwachungsdienste an.
Unternehmen entscheiden sich häufig für verwaltete Rechenzentren und Colocation-Einrichtungen, um die Remote-Datensicherungs- und Disaster-Recovery-Technologie (DR) für kleine und mittlere Unternehmen (KMU) unterzubringen.

Moderne Rechenzentrumsarchitektur
Die meisten modernen Rechenzentren, auch die hauseigenen, haben sich von der traditionellen IT-Architektur weiterentwickelt. Anstatt jede Anwendung oder jeden Workload auf dedizierter Hardware auszuführen, nutzen sie heute eine Cloud-Architektur, in der physische Ressourcen wie CPUs, Speicher und Netzwerk virtualisiert sind. Durch Virtualisierung können diese Ressourcen von ihren physischen Grenzen abstrahiert und zu Kapazitäten gebündelt werden, die in beliebiger Menge auf mehrere Anwendungen und Workloads verteilt werden können.
Durch Virtualisierung wird außerdem eine softwaredefinierte Infrastruktur (SDI) ermöglicht – eine Infrastruktur, die ohne menschliches Eingreifen programmgesteuert bereitgestellt, konfiguriert, ausgeführt, gewartet und heruntergefahren werden kann.
Diese Virtualisierung hat zu neuen Rechenzentrumsarchitekturen wie Software-Defined Data Centers (SDDC) geführt. Dabei handelt es sich um ein Servermanagement-Konzept, das Infrastrukturelemente wie Netzwerk, Speicher und Rechenleistung virtualisiert und als Service bereitstellt. Dadurch können Unternehmen ihre Infrastruktur für jede Anwendung und jeden Workload optimieren, ohne physische Änderungen vornehmen zu müssen. Dies trägt zu einer Leistungssteigerung und Kostenkontrolle bei. As-a-Service-Rechenzentrumsmodelle werden sich voraussichtlich durchsetzen. IDC prognostiziert, dass 65 % der Technologiekäufer diese Modelle bis 2026 priorisieren werden.
