Von Jürgen Neureuther, Experte für Rechenzentren und Leiter der Business Unit Storage bei der ADN Group.
Obwohl weitgehend Einigkeit darüber herrscht, dass unternehmenskritische Daten digital und physisch in der eigenen Firma bleiben sollten, profitieren viele Workloads von der Performanz einer Public Cloud. Aller Voraussicht nach wird diese durch die niedrigen Einstiegshürden und gebrauchsfertige Pay-As-You-Go-Lösungen in der Symbiose mit firmeneigenen Rechenzentren weiter an Relevanz gewinnen. Die Zukunft des Rechenzentrums ist klar hybrid. Umso wichtiger ist es, Rechenzentren für diese Zukunft fit zu machen, denn die Herausforderungen sind zahlreich: Steigende Datenmengen, gestiegene Ansprüche in Sachen Verarbeitungs- und Übertragungsgeschwindigkeiten und nicht zuletzt Themen wie Datenschutz, Platzbedarf und Umweltschutz.
Dabei haben die Prioritäten sich von der Hard- zur Software-Seite verlagert. Dies lässt sich auch an der Anbieter-Landschaft ablesen: Von den in den letzten Jahren neugegründeten Herstellern im Data Center-Sektor zählt der Großteil zu den Software-Anbietern. Für (IT-)Verantwortliche bedeutet dies, dass die Auswahl geeigneter Data Center-Lösungen sich stark von einem technischen zu einem strategischen Thema wandelt. Doch was sind die Hintergründe dieser Entwicklung und wie findet man sich in der neuen, von Software bestimmten Data Center-Welt zurecht?
Bäumchen wechsle dich
Trends kommen und gehen. Über vier Jahrzehnte in der IT-Branche haben mich die Wahrheit hinter dieser Binsenweisheit gelehrt – heiß gehandelte Neuheiten verschwinden schon nach kurzer Zeit und Totgesagte leben länger. War es die längste Zeit Naturgesetz, dass Rechenzentren mit Hohlböden konstruiert wurden, wird darauf seit neuestem – auch aus Kostengründen und der leichteren Wartung von deckenmontierten Kabeltrassen wegen – verstärkt verzichtet. Dagegen scheint das Ende des Bandspeichers in weiter Ferne zu liegen. Dennoch sprechen drei langfristige Entwicklungslinien für die eingangs aufgestellte These vom zunehmend strategischen Thema des Software-definierten Rechenzentrums:
1. Rechenzentren werden im Hinblick auf Wartung und Betrieb immer einfacher
Früher brauchte es für alle Aufgaben im Rechenzentrum eigene Spezialisten, für Backups, Storage, usw. Diese mussten für ihre Aufgabenbereiche tage- und wochenlang geschult werden. Jeder Ausfall eines Mitarbeiters konnte bei Projekten häufig den kompletten Stillstand bedeuten. Mit den modernen, wesentlich intuitiver zu bedienenden und weniger wartungsanfälligen Systemen sind all diese Prozesse massiv vereinfacht. Zudem sind die Wartung und Diagnose von Rechenzentren zunehmend automatisiert. Moderne Rechenzentren erkennen bereits vorausschauend, wann eine Komponente ausfällt. Meldet beispielsweise eine SSD gehäuft Lese- oder Schreibfehler, wird das nahende Ende der Festplatte automatisch gemeldet und Ersatz geordert. Alles was dann noch zu tun bleibt, ist, das Bauteil mittels Plug&Play auszutauschen – ganz ohne Downtime oder Schrauben.
2. Rechenzentren werden immer effizienter und ressourcenschonender
Im Jahr 1952 speicherte eine schrankgroße IBM 726 noch ein MB mit 100 Bits pro Zoll in 9 Spuren je Zoll auf 330 Meter Band. Heute passt auf eine handtellergroße SSD ein Vielfaches, bei damals noch unvorstellbaren Lese- und Schreibgeschwindigkeiten. Storage ist nur eines von vielen Themen im Rechenzentrum, verdeutlicht den Punkt der Effizienz jedoch besonders eindrücklich. Was früher auf vielen Quadratmetern Fläche untergebracht war, schrumpft auf wenige Höheneinheiten in einem einzigen Server-Schrank zusammen. Es wird intensiv daran gearbeitet die Ökobilanz von Rechenzentren zu verbessern, sei es im Hinblick auf Platzbedarf, Energie- und Wasserverbrauch und vieles mehr. Gleichzeitig steigt mit dem fast exponentiell wachsenden Bedarf an Rechen-Power auch der Anteil am weltweiten Energieverbrauch.
3. Rechenzentren orientieren sich immer stärker am Nutzer
Wegen der weit fortgeschrittenen Standardisierung und der Abstraktion der Hardware durch Virtualisierung, rücken die technischen Details der Komponenten in den Hintergrund. Initiativen wie OCP (Open Compute Project), an denen sich alle großen Hersteller beteiligen, treiben die Standardisierung von Rechenzentrums-Hardware weiter voran. Hardware ist im Rechenzentrum immer mehr notwendiges Standardprodukt, aber nicht mehr zentraler Fokus. Heutzutage sind die modularen Systeme in alle Dimensionen skalierbar. Wo früher z.B. der Speicher knapp werden konnte oder die Performanz nicht mehr ausreichte, lässt sich heute die Kapazität in jeder Hinsicht einfach erweitern, wiederum ohne Stillstand.
Erkenne dich selbst (und die passende Lösung): Wie man sich in der neuen Data-Center-Welt zurechtfindet
Wenn Strategie beim Thema Data Center immer wichtiger wird, steht die Ausrichtung der eigenen Data-Center-Infrastruktur stärker denn je im direkten Zusammenhang mit den mittel- bis langfristigen Unternehmenszielen. Datengetriebenen Geschäftsmodellen gehört allen Anzeichen nach die Zukunft. Doch beispielsweise das Sammeln und Verarbeiten von Big Data mittels K.I. stellt an die Ressourcen besondere Anforderungen. Sensible Daten, wie etwa Finanz- oder Personaldaten, bedürfen selbstverständlich eines besonderen Schutzes. Die allermeisten Firmen bevorzugen hier eine Speicherung der Daten auf den eigenen Servern. Dennoch bringt die Verwaltung auch dieser Assets (weiterhin z.B. in einer Private Cloud lagernd) in einer konsistenten und vereinheitlichten Umgebung Vorteile. Sobald die eigenen Prioritäten klar sind, gilt es selbstverständlich, die passende Lösung zu finden. Jenseits von Marketing-Material und technischer Dokumentation ist der Erfahrung nach ein bestimmter Faktor für die Auswahl des passenden Herstellers entscheidend: Die Philosophie hinter der Lösung. Welchen Hintergrund hat der jeweilige Hersteller und aus welchen Gründen hat er seine Lösung entwickelt? Gerade jüngere Hersteller, die ihren Fokus auf ein kleines, immer weiter ausgereiftes Lösungsportfolio legen, haben offensichtlich eine Lücke im bisherigen Markt gesehen. Auch wenn große Hersteller verstärkt das Mantra der Standard-Software beten, kann es kostspielig sein, etablierte Workflows zugunsten des Standards über Bord zu werfen. Hier hilft es, den Blick jenseits des Mainstreams schweifen zu lassen, welche “kleinere” Lösung den eigenen Anforderungen vielleicht eher gerecht wird. Schlussendlich stellt sich wie immer die Frage nach der Zukunftsfähigkeit der Lösung. Gibt es eine klare Roadmap und bin ich vor einem Vendor-Lock-In geschützt, z.B. durch unkomplizierte Migrationsoptionen? Bei all diesen Dingen erleichtert die Unterstützung durch einen kundigen Partner die Qual der Wahl. Ob die Distribution den IT-Dienstleister berät oder dieser seine Kunden – es geht darum, sich in der unübersichtlichen Vielfalt der Lösungen zurechtzufinden.
Ausblick: Auftritt des Software-defined Data Center (SDDC)
Seit einigen Jahren kann man die steigende Verwendung des englischen Zusatzes “Software-defined” durch die Hersteller zur Beschreibung ihrer Lösungen beobachten. Dieser Zusatz weist darauf hin, dass die Software-Lösung von der Hardware, auf der sie läuft, abstrahiert ist. Ebenfalls heiß diskutiert sind die Konzepte Converged und Hyperconverged Infrastructure, die nach einem ähnlichen Prinzip funktionieren. Alle diese Lösungen laufen entsprechend der weiter oben beschriebenen Entwicklung auf standardisierter Hardware und stellen eine vollständige Virtualisierung aller Komponenten des Rechenzentrums in Aussicht. Vielfach noch als Vision zu bezeichnen, umfasst das sogenannte “Software-defined Data Center” die folgenden Komponenten:
- Netzwerk-Virtualisierung: Die Netzwerk-Virtualisierung teilt die Bandbreite auf beliebig viele Kanäle auf und weist sie je nach Bedarf dort zu, wo sie benötigt wird.
- Speicher-Virtualisierung: Der verfügbare Speicher wird über alle Speicherressourcen so zusammengefasst, dass er wie ein einziger Speicher wirkt und zentral verwaltet werden kann.
- Server-Virtualisierung: Bei der Server-Virtualisierung werden die Server-Ressourcen so maskiert, dass für den Benutzer alle Server, Prozessoren und Betriebssysteme abstrahiert sind und er sich über die Verwaltung der Server-Ressourcen keine Gedanken zu machen braucht.
Erfordert die vollständige Umsetzung dieser Vision aktuell noch einiges an technischem Know-how und Investition, bietet sie gerade in einer hybriden Rechenzentrums-Realität einiges an Potential.
SDDCs als Hans Dampf in allen Gassen?
Mit dem Software-defined-Ansatz lässt sich der nächste strategische Schritt im Rechenzentrum vollziehen, insbesondere, wenn man bereits auf Software-defined Storage oder Software-defined Server setzt. SDDCs setzen mit frei nach dem Bedarf der Nutzer skalierbaren Umgebungen auf ein Maximum an Flexibilität, Automatisierung und Effizienz. Zusätzlich wird das vorhandene IT-Personal dank des hohen Automatisierungsgrades und den geringeren Bedarf an Spezialwissen aufgrund höherer Standardisierung entlastet. Außerdem erlaubt die zentrale Verwaltung der Ressourcen eine effizientere Ausnutzung vorhandener Kapazitäten und das bedarfsgerechte Hoch-und Runterfahren der energiehungrigen Hardware. Letzteres ermöglicht außerdem eine Vereinheitlichung der Sicherheit mittels richtlinienbasierter Governance über die gesamte Umgebung hinweg. Neue Funktionen können mit wesentlich geringerem Aufwand als in klassischen Rechenzentren integriert werden. Ausfälle einzelner Komponenten werden durch das automatische Verlagern der Workloads auf andere Ressourcen kompensiert. Hybride Szenarien können über beliebige Standorte und Cloud-Anbieter einfacher denn je umgesetzt werden. Die Workloads und Daten lassen sich problemlos dorthin verlagern, wo es strategisch am günstigsten ist. Das Software-defined Data Center deutet an, wohin die Reise des Rechenzentrums in Richtung eines “Post Cloud-Zeitalters” gehen kann. Wer sich darauf einlässt, hat die Chance, seine IT noch einmal wesentlich flexibler und agiler aufzustellen.
Das ADN Datacenter Insights Event
Um eine Vorstellung vom Rechenzentrum der Zukunft und Einblicke in das Potential moderner Speicher- und Datenmanagement-Lösungen zu gewähren, lädt die ADN Group am 03. November 2020 von 9 bis 16 Uhr zu einer Online-Konferenz zum Themenkomplex ein. Autor Jürgen Neureuther führt durch die ein spannendes Programm, in dem namhafte Hersteller ihre Perspektive auf das Rechenzentrum der Zukunft präsentieren. Details und die Möglichkeit zur Anmeldung finden sich hier.
Über den Autor
Jürgen Neureuther ist Experte für Rechenzentren und leitet die Business Unit Storage bei der ADN Group. Mit über 30 Jahren IT-Erfahrung mischt er seit dem ersten IBM-PC in der IT-Branche mit und ist dank seiner langjährigen Erfahrung in der Branche bestens vernetzt. Durch seinen engen Draht zu den Herstellern kennt er Trends, bevor sie entstehen.