Das selbstfahrende Rechenzentrum
Nicht alles ist Software-defined
von Bernd Reder - 14.04.2020
Es sind jedoch nicht nur Trend-Technologien wie Software-defined Networking und Künstliche Intelligenz, die den störungsfreien Betrieb eines automatisierten Rechenzentrums sicherstellen. Sich wiederholende Tätigkeiten dem Menschen abzunehmen betrifft nicht nur die Konfiguration von Servern, Storage-Systemen, Netzwerken und Benutzerkonten. Auch die „Mechanik“ hat in großen Rechenzentren noch ihren Platz, wie Thomas King von DE-CIX bestätigt: „Vor allem bei der Verkabelung und Vernetzung ist in Rechenzentren ein Trend zur Automatisierung zu erkennen.“
Ein Beispiel sind laut Thomas King Roboter, die beim Internetknoten bereits im Praxis-Einsatz sind: „Wir haben als erster Internet-Exchange einen Verkabelungsroboter eingeführt, damit der Auf- und Umbau von Glaserfaser-Infrastrukturen jederzeit und ohne menschliches Zutun möglich ist.“
Allerdings haben die Mechanisierung und Automatisierung bei den physischen Komponenten eines Rechenzentrums auch ihre Grenzen: „Der Aufbau von Elementen wie Racks und Stromkabeln sowie der Einbau von Switches und Routern wird weiterhin manuell erfolgen“, erklärt Thomas King. Der Grund: Solche Tätigkeiten auf Roboter zu verlagern rechne sich schlichtweg nicht. Gute alte Handarbeit von Menschen ist in diesen Fällen am Ende billiger.
Stromversorgung
Ein weiterer wichtiger Faktor, der bei der Automatisierung von Data-Centern zu berücksichtigen ist, sei die Stromversorgung, betont Simon Feger, Produkt-Support-Manager bei Eaton. Das Unternehmen bietet unter anderem Lösungen für das Energiemanagement von Rechenzentren an.
„Bereits minimale Schwankungen der Spannung oder Frequenz können gravierende Folgen haben“, so Feger. Abhilfe schaffen zum Beispiel unterbrechungsfreie Stromversorgungen, kurz USVs. Sie kompensieren kurzfristige Ausfälle oder Störungen in der Energieversorgung des Rechenzentrums.
„Bei längeren Stromausfällen reicht das allerdings nicht aus. Hier sind Power-Management-Lösungen notwendig. Sie leiten Prozesse auf noch funktionsfähige Teile der Infrastruktur um, sodass der Betrieb aufrechterhalten werden kann. Das läuft automatisiert und vollkommen autonom ab“, erläutert Simon Feger.
Moderne Power-Management-Lösungen wie der Intelligent Power Manager (IPM) von Eaton sind nach Angaben des Fachmanns zum Beispiel in der Lage, virtuelle Maschinen (VMs) bei Bedarf in andere Rechenzentren auszulagern. „Dadurch lässt sich ein unkontrolliertes Herunterfahren vermeiden und unternehmenskritische Anwendungen können weiterhin ausgeführt werden.“
Fazit & Ausblick
Der Trend ist eindeutig: Rechenzentren wandeln sich zu einem zentralen Bestandteil serviceorientierter IT-Organisationen, die Mitarbeitern, Kunden und Partnern standardisierte IT-Ressourcen zur Verfügung stellen. Und das muss möglichst schnell, flexibel und kostengünstig erfolgen.
Umsetzen lässt sich das nur, wenn große Teile der Rechenzentrums-Infrastruktur und -Services „autonom fahren“, also so automatisiert wie nur möglich ablaufen. Ähnlich wie die Automobilhersteller, die bereits äußerst automatisiert Fahrzeuge produzieren, sind die Anbieter von IT-Systemen auf diesem Weg bereits ein gehöriges Stück vorangekommen. Neben Software-defined-Technologien tragen dazu in beträchtlichem Maß Künstliche Intelligenz und Machine Learning bei.
Denn vor wenigen Jahren wäre ein Szenario, wie es Uwe Müller von Cisco beschreibt, noch undenkbar gewesen: „Mit einer modularen, abgestimmten und effizienten Rechenzentrumslandschaft können bereits heute drei IT-Fachleute mehr als 20 weltweit verteilte, unterschiedliche Data-Center-Fabrics verwalten. Für das Management von mehr als 3000 Blade-Servern reichen zwei Administratoren aus.“
Und sollten Künstliche Intelligenz und maschinelles Lernen in noch größerem Umfang in die Rechenzentren Einzug halten, dann wird künftig vielleicht nur noch ein einzelner Supervisor aus Fleisch und Blut für den Fall der Fälle erforderlich sein. Das Tagesgeschäft sollte sich dann weitgehend von selbst erledigen. So erhalten Administratoren die notwendigen Freiräume und können sich anderen, strategisch wichtigeren Aufgaben widmen. Und sie können so schnell und flexibel agieren, wie man es von externen Cloud-Providern gewohnt ist.