Data Center Trends

Das IoT im Rechenzentrum

von - 14.03.2018
Rechenzentrum
Foto: Oleksiy Mark / Fotolia
Der Anspruch an die Technik für das Data-Center-Management steigt. Diese sieben Technologietrends bestimmen, wie Rechenzentren künftig überwacht werden.
Dieser Beitrag wurde von Vincent Barro verfasst, VP Switzerland & End-Users DACH bei Schneider Electric.
Lösungen für das Data-Center-Infrastruktur-Management (DCIM) helfen, die Probleme der immer komplexer werdenden Technik im Rechenzentrum in den Griff zu bekommen. Der Hauptzweck besteht darin, Downtime zu vermeiden und die Energieeffizienz zu erhöhen – beides ist bares Geld wert. Die Anforderungen an die Überwachung der Data-Center sind massiv gestiegen. Nehmen wir zum Beispiel die Versorgung mit Energien wie Strom und Kühlung. Heute verarbeiten deren Überwachungssysteme rund dreimal so viele Daten wie vor zehn Jahren.
Vincent Barro
VP Switzerland & End-Users DACH bei Schneider Electric
www.schneider-electric.ch
Foto: Schneider Electric
„Kein Unternehmen kann es sich leisten, die Infrastruktur nach dem ,Break and Fix‘-Prinzip zu unterhalten. Dafür sind die digitalen Fabriken längst zu wichtig fürs Geschäft geworden.“
Inzwischen ist DCIM unverzichtbar. Kein Unternehmen hat genügend Personal, um die immer größer werdende Menge an Statusdaten zu verwalten und auszuwerten. Und keines kann es sich leisten, auf die Überwachung zu verzichten und seine Infrastruktur nach dem „Break and Fix“-Prinzip zu unterhalten – dafür sind die digitalen Fabriken längst zu wichtig geworden fürs Geschäft. Diese sieben Technologietrends bestimmen, wie Rechenzentren künftig mit DCIM überwacht werden.

1. Integrierte Sensoren

Die Anzahl integrierter Sensoren hat sich in der Data-Center-Infrastruktur in den letzten zehn Jahren verdreifacht. Es gibt praktisch kein Gerät mehr in der gesamten Strom- und Kälteversorgung, das nicht permanent Status- und Leistungs­daten übermitteln würde. Die Preise der Sensoren sind gesunken, die Qualität der vernetzten Geräte (IoT) ist gestiegen: Sie zeichnen Leistungsdaten viel detaillierter auf, verfügen über mehr Features und übermitteln diese Daten an das DCIM-System. Je mehr Zustandsdaten verfügbar sind, desto höher ist der Nutzen der Daten dank zunehmender Machine-Learning-Fähigkeiten (siehe Punkt 6).

2. Cybersicherheit

Cybersicherheit gehört zu den größten Sorgen von Data-Center-Betreibern. Im Fokus steht nicht nur das IT-Netzwerk selbst, sondern auch die physische Infrastruktur, die als Hintertür ins IT-Netz missbraucht werden könnte. Jede DCIM-Lösung benötigt heute Cybersicherheit – egal ob sie Daten sammelt, zentralisiert oder verteilt. Mit Vorteil wählen IT-Verantwortliche einen Anbieter mit einem Secure-Development-Lifecycle-Prozess (SDL): Seine Produkte werden gemäß Cybersecure-Methoden codiert, getestet und validiert. In puncto Architektur sollte es nur einen einzigen Eintrittspunkt ins System geben (normalerweise ein Software-Gateway), über den alle Geräte kommunizieren.

3. Cloud-Computing

Cloud-Computing im DCIM ist ein Game-Changer, ausgelöst durch die rasche Zunahme von Edge-Computing und die Anforderungen vieler neuer Echtzeitservices. DCIM wird also immer mehr zu Data-Center-Management as a Service (DMaaS). Eine heterogene physische Infrastruktur über viele Standorte hinweg kann via Cloud viel einfacher, effizienter und günstiger überwacht werden – und zwar „anytime, anywhere“.

4. Big-Data-Analysen

Big Data kommt immer dann ins Spiel, wenn die Datenmenge quasi explodiert, die Daten unstrukturiert sind und in Echtzeit bearbeitet werden müssen. Genau dies ist jetzt der Fall in Rechenzentren. Diese High-Level-Analysen verwandeln große Datenmengen in wertvolle Information. Ein Beispiel sind etwa Algorithmen, die die Leistung von Systemen für die unterbrechungsfreie Stromversorgung proaktiv überwachen. Die Algorithmen erkennen den optimalen Zeitpunkt für die Wartung. Dadurch sinken die Kosten, denn das Serviceteam rückt nicht mehr dann an, wenn es im Kalender eingetragen ist, sondern dann, wenn die Batterien zu schwächeln beginnen.

5. Mobile Computing

Personelle Ressourcen werden aufgrund des Kostendrucks in Data-Centern immer knapper. Data-Center-Manager sind mit Smartphone und App heute stets „vor Ort“, wo auch immer sie sich physisch befinden.
Meldet ein Gerät einen veränderten Zustand, „merken“ Überwachungssysteme dies sofort und schlagen geeignete Maßnahmen vor. Damit lassen sich die meisten Probleme beheben, bevor Infrastrukturanlagen tatsächlich ausfallen.

6. Maschinelles Lernen

Wie Netflix unsere Film- oder Serienauswahl registriert und den User mit der Zeit immer besser kennt – und entsprechend passgenaue Vorschläge macht –, genauso verbessert die permanente Datenanalyse auch die Qualität von Infrastrukturprognosen im Data-Center. Beinahe-Ausfälle sind hier besonders wertvoll. Das maschinelle Lernen versteht und dokumentiert, warum Vorfälle aufgetreten sind. Dadurch sinkt das Risiko für erneute Fehler desselben Typs. Besonders wirkungsvoll ist diese Analyse, wenn dabei auch unternehmensübergreifend aggregierte (und ano­nymisierte) Daten berücksichtigt werden. So kann gefährlichen Mustern noch besser vorgebeugt werden.

7. Steigende Automatisierung

Es ist noch nicht lange her, da wurde der Zustand vieler Rechenzentren manuell und vor Ort überwacht – mit entsprechend hohem personellen Aufwand. Die digitale Fernüberwachung arbeitet getreu dem Motto „mit weniger mehr erreichen“. Techniker müssen die Racks nicht mehr vor Ort inspizieren, um festzustellen, ob die Temperaturen zu hoch sind oder sonst etwas nicht stimmt. Ebenso wird durch die Automatisierung die Gefahr der Alarmmüdigkeit reduziert. Wenn immer dieselben Alarme von immer demselbem Gerät auftreten, tendiert der Mensch dazu, diese zu übersehen. Dank der Automatisierung werden diese Alarme automatisch überwacht, zusammengefasst und priorisiert. Die richtigen Entscheidungen im richtigen Moment zu treffen, wird für Data-Center-Manager so deutlich vereinfacht.

Fazit

Die sieben Trends zeigen: Rechenzentren werden immer zuverlässiger und effizienter dank digitaler Fernüberwachung (DCIM). Sie hilft, die Vorteile von Big Data, der Cloud und maschinellem Lernen zu nutzen – vorausgesetzt die Über­wachungsplattformen sind so konzipiert, dass sie die laufend produzierten Daten auch sinnvoll auswerten können.
Verwandte Themen