Ist die Business-IT bald komplett virtualisiert?

Ein kritischer Blick auf den Virtualisierungs-Hype

Der Hype, der in den vergangenen Jahren rund um die Virtualisierung entstanden ist, fordert eine differenzierte Betrachtung geradezu heraus.
Lars Herrmann, General Manager Red Hat Enterprise Linux and Red Hat Enterprise Virtualization
Lars Herrmann, General Manager Red Hat Enterprise Linux and Red Hat Enterprise Virtualization, betrachtet die zunehmende Akzeptanz offener Technologien als einen der wichtigsten Trends im Jahr 2015: „KVM hat dabei als wichtigste Virtualisierungslösung im OpenStack-Umfeld bewiesen, dass sie durch große Stabilität, hohe Performance und hervorragende Skalierbarkeit auch bei groß angelegten Projekten jetzt für den Einsatz in Unternehmen bereit ist. Die Vorteile der Virtualisierung werden Innovationen bei Entwicklung, Skalierung und Implementierung von Applikationen weiter vorantreiben.“
Wer den Ausführungen der Analysten und Firmenvertretern folgt, kann schnell den Eindruck gewinnen, ohne Virtualisierung sei im Unternehmen keine IT mehr möglich. Die Vorteile der Virtualisierung scheinen immens zu sein: verlockende Anwendungsszenarien wie hyperdynamische Rechenzentren, flexible Ressourcen-Zuweisung, Automatisierungsgrade bei der Einrichtung von Umgebungen oder Arbeitsplätzen und bei Bedarf eine cloudbasierte Variante mit Byte-genauer Abrechnung. Was kann daran schlecht sein?
Während bei einer klassischen Installation eines Servers auf einer Hardware das Sizing in der Regel über ausreichend und manchmal zu viele Ressourcen verfügt, zeigt die Praxis, dass viele Administratoren dazu neigen, ihre Virtualisierungs-Hosts über Gebühr mit zu vielen Maschinen zu strapazieren.
Eine CPU mit acht Kernen und 32 GByte RAM kann und wird im Produktivbetrieb niemals vier ausgewachsene Server-Systeme einigermaßen performant betreiben können. Eine derart starke Überlastung zieht aber letztlich träge Reaktionszeiten nach sich – und diese wiederum führen zu einer schlechten User-Experience.
VMware ESX & Co. laden die IT-ler förmlich dazu ein, mehr aus den Maschinen he­rausquetschen zu wollen, als es ihnen die Vernunft gebieten würde. Kommt dann noch falsche Sparsamkeit hinzu, wenn beispielsweise zu wenige NICs (Network Interface Controller) im Host-System zur Verfügung stehen, dann teilen sich am Ende ein Mail-Server, ein Datenbanksystem, ein Backup-Rechner und zwei Terminal-Server eine einzelne Netzwerkkarte für den gesamten Netzwerkverkehr. Das kann nicht gutgehen.
Hier gilt die Regel: Server-Virtualisierung vermag zwar die Stromkosten zu senken und die Hardware-Auslastung zu optimieren, jedoch nur in einem vertretbaren Rahmen, der der Situation angepasst sein muss.
„Software-defined Storage ist eine Speicherlösung mit Standard-Hardware, bei der alle wichtigen Speicher- und Management-Funktionen mittels intelligenter Software ausgeführt werden.“
(Quelle: IBM )
Weiterhin ist mancher Virtualisierungstrend auch gar nicht so neu und markant, wie es auf den ersten Blick erscheinen mag. Beispiel: Storage-Virtualisierung.
Die Storage-Virtualisierung ist als Schlagwort nach wie vor sehr populär. Immerhin verspricht diese Technik, dass alles viel einfacher wird, wenn die Storage-Systeme in einer einzigen Struktur abstrahiert genutzt werden können. Doch diese Art der Flexibilität wurde – vom Standpunkt des reinen Dateizugriffs aus betrachtet – von Techniken wie dem Distributed File System (DFS) schon vor Jahren mühelos erreicht. Auch bei DFS existiert eine Abstraktionsschicht, mit deren Hilfe die darunterliegenden File-Server kaschiert und somit beliebig austauschbar gemacht werden.
Spezielle Softwareprodukte wie die Lösungen von Datacore bieten ebenfalls seit Jahren eine ähnliche Technik für den blockbasierten Zugriff auf das Dateisystem an, die zunächst nur noch nicht als Storage-Virtualisierung bezeichnet wurde. Außerdem erlauben Techniken wie iSCSI und Fibre Channel eine sehr hohe Dynamik und Leistung, die allerdings bei falscher Konfiguration in den Software-Abstraktionsschichten ebenso schnell wieder ausgebremst werden.
Wer sich dann noch die vermehrt ausgebauten Abstrak­tionsschichten in der professionellen IT genauer ansieht, der erreicht unweigerlich das Netzwerk und den virtuellen Desktop. Gerade in Hinblick auf diese Bereiche sollten IT-Verantwortliche und Administratoren einen wichtigen Aspekt nicht außer Acht lassen. Durch derartige Techniken entsteht eine deutlich höhere Komplexität, die sich auf das Tagesgeschäft der IT-Mitarbeiter auswirkt.
Die zunehmende Unabhängigkeit von Hardware durch Virtualisierungstechniken ist im Prinzip eine gute Sache. Auf der anderen Seite ist es für den Systemverwalter dank dieser Techniken heute kaum noch möglich, die Verquickungen der unterschiedlichen Systeme und deren Folgen für virtualisierte Einzelsysteme zu überblicken. Fällt beispielsweise eine Platte in einem RAID-Verbund im Käfig eines herkömmlichen Datei-Servers aus, so kann der IT-Mitarbeiter schnell herausfinden, welches der angeschlossenen Systeme in Gefahr ist.
In einem Storage-Verbund hingegen, der etwa über ein Software-defined Network mit mehreren virtuellen LUNs auf acht dynamischen ESX-Hosts mit teilautomatisierter vMotion angesprochen wird, fällt es selbst dem erfahrenen IT-Mann schwer, die Auswirkungen eines Kabel- oder Plattenausfalls auf den ersten Blick zu finden.
Der steigende Grad der Virtualisierung verlangt von den IT-Mitarbeitern also, dass sie die Abstraktion der unterschiedlichen Schichten stets nachvollziehen können – was trotz der Unterstützung durch entsprechende Software-Tools in der Praxis oft genug schwierig ist.

Fazit

Unbestritten ist, dass die Virtualisierung eine technologische Triebfeder für die gesamte Branche bleibt. Noch vor 15 Jahren war es vollkommen undenkbar ein „Rechenzentrum to go“ für ein paar Stunden und Tage einzurichten und produktiv zu verwenden.
IT-Arbeitsplätze sollen und müssen heute anders funktionieren als vor ein paar Jahren. Virtualisierung, Techniken wie gehostete Desktops und die Möglichkeit, Netzwerke flexibel zu konfigurieren, werden die IT und damit die Arbeits­welt weiterhin entscheidend beeinflussen und prägen.
Virtualisierung ist Gegenwart und Zukunft professioneller IT.
Verwandte Themen