Tech-Nodes

Server, Storage & Co. - Alles virtuell, oder was?

von - 19.07.2015
Virtualisierung
Foto: Mathias Vietmeier
Alle in der IT scheinen sich einig zu sein: Virtualisierung ist ein Segen. Aber stimmt das auch? Ein Kommentar von Hartmut Wiehr, dem Tech-Nodes-Kolumnisten von com! professional.
Server sind heute schon größtenteils virtualisiert. Mit dem Storage wird bereits genauso verfahren. Stichwort: Software-defined Storage (SDS). Und in der nächsten Etappe sind nun die Netzwerke dran – glauben die IT-Auguren und die Hersteller, wenn sie das Software-defined Networking (SDN) propagieren.
Zwar sträubt sich bei „virtualisierten Betriebssystemen“ und „virtuellen Applikationen“ der Verstand, doch die inflationäre Verwendung des Wörtchens „virtuell“ scheint sich kaum noch stoppen zu lassen. Auch wenn am Ende des Tages niemand um die Erkenntnis herumkommt: Im Kern ist und bleibt die IT nichtvirtuell.
Hartmut Wiehr, IT-Fachjournalist und Buchautor
Hartmut Wiehr, IT-Fachjournalist und Buchautor mit Wohnsitz in Italien
Denn schließlich dreht sich alles um Daten, und diese muss man sozusagen schwarz auf weiß vor sich haben oder zumindest in physikalisch und per Software geschützten Dateien, Programmen und Datenbanken sicher aufbewahrt wissen – um sie jederzeit materialisieren zu können. Magnetische Bänder, Festplatten, Speicherschränke und Rechenzentren tief unter der Erde oder hinter hohen Mauern sind alles andere als virtuell – und das ist auch gut so.

Virtuelle Maschinen konkurrieren

Doch was ist Virtualisierung eigentlich? Letztlich nur eine Software-Ebene oberhalb von Hardware und Betriebssystem, die eine künstliche Aufteilung der materiellen Ressourcen in kleinere Einheiten erlaubt. Dabei wird aber zum Beispiel ein Server nicht in lauter gleiche oder gleichberechtigte Server-Einheiten aufgeteilt, sondern diese neuen Instanzen müssen sich einen identischen Topf an CPU-Leistung, Bandbreite im Netz oder an Festplattenkapazität teilen. Es herrscht Konkurrenz zwischen den virtuellen Maschinen (VMs). Was die eine hat, kann die andere nicht oder nur bedingt haben.
Anders ausgedrückt: Es gibt Warteschleifen, Benachteiligungen, Durcheinander. Ohne Betreuung per Hand, seltener per Automatisierung, geht da nichts mehr. Und das erforderliche Fachwissen für die Verwaltung der virtuellen Instanzen ist enorm.
Sehen wir uns ein Beispiel für reale Probleme der Virtualisierung an. Ein Unternehmen setzt für seine VMs unterschiedliche Hypervisoren ein: Hyper-V von Microsoft und vSphere ESX von VMware. Microsoft stellt mit Clustered Storage Spaces ein bestimmtes Speichervolumen für seine VMs zur Verfügung, und VMware tut mit hyper-converged VSAN-Nodes ein Gleiches für seine VMs. Stößt nun eines der Volumes – sagen wir das von vSphere ESX – an Kapazitätsgrenzen für seine VMs, kann es nicht so einfach auf das Volume des anderen Hypervisors – hier Hyper-V – zugreifen. Das geht nur mit Convertern, die zum Beispiel das VMDK-Format von VMware in das VHD-Format von Microsoft umwandeln – wobei die Daten dann für den ursprünglichen virtuellen Bereich gesperrt sein können.
So etwas schreit geradezu nach Start-ups, die sich bessere Alternativen einfallen lassen. Die lindern dann die „Pain Points“ der Anwender, zumindest so lange, bis sie von einem der großen Konzerne weggekauft werden.

Weitere Infos

Verwandte Themen