(R)Evolution im Speichermarkt mit SDS

Das heißt Software-defined

von - 04.08.2014
Software-defined Storage geht noch einen Schritt weiter als bisherige Formen der Speicher-Virtualisierung. So verteilt zum Beispiel ein RAID-System (Redundant Array of Independent Disks) bisher schon die Speicherdaten redundant über verschiedene physikalische Festplatten hinweg, um sie vor einem Ausfall zu schützen.
Speicher-Bürde für IT Professionals: Die Datenmenge, für die ein IT-Professional zuständig ist, wächst in den nächsten Jahren rasant.
Speicher-Bürde für IT Professionals: Die Datenmenge, für die ein IT-Professional zuständig ist, wächst in den nächsten Jahren rasant.
Solche logischen Systeme oberhalb der Hardware-Basis finden sich auch beim LUN-Konzept oder bei der klassischen Speichervirtualisierung: LUNs (Logical Unit Numbers) bezeichnen eine logische oder virtuelle Speichereinheit, die auf einem oder mehreren Speichergeräten Daten zusammenfasst; Speichervirtualisierung kombiniert unterschiedliche Arrays von einem oder verschiedenen Herstellern zu einem virtuellen Pool. Alle diese Techniken sind schon länger „Software-driven“.
Das Konzept von Software-defined Storage dagegen will mehr: Es geht um nichts Geringeres, als die komplette tradi­tionelle Hardware-orientierte Sichtweise von Speicher über den Haufen zu werfen. Die Kontrollebene, also die Zuteilung und laufende Verteilung von Speicher, soll zu 100 Prozent von der physikalischen Ebene abgetrennt werden – entsprechend dem Vorbild der Server-Virtualisierung. Das bedeutet de facto, dass die Storage-Infrastruktur trotzdem nach wie vor ihren Platz behält – nur soll dabei der Software-Anteil deutlich die Oberhand über den Hardware-Anteil gewinnen.
Der Ansatz von SDS besteht prinzipiell darin, dem exponentiellen Datenwachstum nicht mit immer neuen Speicherschränken zu begegnen, sondern mittels Virtualisierungstechnologie auf der Software-Ebene nach neuen Lösungen zu suchen. Dabei ist zu beachten, dass das Ziel zwar klar definiert ist, aber gegenwärtig noch konkurrierende Ansätze das Feld beherrschen.
Ein eindeutiger Marktführer wie VMware bei der Server-Virtualisierung ist noch nicht auszumachen. Für die Anwender bedeutet das, sorgfältig zwischen den Alternativen abzuwägen und den Investitionsaufwand gering zu halten. Man sollte auch überlegen, ob hinter bestimmten Software-defined-Angeboten nicht doch verklausulierte Hardware-Erweiterungen stecken.
IBM zum Beispiel hat die Broschüre „Software-defined Storage for Dummies“ herausgegeben, die sehr nahe an den eigenen, schon älteren Produkten entlanggeschrieben ist, aber auch neutrale Informationen enthält. So liefert IBM folgende Definition von SDS: „Grundsätzlich handelt es sich bei Software-defined Storage um Speicherlösungen für Unternehmen, die Standard-Hardware benutzen und alle wichtigen Speicher- und Management-Funktionen mittels intelligenter Software ausführen. SDS liefert automatisierte, regelbasierte und anwendungsorientierte Speicher-Services, indem die Speicherinfrastruktur von dem darüberliegenden Software-Layer orchestriert wird.“
SDS: Software-defined storage architecture
SDS: Software-defined storage architecture
Für IBM gehören zu SDS auch „automatisierte Management-Funktionen wie Information Life Cycle Management (ILM) und Provisioning, Storage-Virtualisierung und eine leistungsfähige Scale-out-Architektur“. Diese Eigenschaften stehen laut IBM in Kontrast zu traditionellen Speichersystemen, die wesentlich von proprietärer Hardware abhingen.
Spätestens hier zeigt sich ein Widerspruch in der IBM-Strategie: Der Konzern will ja – ebenso wie seine großen Konkurrenten auf dem Speichermarkt EMC, HDS oder HP – durchaus weiter seine eigenen proprietären Speichersysteme in die bestehende Kundenbasis hinein und darüber hinaus verkaufen. Mit konsequenter SDS-Technologie sägt man immer auch den Ast ab, auf dem man sitzt – so wie es zum Teil auch beim Propagieren von externen Cloud-Lösungen der Fall ist.
Ein schönes Beispiel für eine fast zwangsläufige Umetikettierung ist hier die im Mai 2014 angekündigte Einführung von Elastic Storage durch IBM. Diese „neue, bahnbrechende Technologie erlaubt es Unternehmen, mit dem explodierenden Datenwachstum Schritt zu halten, indem eine unbegrenzte Menge von Daten aus Geräten, Sensoren, Geschäftsprozessen und sozialen Netzwerken aus­gewertet werden kann“, heißt es vom Hersteller.
Hinter Elastic Storage verbirgt sich allerdings lediglich das von IBM schon bisher verwendete Dateisystem GPFS (General Parallel File System), das zum Beispiel in geclusterten oder Shared-Umgebungen Anwendung findet. Elastic Storage ist für IBM nun ein Teil von SDS. Neu sind nur einige Erweiterungen in Richtung Cloud und Open Stack, entsprechend der allgemeinen Strategie von IBM, die Big-Data- und Cloud-Umgebungen anpeilt.
Verwandte Themen