IT neu gestalten mit Software-defined Storage

Wann bietet sich ein Umstieg an?

von - 02.10.2018
Angesichts des Nutzens ist es nicht erstaunlich, dass Software-defined Storage laut IDC eine der am stärksten wachsenden Technologien im IT-Bereich ist und zum neuen Standard bei der Gestaltung von Speicherarchitekturen werden könnte. Für 2017 bis 2021 sagen die IDC-Analysten eine mittlere Wachstumsrate von 13,5 Prozent voraus.
Ähnlich lautet der Befund in der Studie „State of Software-Defined Storage“, für die der SDS-Vorreiter DataCore seine Anwender befragt hat. Danach gaben 16 Prozent der Befragten an, 2017 zwischen 11 und 25 Prozent ihres Storage-Etats für SDS eingeplant zu haben, weitere 13 Prozent hatten mehr als 25 Prozent dafür reserviert.
Dass sich ein Umstieg auf Software-defined Storage lohnt, hat sich bei vielen Unternehmen also bereits herumgesprochen. Was allerdings jedes Unternehmen individuell beantworten muss, ist die Frage, wann denn der optimale Zeitpunkt dafür ist. Prinzipiell ist die Einführung einer SDS-Lösung jederzeit möglich – es gibt jedoch Gelegenheiten, zu denen sich das besonders anbietet.
Anschaffung von Hardware: An eine Migra­tion auf Software-defined Storage sollte etwa denken, wer sowieso gerade Storage-Hardware zukaufen oder neu anschaffen will. Dann spricht einiges dafür, den alten Speicher zu behalten und das Budget stattdessen in Software-definierten Storage zu stecken. Die alten Speicherkomponenten lassen sich unter SDS weiter nutzen, die Investitionen bleiben so erhalten – und falls nötig lässt sich die bestehende Hardware unter SDS immer noch ergänzen. 
Integration von Flash- und SSD-Speicher: Wer Flash-basierte Speicherprodukte einsetzt, ist auf dem besten Weg zum Software-defined Storage – selbst wenn es dabei „nur“ um die Beschleunigung einer Applikation geht, sagt IDC. In diesem Fall ist es ohnehin erforderlich, sich mit Storage Tiering und der dynamischen und automatischen Verteilung der Daten auf geeignete Datenträger zu befassen. Wer gleich auf SDS umsteigt, schlägt zwei Fliegen mit einer Klappe: SDS beherrscht Storage Tiering und sorgt für die Einbindung aller anderen Speichersysteme.
Erweiterung der Server- oder Desktop-Virtualisierung: Bei der Einführung oder Erweiterung von Server- oder Desktop-Virtualisierung ist eine Umstellung auf SDS ebenfalls sinnvoll. SDS fügt der Virtualisierung eine dritte Dimension hinzu, komplettiert die laufenden Virtualisierungsansätze und optimiert vorhandene und neue Speicher-Ressourcen. Der Vorstoß von VMware in Sachen Speichervirtualisierung dürfte so manches Unternehmen einen Schritt in Richtung SDS machen lassen.
Umstrukturierung von Ausfallsicherheit und Wiederherstellung: Wer Pläne für Ausfallsicherheit und Notfallwiederherstellung entwickelt oder anpasst, sollte ebenfalls auf SDS umsteigen. SDS-Umgebungen liefern mit synchroner Spiegelung, hoch performantem Caching und virtuellem Disk-Pooling eine optimale Auslastung vorhandener Strukturen. Gleichzeitig garantieren sie durchgängige Verfügbarkeit.
Kernfunktionen einer SDS-Lösung
Eine gute Software-defined-Storage-Lösung umfasst folgende wichtige Funktionalitäten:
  • Automatisierung. Die standortunabhängige Speicherbereitstellung und -verwaltung sollte automatisiert sein, virtuelle SANs, Server-DAS, Flash-Geräte, Netzwerkspeicher (NAS), SAN-Arrays und Cloud-Speicher sollten in einem Management-Framework vereinheitlicht werden. So können IT-Manager einzelne Produkte beispielsweise für virtuelle Umgebungen unter ein umfassendes Verwaltungsregime stellen und dadurch die operative Effizienz erhöhen.
  • Einfach einsetzbar und skalierbar. Eine gute SDS-Lösung erlaubt es, mit einer kleinen virtuellen SAN-Bereitstellung zu beginnen und die internen Flash-Speicher und Datenträger bestehender Anwendungs-Server zu verwenden. Später lässt sich die Speicherumgebung dann mit Speicher-Arrays, konvergierten Systemen, Hypervisoren und Flash-Technologien verschiedener Marken erweitern.
  • Automatisierte Datenplatzierung. Die Platzierung von Daten sollte gemäß den Leistungsanforderungen und dem Kostenprofil der Anwendungsarbeitslast automatisierbar sein.
  • Automated Tiering. Häufig benötigte Daten sollten nahe der Anwendung im Flash-Speicher platziert werden und in den Netzwerkspeicher oder in die Cloud verschoben werden, wenn sie nicht mehr so oft benötigt werden. So lassen sich die Speicherkosten gering halten, während die erforderliche Leistung für kritische Arbeitslasten gewährleistet wird.
  • Flash-Nutzung. Die Nutzung von Flash-Technologien ist heute eine Selbstverständlichkeit. Sie muss wie andere Speicherklassen in die vorhandene Speicherinfrastruktur integrierbar sein. Von der Software sollte der Datenverkehr durch Lese- und Schreibvorgänge flexibel zwischengespeichert werden.
  • Nahtlose Integration mit beliebten Server-Hypervisoren. Anwender sollten ihre Speicherinfrastruktur mit Hilfe der Server-Virtualisierungs-Tools ihrer Wahl verwalten können.
Verwandte Themen