Grundlagen, Tipps, Best Practices

IT neu gestalten mit Software-defined Storage

von - 02.10.2018
Data Storage
Foto: Andrey VP / shutterstock.com
Wachsende Datenmassen erfordern neue Speicher-Infrastrukturen. Eigene Hardware ist aber nicht nur kostspielig, sondern häufig auch unflexibel. Eine Lösung verspricht SDS.
Storage wird für Unternehmen zunehmend zum Problem. Die Entwicklungen der vergangenen Jahre – die Verbreitung mobiler Geräte, der Siegeszug sozialer Netzwerke und das Cloud-Computing – haben zu einer Datenexplosion geführt. Die historisch gewachsenen IT-Infrastrukturen können die Datenmassen kaum mehr bewältigen.
Gründe für den SDS-Einsatz
Warum SDS? Firmen setzten vor allem auf Software-defined Storage, weil sich heterogene Infrastrukturen damit viel einfacher verwalten lassen.
(Quelle: DataCore "State of Software-Defined Storage" )
Viele Unternehmen erweitern deshalb sukzessive ihre bestehende Storage-Landschaft. Das zieht eine ganze Reihe von Problemen nach sich: So müssen Storage-Nachrüstungen immer wieder erfolgen. Sie sind arbeits- und zeitaufwendig und belasten das IT-Budget. Noch viel dramatischer aber ist: Heute mischen sich die verschiedensten Speichersysteme von HDD über NAS und SAN bis hin zu Flash- und hyperkonvergenten Systemen. Der Zukauf von Storage unterschiedlicher Technologie und Hersteller führt zu Systemen, die sich untereinander – und vor allem mit älteren Systemen – nicht vertragen. Selbst sich auf das Portfolio eines einzigen Herstellers zu beschränken, bewahrt nicht vor Inkompatibilitäten. „Die Speicherverwaltung und Datenmigration zwischen Storage-Hard­ware unterschiedlicher Hersteller, Modelle und Produktgenerationen stellt eines der größten IT-Probleme für Unternehmen dar“, erklärt George Teixeira, Präsident des Storage-Spezialisten DataCore Software.

Starrer Storage

Die Herausforderungen sind damit noch nicht erschöpft: Da Hardware von Haus aus unflexibel ist, wird oft mehr gekauft, als man eigentlich braucht. Vor allem, um die Leistungs- und Hochverfügbarkeitsanforderungen abzubilden, stellen die IT-Abteilungen sehr oft eine gewisse Überversorgung mit zu viel Speicher und zusätzlichem Redundanz-Level bereit. Die Folge ist eine ineffiziente Auslastung der Kapazitäten. Gleichzeitig sind solche Systeme infolge der komplexen Struktur und Anbindung oft nicht besonders schnell, da eine Fülle von „Flaschenhälsen“ im System lauern, die die Geschwindigkeit drosseln können. Dabei werden im Zuge von Big Data und Analytics die Performance und das Tempo, mit dem Daten bereitgestellt werden, immer wichtiger. Unternehmenskritische Business- und Analytics-Applikationen wie SAP HANA verlangen eine hohe Performance mit entsprechend schnellen Speicherbausteinen wie Flash.
Doch der schnelle Flash-Speicher in Kombination mit herkömmlichem Speicher verkompliziert die Storage-Landschaft weiter. Die jüngeren Innovationen haben zu konvergierten Systemen geführt, zu Flash-Karten, Flash-Arrays und Cloud-Speicher – und letztlich zu Speichersilos und völlig inkompatiblen Systemen.
Matthias Zacher
Matthias Zacher
Manager Research and Consulting bei IDC
www.idc.de
Foto: IDC
„IT-Verantwortliche müssen jetzt dringend damit beginnen, ihre starren IT-Ressourcen zu flexibilisieren.“
Modernen Business-Anforderungen nach Tempo, Flexibilität und Zuverlässigkeit ist mit den traditionellen Speicherbausteinen kaum beizukommen. „Mit starren IT-Ressourcen lässt sich die digitale Transformation der Unternehmen und Geschäftsfelder nur unbefriedigend umsetzen“, heißt es in der IDC-Studie „Software-Defined Infrastructure 2016“. Matthias Zacher, Manager Research und Consulting bei IDC und Leiter der Studie, schlägt Alarm: „IT-Verantwortliche müssen jetzt dringend damit beginnen, ihre starren IT-Ressourcen zu flexibilisieren. Tun sie dies nicht, können sie schon bald die Business-Anforderungen nach einem sicheren und reibungslosen IT-Betrieb in zunehmend offenen und heterogenen geschäftlichen Ökosystemen nicht mehr gewährleisten.“
Verwandte Themen