Rein in die Cloud - raus aus der Cloud

Cloud Repatriation und Data Gravity

von - 11.12.2019
Cloud Computing
Foto: Vlad Kochelaevskiy / shutterstock.com
Firmen stehen vor der Herausforderung, den richtigen Mix aus Public Cloud, eigenem Data-Center und Hybrid Cloud zu finden. Dazu sollten alle beteiligten Bereiche detailliert geprüft werden.
Service-Provider, Beratungshäuser, aber auch Unternehmen kennen meist nur eine Richtung: rein in die Cloud. Wer keine Cloud-first-Strategie vorzuweisen hat, gilt als antiquiert. Richtig ist, dass Public-Cloud-Dienste zum IT-Portfolio der meisten Unternehmen zählen. Das gilt nicht nur für die Angebote der Hyperscaler wie Amazon Web Services (AWS), Microsoft, Google und IBM. Auch hiesige Provider und Systemhäuser wie die Deutsche Telekom, Cancom, QSC und Bechtle forcieren die Cloud, häufig in Zusammenarbeit mit Partnern wie SAP, Microsoft oder Oracle.
Wie stark Public-Cloud-Services an Boden gewinnen, belegt die Studie „Data Age 2025“, die das Marktforschungsunternehmen IDC im Auftrag von Seagate erstellt hat. Demnach steigt der weltweite Datenbestand von 33 Zettabyte im Jahr 2018 bis 2025 auf 175 Zettabyte. Darin eingeschlossen sind Daten von Unternehmen und privaten Nutzern. Von diesen 175 ZByte soll rund die Hälfte (49 Prozent) in Public-Cloud-Data-Centern lagern.
Doch es häufen sich Stimmen, die zu einer nüchternen Bestandsaufnahme raten, bevor ein Unternehmen Ressourcen wie Server, Storage-Kapazitäten und Applikationen aus einer Public Cloud bezieht. So haben nach Angaben des Marktforschungsinstituts Enter­prise Strategy Group rund 77 Prozent der Nutzer von Public-Cloud-Diensten mehrfach Workloads wieder in das eigene Rechenzentrum zurückverlagert. An die 23 Prozent taten dies schon viele Male, vor allem Unternehmen, die eine Cloud-first-Strategie verfolgen.
In einer weltweiten IDC-Studie vom vergangenen Jahr zum Thema Repatriation von Work­loads aus Public-Cloud-Rechenzentren in hauseigene Data-Center oder in Hybrid Clouds gaben sogar 81 Prozent der befragten Unternehmen an, dass sie 2018 Workloads aus einer Public Cloud zurückverlagert haben - vorzugsweise in eine Hosted Private Cloud (41 Prozent) oder eine Private Cloud in eigenen Rechenzentren (38 Prozent). Für 2019 erwartete IDC sogar, dass 85 Prozent der befragten Firmen Cloud-Services zurückholen. Als Gründe führen die Unternehmen Sicherheitsbedenken (19 Prozent) und Probleme mit der Performance der Cloud-Services (14 Prozent) an. Jeweils 12 Prozent sind mit den Kosten und den mangelnden Kontrollmöglichkeiten unzufrieden.

Keine Cloud-Flucht

„Ein Großteil der Unternehmen hat anfangs in starkem Maß auf Public-Cloud-Dienste gesetzt. Doch nicht in jedem Fall ist das der beste und vor allem kostengünstigste Weg. Das zeigt sich allerdings in vielen Fällen erst nach einiger Zeit“, erklärt auch Sridhar Iyengar, Managing Director bei Zoho Europe. Das Unternehmen ist selbst Anbieter von Geschäftsanwendungen und Entwicklungsplattformen, die als Cloud-Service verfügbar sind. Allerdings regis­triert Iyengar keine Fluchtbewegung von Unternehmen aus der Public Cloud: „Zoho sieht keine Tendenz, dass Unternehmen Cloud-Services misstrauischer als früher gegenüberstehen“, so der Manager.
Sridhar Iyengar
Sridhar Iyengar
Managing Director bei Zoho Europe
www.zoho.com
Foto: Zoho
Ein Großteil der Unternehmen hat anfangs in starkem Maß auf ­Public-Cloud-Dienste gesetzt. Doch nicht in jedem Fall ist das der beste und vor allem kostengünstigste Weg.“
Das bestätigt Markus Hahn, Director Data Center beim IT-Dienstleister Logicalis: „Unsere Kunden sind nach wie vor auf dem Weg in die Cloud. Und das gilt allgemein für Unternehmen in Deutschland.“ Seiner Erfahrung konzentrieren sich deutsche Firmen mittlerweile stärker auf Anwendungsfälle und den Geschäftsnutzen, wenn sie den Einsatz von Cloud-Services planen. „Dabei ist der reine Kostenvergleich zwischen On-Premise- und Cloud-Ressourcen meist nicht ausschlaggebend, sondern eine umfassende Betrachtung der Gesamtkosten, inklusive aller cloudspezifischen Mehrwerte“, so Hahn. Diese „Hausaufgaben“ müssten Unternehmen machen, denn: „Wenn diese TCO-Betrachtung vor Start eines Cloud-Projekts korrekt umgesetzt wurde, gibt es keinen unangenehmen Überraschungseffekt bei den Kosten.“
Voraussetzungen für Cloud-Portabilität
Nach Einschätzung von Hermann Gouverneur, CTO von Atos Deutschland, gibt es keine „einfachen Lösungen“, um die Porta­bilität von Workloads in Cloud-Umgebungen sicherzustellen. Portabilität von Cloud-Workloads ist Atos zufolge eine Eigenschaft, die als solche designt, gebaut und regelmäßig gewartet werden muss. Eine wichtige Rolle spielen dabei sechs Prinzipien:
1. Kapselung, beispielsweise durch den Einsatz von Container-Technologien wie Docker und Kubernetes.
2. „Bring Your Own Trust“, Stichwort Trusted Computing: Jeder Kompromiss in Bezug auf die Sicherheit von Workloads gefährdet deren Portabilität. Daher ist ein einheitliches und vertrauenswürdiges Sicherheitsniveau unverzichtbar.
3. Datenflüssen und Standortfragen mit einer Ressourcenplanung und einem Cluster-Management begegnen.
4. Friktionen minimieren, etwa durch Nutzung von Dependency Injection. Der Begriff stammt aus der objektorientierten Programmierung. Im Rahmen von Dependency Injection werden die Beziehungen zwischen Komponenten und Objekten beschrieben und auf das notwendige Minimum reduziert.
5. Vorschriften reduzieren: Das Ziel ist, bei Workloads eine möglichst große Formbarkeit, nicht Starrheit zu erreichen.
6. Auf Open Source beziehungsweise Open Standards setzen.
  • Wichtig ist zudem, den Umfang der Portabilität zu de­finieren:
  • Ist volle Portabilität erforderlich oder nur die Möglichkeit, zwischen Public und Private Cloud zu wechseln?
  • Gibt es andere Kombinationen?
  • Gelten unterschiedliche Ansätze für verschiedene Gruppen oder Kategorien der Applikationslandschaft?
Die Antworten auf diese Fragen zeigen auf, mit welchen Kompromissen bei einer Portabilität von Workloads in die Cloud zu rechnen ist und wie stringent die Gestaltungsprinzipien auf
einen bestimmten Workload anzuwenden sind.
Verwandte Themen