Die größten Probleme bei der Cloud-Nutzung

Verfügbarkeit

von - 05.10.2020
Viele Unternehmen glauben, sich durch den Gang in die Cloud von lästigen Verfügbarkeits- und Performance-Sorgen befreien zu können. Tatsächlich versprechen Cloud-Provider höchste Zuverlässigkeit. AWS garantiert in seinen Service Level Agreements (SLA) beispielsweise eine Uptime von 99,99 Prozent in jeder Amazon-EC2-Region (Elastic Cloud Computing), was weniger als einer Stunde Stillstand pro Jahr entspricht. Microsoft und Google werben ebenfalls mit hohen Verfügbarkeiten von 99,99 Prozent beziehungsweise 99,978 Prozent.
Die Realität sieht allerdings etwas anders aus. „Mittlerweile dürfte jeder mitbekommen haben, dass auch die ganz großen Cloud-Provider nicht vor Ausfällen gefeit sind“, sagt Rubrik-
Director Freyer. „Das ist vielen Kunden sauer aufgestoßen, die große Teile businesskritischer Systeme in diese Infrastrukturen migriert haben.“ Im Jahr 2017 sorgte die bislang größte Panne bei AWS für Schlagzeilen. Durch einen Tippfehler hatte ein Techniker eine Kettenreaktion ausgelöst, in deren Folge massenhaft Server vom Netz gingen. Die Auswirkungen waren gravierend: Über mehrere Stunden konnten Internetdienste wie Slack und Trello nicht oder nur eingeschränkt erreicht werden. Online-Shops verzeichneten drastische Performance-Einbußen. Selbst das AWS-eigene Service Health Dashboard (SDH) war betroffen. Der wirtschaftliche Schaden belief sich Presseberichten zufolge allein bei den im S&P 500-Index gelisteten Unternehmen auf rund 150 Millionen Dollar. Zu einer eher absurden Situation führte ein Server-Ausfall bei AWS im August 2019. Wie die Webseite BTC Echo berichtet, brachen durch die Störung kurzzeitig die Kurse für Kryptowährungen ein. Einigen Händlern soll es gelungen sein, Bitcoins für unter einen Dollar zu kaufen. Der tatsäch­liche Kurs belief sich dagegen auf rund 10.000 Dollar. Im Januar 2020 berichteten australische Anwender über Ausfälle in der AWS-Region Sydney. Nutzerberichten zufolge waren EC2-Instanzen, Elastic Load Balancing (ELB), Relational Database Service (RDS), AppStream 2.0, ElastiCache, WorkSpaces und Lambda-Services betroffen.
Microsoft hatte in diesem Jahr vor allem mit dem Cloud-Kommunikationsdienst Teams zu kämpfen. Er machte mehrfach durch Ausfälle von sich reden, unter anderem weil ein Sicherheitszertifikat nicht rechtzeitig erneuert wurde. Im vergangenen Jahr kam es darüber hinaus Ende Januar nach einer schiefgegangenen Routinewartung zu Ausfällen des Cloud-Directory-Dienstes Azure AD. Ein Wartungsfehler war auch beim Google-Ausfall im Juni 2019 die Ursache. Statt nur wenige Server zu rekonfigurieren, wurden viele Maschinen über mehrere Regionen hinweg neu aufgesetzt. In der Folge waren zahlreiche Google-Dienste nicht oder nur eingeschränkt erreichbar.
Die Kunden bleiben in solchen Fällen meist auf den wirtschaftlichen Schäden sitzen. Bestenfalls erstatten ihnen die Cloud-Anbieter einen Teil der Service-Kosten zurück. „Unternehmen stellen oft zu spät fest, dass die Performance, die sie aus der Cloud erhalten, von der einer Anwendung aus dem Rechenzentrum vor Ort (On-Premise) abweicht“, sagt Markus Grau, Principal Systems Engineering, CTO EMEA Office bei Pure Storage.
Auch die Daten sind bei den Providern längst nicht so gut aufgehoben, wie das manche Kunden glauben. Nach einem Stromausfall im Amazon AWS-EAST-1-Datenzentrum im
August 2019 konnten beispielsweise einige der betroffenen EC2-Instanzen und EBS-Volumes (Elastic Block Storage) nicht wiederhergestellt werden. Ein Ausfall des DNS (Domain Name Service) führte im Februar 2019 in der Microsoft-Cloud Azure zur Löschung von Einträgen in Transaktionsdatenbanken.
Markus Grau
Markus Grau
Principal Systems Engineering, CTO EMEA Office bei Pure Storage
www.purestorage.com/de
Foto: Pure Storage
„Unternehmen stellen oft zu spät fest, dass die Performance, die sie aus der Cloud erhalten, von der einer Anwendung aus dem Rechenzentrum vor Ort abweicht.“
Meist ist der Provider aber gar nicht schuld, wenn Daten in der Cloud abhanden kommen. „Es muss nicht immer ein defekter Datenträger oder ein Malware-Befall die Ursache für Datenverlust sein“, sagt Achim Freyer von Rubrik. „Die böse Überraschung kommt oft, wenn man feststellt, dass ein unzufriedener Mitarbeiter mit Absicht Daten gelöscht hat.“ Einer Umfrage zufolge, die von EMC in Auftrag ge­geben wurde, haben bereits 80 Prozent aller Unternehmen in Software-as-a-Service-Umgebungen (SaaS) Daten verloren. Häufigste Ursache war im Übrigen weder ein technischer Fehler noch Böswilligkeit. In 40 Prozent der Fälle wurden Daten schlichtweg aus Versehen gelöscht.
Aber selbst wenn Unternehmen sich mit geeigneten Backup-Konzepten vor Datenverlusten in der Cloud schützen, kann ein Wiederherstellungsfall problematisch werden. „Eine einzelne Datenbankwiederherstellung kann mehrere Stunden bis hin zu einigen Tagen in Anspruch nehmen“, erklärt Markus Grau von Pure Storage. „Stellen Sie sich nun ein großes Unternehmen vor, das möglicherweise Dutzende oder sogar Hunderte von Datenbanken wiederherstellen muss. Dies kann schnell zu einem Schneeballeffekt führen.“ Unternehmen sollten daher sicherstellen, dass ihr Backup-Sys­tem in der Lage ist, schnelle Wiederherstellungen in großem Maßstab auszuführen, rät der Speicherexperte. „So können sie verhindern, dass es bei einem Ausfall zu größeren organisatorischen oder finanziellen Auswirkungen kommt.“
Verwandte Themen