Business-IT

Virtualisierung schützt nicht gegen Ausfälle

von - 14.06.2010
Eine Studie zeigt, dass viele Unternehmen zwar mehr unternehmenskritische Applikationen auf virtualisierten Systemen betreiben, sich aber nicht ausreichend gegen Systemausfälle absichern.
Wie gering hier das Risikobewusstsein ist, zeigen auch die folgenden Zahlen: 17 Prozent der Befragten sind der Ansicht, dass ein Verfügbarkeitsniveau von 99 Prozent für unternehmenskritische Anwendungen ausreichend ist, obwohl das einer durchschnittlichen Ausfallzeit von fast 90 Stunden pro Jahr entspricht. Weitere 37 Prozent begnügen sich mit 99,9 Prozent, entsprechend einer jährlichen Downtime von 8,8 Stunden. Lediglich 9 Prozent erwarten für ihre kritischen Applikationen eine Verfügbarkeit von mehr als 99,999 Prozent und damit eine durchschnittliche Ausfallzeit von weniger als 5 Minuten.

Dieser Großzügigkeit hinsichtlich der Ausfallzeiten entspricht laut Studie die Tatsache, dass nur wenige Unternehmen überhaupt angeben können, wie viel sie ein Serverausfall kosten würde: Nur 35 Prozent der Befragten haben diese Kosten ermittelt. Etwa ein Drittel geht davon aus, dass die Kosten bei einem Ausfall von einer Stunde über 50.000 Dollar liegen; 12 Prozent nannten sogar Kosten von über 250.000 Dollar.

"In dieser Studie zeigt sich auch, dass es vielen Unternehmen nicht klar ist, dass durch die Virtualisierung von Servern eine Verfügbarkeitslücke entsteht: In einer virtualisierten Server-Landschaft müssen höhere Anforderungen an die Ausfallsicherheit der physischen Server gestellt werden", erklärt Timo Brüggemann, Director Business Development EMEA bei Stratus in Eschborn. Zugleich zeige die Untersuchung, dass viele Unternehmen beim Thema Verfügbarkeit ausgesprochen risikofreudig sind seien. Brüggemann findet es  besorgniserregend, dass mehr als die Hälfte der Befragten meint, eine Verfügbarkeit von maximal 99,9 Prozent wäre für unternehmenskritische Applikationen ausreichend.
Verwandte Themen