Netzwerk unter Kontrolle

Transparenz bei Anwendungen und Infrastruktur

von - 21.02.2023
Foto:  Shutterstock/ Gorodenkoff
IT- und Cloud-Umgebungen werden immer komplexer. Konzepte wie Observability sollen sicherstellen, dass IT-Fachleute, Entwickler und Security-Spezialisten den Überblick behalten.
Manchmal drängt sich der Eindruck auf, dass die Anbieter von IT-Lösungen und Beratungsfirmen ständig neue Hype-Themen erfinden, um den Nutzern von IT-Systemen, Anwendungen und Cloud-Ressourcen neue Produkte und Dienstleistungen verkaufen zu können. Auf den ersten Blick gilt das auch für das Thema Observability. Dieser Ansatz wird als Erweiterung von Lösungen für das Logging und Monitoring gehandelt, mit denen IT-Fachleute die Performance, Verfügbarkeit und Sicherheit von Anwendungen, IT-Infrastrukturen und Cloud-Services überwachen. Doch Observability hat sehr wohl seine Berechtigung. Ein Grund: „Die Komplexität moderner IT-Infrastrukturen steigt ständig an. Damit wächst die Zahl der Stellen, an denen es zu Problemen kommen kann“, sagt Frederik Bijlsma, Senior Director Central EMEA von VMware Tanzu.
Dass Infrastruktur- und Anwendungsumgebungen immer komplizierter werden, ist auf mehrere Faktoren zuzuführen. Vereinfacht gesagt, haben sich monolithische IT-Umgebungen zu Mechanismen weiterentwickelt, in denen immer mehr Räder ineinandergreifen, so Klaus Kurz, Senior Director Solution Consulting Central Europe bei New Relic, einem Anbieter von Observability-Lösungen: „Cloudnative Technologien, hybride Infrastrukturen, die Verwendung von Microservices, Container-Services und DevOps-Konzepte lassen komplexe Systeme entstehen. Services ändern sich nun laufend. Außerdem verkürzen sich die Implementierungszyklen.“
Alexander Zachow
Regional Vice President EMEA Central, Dynatrace
Foto: Dynatrace
„Jeder Tipp-, Klick- oder Wischvorgang eines Benutzers, jede neue Code-Implementierung oder Architekturänderung und jeder versuchte Cyberangriff erzeugt Daten, die erfasst und analysiert werden können.“
Weil Anwendungen sich gegenseitig beeinflussen, können laut Kurz zudem neue oder weiterentwickelte Services Auswirkungen auf andere Systembereiche haben. Die Folgen bekommen Unternehmen täglich zu spüren. Laut der Studie „Observability Forecast 2022“ von New Relic gaben 63 Prozent der Unternehmen in der DACH-Region an, dass sie mindesten einmal pro Woche von IT-Ausfällen betroffen sind, die signifikante wirtschaftliche Folgen haben.

Monitoring reicht nicht

Allein mithilfe der Daten, die Monitoring-Tools bereitstellen, lassen sich solche negativen Effekte nicht vermeiden: „Etliche Unternehmen betreiben Multi-Cloud-Infrastrukturen mit Tausenden von Anwendungen und Millionen von Microservices. Jeder Tipp-, Klick- oder Wischvorgang eines Benutzers, jede neue Code-Implementierung oder Architekturänderung und jeder versuchte Cyberangriff erzeugt Daten, die erfasst und analysiert werden können. Hinzu kommen kontinuierliche Software-Release-Zyklen. Dies hat eine Datenexplosion zur Folge, die von Menschen nicht mehr zu bewältigen ist“, betont Alexander Zachow, Regional Vice President EMEA Central bei Dynatrace.
Monitoring stößt zudem aus einem weiteren Grund an Grenzen: Solche Lösungen überwachen ein IT-System anhand von vorab definierten Parametern wie Auslastung der Prozessoren, Netzwerkbandbreite und Ausfallzeiten. Die Grundlage bilden somit planbare und erfassbare Anforderungen und Fragen, etwa „Wie hoch ist die Auslastung der CPUs und des Arbeitsspeichers von Server A?“ oder „Hält die Anwendung B die vorgegebenen Antwortzeiten ein?“. Solche Fragen geben die IT-Fachleute eines Unternehmens vor. Das heißt, sie stützen sich auf „bekannte Unbekannte“ wie CPU-Leistung und Antwortzeiten. Eine Monitoring-Software zeigt auf, ob Fehler in einer bestimmten IT-Komponente auftreten beziehungsweise ob ein Grenzwert überschritten wurde.
Dieses Konzept weist Defizite auf, wenn zu viele Variablen vorhanden sind, etwa Microservices, verteilte Anwendungen, IT-Umgebungen, die Cloud- und On-Premises-Ressourcen kombinieren und möglicherweise über mehrere Standorte verteilt sind. Dann muss die IT-Abteilung auch Antworten auf Fragen erhalten, die sie im Vorfeld nicht definiert hat. Wenn eine Anwendung nicht die gewünschte Performance aufweist, kann dies an IT-Systemen im eigenen Rechenzentrum, an Public-Cloud-Services oder einem Update von System- oder Anwendungs-Software liegen. Auch Netzwerkverbindungen, ein Microservice und eventuell ein Cyberangriff kommen als Ursachen infrage.
Verwandte Themen