So werten Sie latenzkritische Daten aus
Edge und Fog: die Unterschiede
von Anna KobylinskaFilipe Pereira Martins - 13.02.2018
Vorreiter der Kommunikationstechnologie setzen auf Edge- und Fog-Computing, um die Schwächen der Cloud zu kompensieren. Bei Edge und Fog handelt es sich um zwei Lösungsansätze für eine intelligente, dezentrale und echtzeitfähige IT-Infrastruktur an der Netzwerkkante.
Edge: Beim Edge-Computing-Modell erfolgt die Verarbeitung der Daten in eingeschränktem Umfang direkt auf den Endgeräten der Netzwerkkante. Daher die Bezeichnung Edge für Kante. Im Industriesektor finden sogenannte PACs (Programmable Automation Controllers) Verwendung – Geräte in der Größe eines Mikro-Computers wie des Raspberry Pis. Sie übernehmen die Compute-Last der zahllosen smarten IoT-Endpunkte, um cyber-physische Systeme mit Echtzeitfähigkeiten auszustatten. Edge-Computing minimiert die Netzwerkbelastung und die Latenz. Das Problem bei diesem Ansatz: Die verfügbare Leistung lässt sich nicht skalieren.
Fog: Im Fog-Computing-Modell kommen an der Netzwerkkante kleine Rechenzentren als Gateways zum Einsatz. Hier findet eine Teilauswertung und Aggregation der Daten aus der Sensorik der Endgeräte statt – zur anschließenden Übertragung ins Hauptrechenzentrum oder in die Cloud. „Der zentrale Cloud-Server erhält beim Fog-Computing nur die wichtigsten IoT-Daten. Den Rest präparieren kleinere Netzwerkkomponenten“, so Marko Vogel, Director Security Consulting bei KPMG Deutschland.
Fog-Architekturen stellen zusätzliche Compute-, Speicher-, Cache- und andere Ressourcen zwischen dem Hauptrechenzentrum oder der Cloud und den einzelnen IoT-Endgeräten mit ihrer Sensorik bereit, um die Geschwindigkeit der Datenverarbeitung an strategischen Punkten zu optimieren. So lassen sich zeitkritische Entscheidungen auch bei komplexeren Problemstellungen nahezu in Echtzeit treffen.
Fog ist im Endeffekt eine spezielle Variante von Edge-Computing auf Systemebene. Das Fog-Architekturmuster hat gegenüber dem reinen Edge-Modell den Vorteil der Gateways. Diese auch als Fog-Knotenpunkte (fog nodes) bezeichneten Gateways sind physische und logische Netzwerkelemente, die analog zu einem Server im Cloud-Computing bestimmte Dienste implementieren. Bei den Fog-Knoten kann es sich sowohl um ressourcenarme Geräte als auch um üppig bestückte Hardware wie Cloudlets oder kleine Edge-Rechenzentren an der Netzwerkkante handeln. Die Fog-Knoten können auch direkt im betreffenden Endgerät verbaut sein.
Edge- und Fog-Computing weisen gewisse Parallelen zu einem Content Delivery Network (CDN) auf. Während sich jedoch klassische CDNs auf die unidirektionale Bereitstellung statischer Medien und das Medien-Streaming beschränken, schließt das Edge- beziehungsweise das Fog-Computing bidirektionale Übertragung transaktionaler Daten mit ein. Dies hat weitreichende Implikationen unter anderem für die Industrie 4.0. „Nur mit einem dezentralen Ausbau der IT-Landschaft lässt sich eine IT-technische Unterstützung von verteilten Entwicklungs- und Produktionsstandorten erreichen“, erläutert Martin Kipping von Rittal.
Laut den Analysten von IDC sollen bis zum Jahr 2019 etwa 43 Prozent der durch das IoT erzeugten Daten mit Edge-Computing-Systemen verarbeitet werden. Hierzu müssten an den Rändern des Unternehmensnetzwerkes zusätzliche IT-Kapazitäten geschaffen werden. Der Markt sei auf Wachstum eingestellt, bestätigt Kipping. Das Gartner-Institut beziffert das weltweite Marktpotenzial von Hardware für Edge- und Fog-Computing im Jahr 2020 auf annähernd 3 Billionen Dollar. Bis 2020 sollen laut Gartner weltweit 20,4 Milliarden IoT-Endgeräte auf Edge- und Fog-Computing-Infrastruktur zugreifen.