So werten Sie latenz­kritische Daten aus

Edge und Fog: die Unterschiede

Rechenleistung vor Ort: MICA ist eine modulare Edge-Plattform auf der Basis quelloffener Hard- und Software-Komponenten.
(Quelle: Harting)
Vorreiter der Kommunikationstechnologie setzen auf Edge- und Fog-Computing, um die Schwächen der Cloud zu kompensieren. Bei Edge und Fog handelt es sich um zwei Lösungsansätze für eine intelligente, dezentrale und echtzeit­fähige IT-Infrastruktur an der Netzwerkkante.
Edge: Beim Edge-Computing-Modell erfolgt die Verarbeitung der Daten in eingeschränktem Umfang direkt auf den Endgeräten der Netzwerkkante. Daher die Bezeichnung Edge für Kante. Im Industriesektor finden sogenannte PACs (Programmable Automation Controllers) Verwendung – Geräte in der Größe eines Mikro-Computers wie des Raspberry Pis. Sie übernehmen die Compute-Last der zahllosen smarten IoT-Endpunkte, um cyber-physische Systeme mit Echtzeitfähigkeiten auszustatten. Edge-Computing minimiert die Netzwerkbelastung und die Latenz. Das Problem bei diesem Ansatz: Die verfügbare Leistung lässt sich nicht skalieren.
Fog: Im Fog-Computing-Modell kommen an der Netzwerkkante kleine Rechenzentren als Gateways zum Einsatz. Hier findet eine Teilauswertung und Aggregation der Daten aus der Sensorik der Endgeräte statt – zur anschließenden Übertragung ins Hauptrechenzentrum oder in die Cloud. „Der zentrale Cloud-Server erhält beim Fog-Computing nur die wichtigsten IoT-Daten. Den Rest präparieren kleinere Netzwerkkomponenten“, so Marko Vogel, Director Security Consulting bei KPMG Deutschland.
Fog-Architekturen stellen zusätzliche Compute-, Speicher-, Cache- und andere Ressourcen zwischen dem Hauptrechenzentrum oder der Cloud und den einzelnen IoT-Endgeräten mit ihrer Sensorik bereit, um die Geschwindigkeit der Datenverarbeitung an strategischen Punkten zu optimieren. So lassen sich zeitkritische Entscheidungen auch bei komplexeren Problemstellungen nahezu in Echtzeit treffen.
Intelligenter Beifahrer: Im Konzeptfahrzeug Etos des Auto­mobil-Thinktanks Rinspeed arbeitet bereits ein MICA-Mini-Computer der Firma Harting.
(Quelle: Harting)
Fog ist im Endeffekt eine spezielle Variante von Edge-Computing auf Systemebene. Das Fog-Architekturmuster hat gegenüber dem reinen Edge-Modell den Vorteil der Gateways. Diese auch als Fog-Knotenpunkte (fog nodes) bezeichneten Gateways sind physische und logische Netzwerkelemente, die analog zu einem Server im Cloud-Computing bestimmte Dienste implementieren. Bei den Fog-Knoten kann es sich sowohl um ressourcenarme Geräte als auch um üppig bestückte Hardware wie Cloudlets oder kleine Edge-Rechenzentren an der Netzwerkkante handeln. Die Fog-Knoten können auch direkt im betreffenden Endgerät verbaut sein.
Edge- und Fog-Computing weisen gewisse Parallelen zu einem Content Delivery Network (CDN) auf. Während sich jedoch klassische CDNs auf die unidirektionale Bereitstellung statischer Medien und das Medien-Streaming beschränken, schließt das Edge- beziehungsweise das Fog-Computing bidirektionale Übertragung transaktionaler Daten mit ein. Dies hat weitreichende Implikationen unter anderem für die Industrie 4.0. „Nur mit einem dezentralen Ausbau der IT-Landschaft lässt sich eine IT-technische Unterstützung von verteilten Entwicklungs- und Produktionsstandorten erreichen“, erläutert Martin Kipping von Rittal.
Laut den Analysten von  IDC sollen bis zum Jahr 2019 etwa 43 Prozent der durch das IoT erzeugten Daten mit Edge-Computing-Systemen verarbeitet werden. Hierzu müssten an den Rändern des Unternehmensnetzwerkes zusätzliche IT-Kapazitäten geschaffen werden. Der Markt sei auf Wachstum eingestellt, bestätigt Kipping. Das Gartner-Institut beziffert das weltweite Marktpotenzial von Hardware für Edge- und Fog-Computing im Jahr 2020 auf annähernd 3 Billionen Dollar. Bis 2020 sollen laut Gartner weltweit 20,4 Milliarden IoT-Endgeräte auf Edge- und Fog-Computing-Infrastruktur zugreifen.
Nutzungsmöglichkeiten für Edge-Rechenzentren
Praxisnahe Szenarien für Edge-Rechenzentren beinhalten:
  • M2M-Kommunikation (Machine to Machine): Autonome und semi-autonome IoT-/IIoT-Geräte nutzen Edge-Rechen­zentren als Vermittler, um einen problemlosen Datenaustausch von Produktionsparametern und anderen Informa­tionen über den Ablauf der Fertigung sicherzustellen.
  • On-Premise-Bereitstellung von Diensten und Anwendungen aus der Cloud: Edge-Rechenzentren können Cloud-Dienste replizieren, um einen störungsfreien Betrieb latenzkritischer Anwendungen zu gewährleisten.
  • Datenerfassung und -aggregation: Edge-Rechenzentren können die Daten aus cyber-physischen Systemen bereits
    vorab auswerten und in aggregierter Form in die Cloud übertragen; bis zu 90 Prozent der anfallenden Daten können so herausgefiltert und verworfen werden oder fallen aufgrund der Datenaggregation weg; die geringeren Übertragungs­raten schlagen sich in den Betriebskosten positiv nieder.
  • Sensorgestützte Fernsteuerung mittels KI: Die Edge kann auch als bidirektionaler Kanal genutzt werden; Edge-Rechenzentren liefern in diesem Szenario Echtzeitanweisungen an Endgeräte im Feldeinsatz; die automatische Datenerfassung über physische Vorgänge von IoT-fähigen Maschinen, Fahrzeugen und anderen Einrichtungen ermöglicht eine kontinuierliche Statusüberwachung und KI-gestützte Eingriffe in die Funktionsweise dieser Geräte zur Kontrolle und Optimierung von Prozessen; so können etwa Erkundungsdrohnen neue Anweisungen, die ein KI-Backend anhand der gesammelten Daten für sie errechnet, in Echtzeit empfangen und aus­führen.
  • Lokale Speicherung und Bereitstellung von Inhalten: Edge-Computing in der Rolle eines Content Delivery Networks (CDN) kann die Echtzeitübertragung von Daten aus dem Kern-Rechenzentrum für Anwendungen der Augmented Reality zum Beispiel im Rahmen von Wartungsarbeiten an Industrie-4.0-Robotik kostengünstig ermöglichen.
Verwandte Themen