Edge-KI

Intelligenz für Maschinen

von - 07.03.2023
Foto: Shutterstock / ProStockStudio
Mit Künstlicher Intelligenz am Edge lassen sich neue Anwendungsfelder erschließen. com! professional zeigt, wie das möglich ist.
Die Zeiten, in denen KI- und Machine-Learning-Funktionen nur über Unternehmens- oder Cloud-Rechenzentren verfügbar waren, sind vorbei. Heute kommen entsprechende Algorithmen dort zum Einsatz, wo die Daten anfallen: am Rand von Unternehmensnetzwerken, also am Edge. „Wir sehen eine stetige Zunahme von Anwendungen, die standardmäßig Modelle des maschinellen Lernens auf Edge-Devices ausführen“, berichtet Christian Borst, Chief Technology Officer EMEA von Vectra AI. Dazu tragen Baukästen bei: „Toolkits wie Google Coral, das mit einer integrierten Tensor Processing Unit ausgestattet ist, setzen sich dank Fortschritten bei der Prozessorleistung und den Quantisierungstechnologien allmählich durch.“ Mit solchen Kits können Nutzer Maschinen, Steuerungen und Kameras in der Qualitätskontrolle um KI-Funktionen erweitern. Gleiches gilt für Systeme, die in der Medizintechnik oder in der Heimautomation eingesetzt werden.
Edge-KI wird vor allem durch die wachsende Verbreitung von IoT-Komponenten wie Sensoren und Aktoren wichtiger. Nach Einschätzung des deutschen Marktforschungs- und Beratungsunternehmen IoT Analytics in Hamburg kommen in den nächsten Jahren verstärkt IoT-Sensoren mit integrierten KI- und Machine-Learning-Funktionen auf den Markt. Solche Sensoren werden dadurch selbst zu Edge-Devices. Als Beispiel nennt IoT Analytics Komponenten der Ring-Produktfamilie von Amazon für die Heimautomation. So stehen Ring-Systeme mit Sensoren zur Verfügung, die dank KI-Algorithmen und einer integrierten neuronalen CPU erkennen, ob das Glas eines Fensters oder einer Tür zu Bruch geht, etwa bei einem Einbruchsversuch oder durch einen Orkan.

Vorteile von Edge gegenüber Cloud

Dass Edge-Computing und damit Edge-KI an Bedeutung gewinnen, hat den Grund, dass Cloud-Services nicht für alle Einsatzszenarien ideal sind. „Cloud-Computing im ,Kern‘ des Internets findet an einem oder mehreren festen Standorten statt. Es eignet sich vor allem für die Verarbeitung von Daten im Ruhezustand, also Informationen, die in Repositories wie Datenbanken, Data Warehouses und Data Lakes gespeichert sind“, erläutert Robert Blumofe, Excecutive Vice President und Chief Technology Officer von Akamai. „Wenn es dagegen darum geht, in Echtzeit, online und mit geringer Latenz auf die Aktivitäten von Endnutzern und Geräten zu reagieren, ist Edge-Computing das bessere Modell. Es ermöglicht die Datenverarbeitung direkt vor Ort, in der Nähe der Nutzer und Systeme.“
Das gilt auch für die Analyse von Daten mithilfe von KI- und Machine-Learning-Algorithmen. „Denn die Verarbeitung großer Datenmengen durch IoT-Systeme muss häufig in Echtzeit erfolgen und benötigt daher Latenzzeiten von nahe null“, betont Salim Khodri, EMEA Edge Go-to-Market Specialist bei Red Hat. Die Verzögerungszeit bei der Übermittlung von Daten in eine Cloud und zurück zu einem Sensor oder einer Kamera beträgt aber etwa 100 Millisekunden. „Häufig ist das kein Problem, aber in manchen Fällen ist selbst diese Zeitspanne zu lang, weil die Antworten in Echtzeit benötigt werden“, so Khodri weiter.
Robert Blumofe
Executive Vice President und Chief Technology Officer von Akamai
Foto: Akamai
„Wenn es darum geht, in Echtzeit, online und mit geringer Latenz auf Endnutzer und Geräte zu reagieren, ist Edge-Computing das bessere Modell als Cloud-Computing. Es ermöglicht die Datenverarbeitung direkt vor Ort, in der Nähe der Nutzer und Systeme.“
Verwandte Themen