Die KI-Revolution ­beginnt mit Edge-Computing

Mit der Cloud, nicht gegen sie

von - 20.06.2018
Obwohl die Verlagerung der KI an die Netzwerkkante in vielerlei Hinsicht sinnvoll ist, wird die Cloud dadurch nicht überflüssig: „Edge-Computing und Cloud-Computing haben unterschiedliche und komplementäre Eigenschaften“, bestätigt Philip Carnelley. Jim Liu von Adlink weiß, was der IDC-Analyst meint: „Cloud-Computing hat seine bestimmten Vorteile wie Skalierbarkeit, globale Zugänglichkeit und den As-a-Service-Ansatz.“ Es habe jedoch auch systembedingte Schwächen, etwa im Zusammenhang mit Latenz, Kosten, Bandbreite, Sicherheit und Datenschutz.
Zusätzlich setze die Künstliche Intelligenz in der Cloud eine hohe Konnektivität voraus, um die Daten zu Analysezwecken zu importieren und auf diese zuzugreifen, so Carnelley von IDC weiter. In komplexen Edge-Umgebungen kann die Verbindung zur KI in der Cloud jedoch entweder nicht vorhanden oder nicht zuverlässig sein. Benjamin Lui, Founder des Start-ups BabbyCam, hat ein Beispiel parat: „Die KI-Software in einer Drohne muss auch in den Gebieten ohne Cloud-Verbindung funktionieren können.“ Edge-Computing biete diesbezüglich Stabilitätsvorteile. Auch bei den Anwendungsfällen, die niedrige Latenz und Einsparungen beim Backhaul voraussetzten, spiele Edge-Computing eine wichtige Rolle, fügt Shamik Mishra von Aricent hinzu.
Jim Liu
Jim Liu
CEO von Adlink Technology
www.adlinktech.com
„Wenn wir den KI-Einsatz auch am Rand des Netzwerks unterstützen würden, könnten wir die Möglichkeiten für KI um einige Aspekte erweitern und einen neuen Wert fürs Geschäft schaffen.“
Den Experten zufolge werden Cloud und Edge einander ergänzen. „Ich stelle mir das vor wie ein großes und ein kleines Gehirn“, sagt etwa Paul Boris, COO und Director des Smartbrillen-Herstellers Vuzix. „Das eine sitzt in der Cloud, während das andere am Rand des Netzwerks hilft, die Erkenntnisse, die aus den sehr großen Datenmengen gewonnen werden, lokal umzusetzen.“ Außerdem brauchen einige Anwendungen enorme Datenmengen, deshalb ist es Jem Davies von ARM zufolge derzeit nicht sinnvoll, solche Anwendungen an den Rand des Netzwerks zu verschieben.
Aus diesen Gründen kann die Infrastruktur für das Training von KI laut Gartner-Analyst Santhosh Rao weiterhin in der Cloud oder in den Rechenzentren bereitgestellt werden, während die dadurch entstandenen Inferenzmodelle im Edge-Computing-Umfeld umgesetzt werden, um die Echtzeitanalysemöglichkeiten in der Nähe oder genau an der Quelle der Datenerhebung zu verbessern.

Die richtige Hard- und Software

Die Bereitstellung von KI-gestützten Analysen und Erkenntnissen direkt vor Ort hat zweifellos große Vorteile. Die Umsetzung dürfte aber nicht ganz leicht sein, denn Künstliche Intelligenz im Zusammenspiel mit Edge-Computing stellt ihre eigenen Anforderungen an die Hardware. „Wenn wir beispielsweise von Deep-Learning-Algorithmen sprechen, dann sind die hohe Inferenzleistung und die Geschwindigkeit besonders wichtig“, sagt BabbyCam-Gründer Lui.
Die bisher entwickelten Prozessoren für Edge- und Mobilgeräte sind jedoch laut Remi El-Ouazzane, Vizepräsident und Generaldirektor des Intel-Tochterunternehmens Movi­dius, für die Art der Belastung, die die modernen KI-Anwendungen erfordern, nicht unbedingt ausgelegt.
Remi El-Quazzane
Remi El-Ouazzane
Vize-Präsident und Director
von Movidius
www.movidius.com
„Die bisher entwickelten Prozessoren für Edge- und Mobilgeräte sind für die Art der Belastung, die die modernen KI-Anwendungen erfordern, nicht ausgelegt.“
Viele KI-Anwendungen benötigen ihm zufolge die hohe Rechenleistung der Cloud und damit eine Anbindung mit stetigem Datenaustausch. ARM-Generaldirektor Davies sieht da­rin ein großes Problem. Sicherheitskritische Abläufe dürften nicht auf stabile Internetverbindungen angewiesen sein.
Eine der wichtigsten Voraussetzungen sei daher die Möglichkeit, einen Teil dessen, was die Cloud ermöglicht, lokal in einer Maschine oder einem Gerät auszuführen, so Vuzix-COO Paul Boris. Viele Edge-Hardware-Hersteller hätten das erkannt, wie Noah Schwartz von Quorum AI beobachtet: „Die Chip-Unternehmen arbeiten an Prozessoren, die weniger Strom verbrauchen und die Art von Berechnungen, die KI-Systeme am häufigsten durchführen, bewerkstelligen können.“
Auf der Software-Seite bedarf es ebenfalls erheblicher Verbesserungen, um KI in der Edge zu ermöglichen. „Die meisten KI-Systeme von heute, insbesondere Deep-Learning-Systeme, nutzen Algorithmen, die für die Inferenz riesige Datenmengen brauchen“, sagt Quorum-AI-Gründer Schwartz. Daher müssen laut Lui von BabbyCam neue Trainings-Algorithmen bereitgestellt werden, die auf der Basis möglichst weniger Daten schnelle und korrekte Antworten liefern können.
Noch in einem weiteren Punkt sind sich die Experten einig: Die Entwickler, die unmittelbar an Edge-KI-Lösungen arbeiten, benötigen eine große Auswahl an Hardware und Software, mit der sie arbeiten können. „Es gibt keine generelle Hardware-Architektur, die sämtliche KI-Algorithmen unterstützen kann“, betont Qualcomm-Direktor Gary Brotman. Jeder Anwendungsfall sei verschieden und habe sein eigenes Leistungsprofil.
Verwandte Themen