Künstliche Intelligenz aus der Cloud

Hyperscaler oder IT-Dienstleister?

von - 08.03.2022
Cloud-Hyperscaler und IT-Dienstleister stellen Nutzern neben einem umfassenden Portfolio von KI-Anwendungen auch die erforderlichen Server-, Storage- und Netzwerkressourcen via Cloud zur Verfügung. „Wir bieten einfach ein starkes Gesamtpaket“, unterstreicht beispielsweise Stefan Ebener von Google. „Anwendungen wie Google Maps, Assistant, Voice und Chrome OS sind Cloud-Applikationen. Daher können wir sagen, dass wir bereits seit mehr als 20 Jahren sicher und verlässlich mit der Cloud arbeiten.“ Dies komme auch den Nutzern von KI, Machine Learning und Deep Learning zugute.
Julian Staub
Technology Consultant, Lufthansa Industry Solutions
Foto: Lufthansa Industry Solutions
„Wir geben Kunden die Möglichkeit,  KI-Services zu individualisieren und an konkrete Aufgabenstellungen anzupassen.“
Doch naturgemäß sehen IT-Dienstleister, die ihren Kunden mit AIaaS einen Mehrwert bieten möchten, die Angebote von großen Cloud-Service-Providern kritisch: „Hyperscaler setzen bei KI vor allem auf eine technische Lösung, also die Tools, mit denen Anwender mit der Nutzung von Künstlicher Intelligenz starten können. Einen echten Service bieten sie jedoch nicht“, erklärt Julian Staub von LHIND. Den stelle dagegen ein IT-Dienstleister wie Lufthansa Industry Solutions in Form von KI-Service-Paketen bereit. „Ein Bestandteil eines solchen Pakets ist, dass Kunden die Möglichkeit haben, KI-Services zu individualisieren und an konkrete Aufgabenstellungen anzu­passen.“
Auch der europäische Service-Provider OVHcloud mit Hauptsitz in Frankreich setzt auf ergänzende Angebote: „Wir bieten eine Alternative auf Basis von Open-Source-Technologien und eines KI-Ökosystems“, erläutert Falk Weinreich, General Manager Central Europe des Providers. Zielgruppe sind Unternehmen und öffentliche Auftrag­geber, die über die Cloud effizientere Wege suchen, um KI-Modelle zu entwickeln und zu trainieren, und gleichzeitig auf die Daten-Governance und Compliance Wert legen. Ihnen gibt OVHcloud über die eigene Cloud KI-Lösungen an die Hand. Hinzu kommen Platform-as-a-Service-Tools (PaaS), die ein Anwender für den Aufbau und das Hosting von KI-Projekten benötigt. „ML Serving ist beispielsweise darauf ausgerichtet, KI-Modelle in Betrieb zu nehmen. AI Training stellt wiederum Computing-Ressourcen mit CPU- und Grafikprozessoren für Test- und Pre-Production-Phasen bereit“, berichtet Weinreich.
Stephan Gillich
Direktor Künstliche Intelligenz, Datacenter Group, Intel
Foto: Intel
„Aus etlichen Beispielen haben wir gelernt, dass es keine universelle Lösung für eine KI-Infrastruktur gibt. “

Hochleistungs-Hardware für AIaaS

Nutzer können somit aus der Cloud nicht nur KI- und ML-Frameworks und vorgefertigte Modelle beziehen, sondern auch die Infrastruktur. Auch dabei ist es wichtig, dass ein Anwender mehrere Optionen hat, so Intel: „Aus etlichen Beispielen haben wir gelernt, dass es keine universelle Lösung für eine KI-Infrastruktur gibt. Vielmehr kommen die Nutzung vorhandener Hardware, der Aufbau einer Plattform, die KI unterstützt, sowie das Outsourcing in die Cloud in Betracht“, sagt Stephan Gillich, Direktor Künstliche Intelligenz GTM für den Raum EMEA bei der Datacenter Group von Intel. „Eventuell ist auch eine Hybrid-Lösung aus lokaler Hardware unter Einbeziehung der Cloud für bestimmte Workloads der richtige Weg.“ Deshalb hat Intel mit Habana Gaudi ein System für das Training von Deep-Learning-Algorithmen entwickelt. Es steht sowohl als Service über die AWS-Cloud als auch in Form einer On-Pre­mise-Lösung zur Verfügung. Auch KI-/ML-Lösungen von Nvidia sind über Cloud-Portale zugänglich. Dazu gehören Grafikprozessoren (GPUs) wie A100, V100 und T4, darauf basierende Hochleistungsrechner (DGX-Systeme) sowie Software-Kataloge und KI-/ML-Frameworks wie Modulus für das Training von KI- und Deep-Learning-Modellen. Einen ähnlichen Ansatz dürfte AMD wählen, das im November 2021 mit Instinct MI eine GPU-Linie für High-Performance-Computing, KI und Machine Learning präsentierte.
Verwandte Themen