Der lange Weg zum agilen Rechenzentrum

Zwei Ansätze für CI-Lösungen

von - 25.05.2018
Das Analystenhaus IDC unterscheidet im aufkeimenden CI-Markt zwei Ansätze – integrierte und disaggregierte Systeme. Zu Ersterem zählt IDC HPEs Synergy aufgrund seiner Software-defined Composability, die Synergy zu einer Weiterentwicklung der Hyperkonvergenz macht.
Komatöse Server
Quelle: Uptime Institute, Stanford University
Umgekehrt strebt der Disaggregation genannte Ansatz die Entkoppelung der Ressourcenklassen Compute, Storage und Networking in den einzelnen Knoten an, um sie im Rahmen des gesamten Racks auf Hardware-Ebene zusammenzusetzen, Stichwort: Rack Scale Design (RDS). In konventionellen Systemarchitekturen sind die Ressourcenklassen Compute (darunter CPUs, GPUs, FPGAs) und Speicher (wie RAM oder Storage-Class-Memory) nur im Rahmen eines Knotens (Node) aufeinander abgestimmt und dann mit der Außenwelt (also mit anderen Knoten) über Switches vernetzt. Ein Knoten kann so nicht direkt auf den Speicher eines anderen Knotens zugreifen, ohne diese Ressourcen von der zugehörigen CPU erst anzufordern; zudem ist die Netzwerkanbindung für einen direkten Speicherzugriff viel zu langsam. Wenn nun die verschiedenen Ressourcenklassen beim Rack Scale Design nicht mehr nur für den einen Knoten optimiert sind, sondern disaggregiert wurden, lassen sie sich im Rahmen des Racks wieder zusammensetzen. So entsteht ein modulares System, das zudem hochperformant ist.
Disaggregierte Infrastruktur steckt allerdings noch in den Kinderschuhen. Denn Infrastrukturbauteile der Speicher­domäne aktueller Systemarchitekturen, darunter Hardware-Beschleuniger, I/O und RAM, entziehen sich der Disaggregation und somit auch der Zusammensetzbarkeit auf Hardware-Ebene.
Langsame Ressourcen wie Datenspeicher und Netzwerk nutzen von Haus aus derart üppige Protokoll-Stacks wie TCP/IP, iSCSI und NFS, dass sich noch eine weitere Software-Ebene auf die Gesamt-Performance der Systeme kaum negativ auswirkt. Deshalb hat auch HPE mit seinem Ansatz Erfolg.
Anders liegt der Fall bei schnellen Hardware-Ressourcen mit Zugriffszeiten im Nanosekunden-Bereich, die nicht diese langsamen Protokoll-Stacks nutzen, sondern CPU-native Befehlssätze sprechen. In diese Kategorie fallen Komponenten der Speicherdomäne wie DRAM, SCM (Storage Class Memory) und GPUs/FPGAs. Aktuelle Systemarchitekturen können die theoretisch erzielbare Leistung dieser Komponenten nicht voll ausreizen.
Bei den CI-Systemstrukturen kommt gerade diesen schnellen Ressourcen eine entscheidende Bedeutung zu. Erst eine von Grund auf neu entwickelte, spei­cherzen­trische Architektur mit geeigneter Speichersemantik würde die Disaggregation dieser Komponenten ermöglichen und das Konzept der Composable Infrastructure auf Hardware-Ebene vervollständigen. Alle aktuellen Lösungen stellen bisher nur Krücken dar.
Bei Speichersemantik (memory semantics) handelt es sich um die Prozesslogik, mit deren Hilfe ein System den Zugriff auf gemeinsam genutzte Adressen des physischen Speichers oder gemeinsam genutzte Variablen durch mehrere Prozessoren oder mehrere Threads steuert.
Bei allen bestehenden Systemarchitekturen würde sich jeder Versuch, die verfügbaren Ressourcen bis in die Ebene der Speichersemantik zu disaggregieren, sofort auf Bandbreite und Latenz der Komponenten auswirken und die Vorteile zusammensetzbarer Infrastruktur schnell zunichtemachen.
Es braucht also eine völlig neue speicherzentrische Architektur. Eine solche längst überfällige Lösung entsteht gerade im Rahmen des Gen-Z-Consortiums. Zu dessen Mitgliedern zählen unter anderem AMD, ARM, Broadcom, Cray, Dell EMC, HPE, Huawei, IBM, Lenovo, Samsung und VMware. Die Gen-Z-Technologie ist Open Source und frei von Lizenzgebühren – und damit eine Kriegserklärung der IT-Branche an Intel und seine proprietären Interconnects.
Verwandte Themen