Hyperscale-Cloud

Microsoft Azure mit 1 ExaFlops/sec

von - 28.09.2016
Microsoft Azure
Foto: Adriano Castelli / Shutterstock.com
Die kombinierte Azure-Cloud übersetzt die ganze englische Wikipedia in 1/10 Sekunde - zum Beispiel ins Deutsche. Microsofts Vision: Diese geballte Rechenpower eines Cloud-Supercomputers soll demnächst jeder auf seinem Handy haben.
Zwei Jahre lang hat Microsoft heimlich, still und leise eine globale Hyperscale-Cloud zusammengebaut, deren Rechenzentren in 15 Ländern auf fünf Kontinenten stehen. "Wir haben die schnellste, intelligenteste und flexibelste Cloud der Welt", schwärmte Microsoft-Ingenieur Doug Burger auf der Hausmesse Ignite in Atlanta.
Schaltet man einen Großteil der Cloud-Computing-Ressourcen zusammen, dann übersetzt die geballte Rechenpower alle fünf Milliarden Wörter der englischsprachigen Wikipedia in weniger als 1/10 Sekunde - zum Beispiel vom Englischen ins Deutsche. Eine Zehntel Sekunde, das ist weniger als ein Augenblinzeln. Ausgedruckt auf DIN-A4-Bögen wäre der Wikipedia-Stapel 402 Meter hoch.

ExaFlops - eine Zahl mit 18 Nullen

Doug Burger
Microsoft-Ingenieur Doug Burger: Azure ist die schnellste, intelligenteste und flexibelste Hyperscale-Cloud der Welt.
(Quelle: Microsoft)
Techniker sprechen von 1 ExaFlops, das sind eine Milliarde mal eine Milliarde Rechenoperationen pro Sekunde, eine Zahl mit 18 Nullen (10 hoch 18). "Das meinen wir, wenn wir von Hyperscale-Computing sprechen", sagte Burger. Die zusammengeschaltete Microsoft Azure-Cloud ist damit 10x schneller als der zurzeit schnellste Supercomputer der Welt. Der steht in China und bringt es auf 93 PetaFlops pro Sekunde (Sunway TaihuLight). Schneckenlangsam im Vergleich mit der leistungsstärkeren Azure-Supercomputing-Cloud.
Um zu zeigen, wozu die Microsoft-FPGAs fähig sind, ließ Burger die 1440 Seiten von Tolstois "Krieg und Frieden" vom Russischen ins Englische übersetzen. Ein Azure-Standard-Server ((24 Kerne, 2,4 GHz Haswell) , den Microsoft seit Jahren in der Cloud vermietet, brauchte für die Übersetzungsarbeit 19,9 Sekunden. Einer der neuen Azure-FPGA-Server (10 CPU-Kerne plus 4 FPGAs) erledigte die gleiche Arbeit in 2,6 Sekunden. Zum Einsatz kam dabei ein neuronales "Deep Learning"-Netzwerk, eines von vielen Neuronalen Netzwerken, die Microsoft in seinem Machine-Learning-Modul in der Cloud vermietet.
Reine Zahlenhuberei war das nicht, was Microsofts Doug Burger auf der Ignite vorführte. Mit der Hyperscale Cloud plus neuronalen Netzen (AI) ließen sich heute Probleme lösen, von deren Bewältigung wir früher noch nicht einmal geträumt haben, meinte Burger. Wer heute die Suchmaschine Bing benutzt - nun, viele sind das nicht - der greift bereits auf das Cloud-AI-Fabric aus Redmond zu.
Verwandte Themen