Quantencomputer

Quantensprung im Super-Computing

von - 11.04.2017
Quantencomputer D-Wave
Foto: Foto: D-Wave
Quantencomputer sind keine Science-Fiction mehr, sondern stehen vor der Praxisreife. com! professional zeigt, welche Möglichkeiten aber auch Probleme sich aus der Technologie ergeben.
IBM Q: So sieht das Innere eines Quantencomputers aus.
Big-Data-Analysen, Kryptografie oder das Internet der Dinge (IoT) – der Bedarf an massiver Rechenleistung wächst explosionsartig. Konventionelle Computer halten mit diesen steigenden Anforderungen längst nicht mehr Schritt. Selbst das High-Performance-Computing mit den stärksten Rechnern unserer Tage, den Supercomputern, stößt an physikalisch bedingte Grenzen.
Abhilfe schaffen sollen sogenannte Quantencomputer. Lange Zeit nur ein theoretisches Konzept, haben sie mittlerweile Praxisreife erreicht. Staaten wie die USA und China liefern sich derzeit ein Wettrennen in der Entwicklung der Quantencomputer. Und auch die Europäische Union hat kürzlich ein Milliardenprogramm aufgelegt, um auf diesem Feld nicht ins Hintertreffen zu geraten.

Die Grenzen des Siliziums

Seit Erfindung integrierter Schaltkreise für konventionelle Chips auf Silizium-Basis galt das Moore’sche Gesetz als die Richtschnur der Branche. Diese Faustregel besagt, dass sich die Anzahl von Transistoren in einem Schaltkreis bei gleichbleibenden Fertigungskosten ungefähr alle zwei Jahre verdoppelt. Hinzu kommt Dennards Gesetz, demzufolge die Verkleinerung des grundlegenden Bauelements in einem solchen Schaltkreis mit einer niedrigeren Stromspannung einhergeht und sich daher bei gleichbleibendem Stromverbrauch eine höhere Taktfrequenz erzielen lässt. Obwohl die Transistoren vorerst noch schrumpfen, ist das Ende der Fahnenstange bereits in Sicht. Von heute 12 bis 14 Nanometer (nm) sollen sie bis 2022 auf 0,2 nm schrumpfen. Kleiner geht’s nicht.
Thierry Breton
Vorsitzender und CEO
von Atos
https://de.atos.net
Foto: Atos
„Wer sich für die digitale Evolution begeistert hat, wird die Quanten­revolution lieben.“
Die gegenüber PCs und Servern drastisch gesteigerte Rechen-Power der High-Per­formance-Rechner wiederum kommt im Wesentlichen zustande, weil einfach Tausende Prozessoren kombiniert werden. In  der aktuellen Nummer eins der Supercomputer, dem chinesischen Sunway TaihuLight, arbeiten zum Beispiel 40.960 Prozessoren, die 93 Petaflops (Billiarden Berechnungen pro Sekunde) schaffen. Aber der Trick, immer mehr CPUs zu nehmen, bringt irgendwann nichts mehr oder wird mit Nebenwirkungen wie einem extrem hohen Energieverbrauch erkauft. Der Sunway TaihuLight ist zwar dreimal energieeffizienter als sein Vorgänger, verbraucht unter Volllast aber immer noch 15,37 Megawatt, ungefähr so viel wie 1000 Haushalte.

Die Physik der Quantenrechner

Auf der Suche nach Alternativen zur herkömmlichen Technik haben die IT-Firmen die Quantenphysik entdeckt. Dieser Zweig der Physik beschäftigt sich vor allem mit subatomaren Eigenschaften und Effekten. Gelingt es, diese Effekte für Rechenoperationen in Computern zu nutzen, lässt sich die Rechenkraft dramatisch erhöhen. Die Quantencomputer rechnen nämlich mit sogenannten Quantenbits (Qubits) anstelle von gewöhnlichen Bits. Die Qubits können beliebige Werte zwischen 0 und 1 annehmen, im Unterschied zur konventionellen Elektronik, die nur mit den beiden Werten 0 und 1 hantieren kann. Grundlagen der Qubits ist der physikalische Effekt, dass sich quantenmechanische Wellen ähnlich wie Wasserwellen überlagern können (quantum superposition).
Ein weiterer wichtiger Quanteneffekt ist die Verschränkung zweier Teilchen: Damit ist gemeint, dass sich Teilchenpaare erzeugen lassen, bei denen die Messung eines Teilchens die Eigenschaft des anderen Teilchens festlegt, obwohl die beiden weit voneinander entfernt sind und keine Signale zwischen ihnen ausgetauscht werden.
Technische Anforderungen an das Quanten-Computing
Dass Quantencomputer lange der Sphäre des Theoretischen nicht entkommen sind, lag vor allem an technischen Herausforderungen, bei denen es in letzter Zeit aber große Fortschritte gab:
  • Kühlung/Vakuum: Die interne Kühltemperatur des D-Wave darf minus 273,135 Grad Celsius nicht überschreiten, sie liegt also im laufenden Betrieb maximal 0,015 Grad Celsius über dem absoluten Nullpunkt. Die Recheneinheit sitzt in einem Vakuum von einem Zehnmilliardstel des atmosphärischen Drucks, abgeschirmt auf einen Wert von einem Nanotesla (nT), also auf weniger als ein Fünfzigtausendstel des Magnetfelds der Erde. 
  • Fehlerraten: Quantenprozessoren weisen bei einzelnen Rechenoperationen sehr hohe Fehlerraten auf. Mit seinen 512 Qubits Quanten-Performance konnte der D-Wave der zweiten Generation zwar ungefähr 17.500.000-mal schneller arbeiten als ein konventioneller Supercomputer der Spitzenklasse,
    allerdings lag die tatsächlich nutzbare Leistung weit darunter. Denn der D-Wave musste jede Rechenoperation 5000-mal wiederholen, um die erforderliche Genauigkeit sicherzustellen. Unterm Strich ist ein D-Wave daher „nur“ etwa 3500-mal schneller als ein Supercomputer der gewöhnlichen Art.
  • Programmierbarkeit: Bisherige kommerzielle Quantencomputer sind durch ihre fehlende Programmierbarkeit gekennzeichnet. Sie berechnen eine feste Aufgabe. Dieses Problem haben Forscher der Universität Maryland (in einem Gemeinschaftsprojekt mit der NSA) Anfang August 2016 mit Hilfe eines Lasers gelöst. Allerdings verfehlten sie das Ziel, die erforderliche Präzision ihres programmierbaren Quantenlogikgatters von mindestens 99,9 Prozent zu erreichen. Einen Durchbruch im Hinblick auf die Genauigkeit der Berechnungen erzielten zeitgleich wiederum Forscher der Universität Oxford.