Ohne Infrastruktur gibt es keine Digitalisierung
Zähe Standardisierung
von Christoph Dietzel - 11.10.2019
Der rasanten Entwicklung von Technologien steht eine sehr umständliche und langsame Etablierung von Standards gegenüber. Um die Bits, die sich durch die Internetinfrastruktur bewegen, zu strukturieren und dann auf der Gegenseite zu interpretieren, bedarf es der Nutzung standardisierter Protokolle. Diese findet für das Internet innerhalb der Internet Engineering Task Force (IETF) statt. Bis sich alle Beteiligten auf einen Kompromiss einigen, vergeht natürlich Zeit. So beruht auch heute noch der größte Teil der Kommunikation im Netz auf dem IPv4-Standard. Das Problem: Adressen werden knapp. IPv4 arbeitet mit 32-Bit-Adressen. Es gibt also 2 32 oder 4,3 Milliarden mögliche IP-Adressen. Mit diesem Protokoll sind wir nicht einmal in der Lage, jedem Menschen eine IP zuzuweisen. Wenn wir uns vor Augen führen, dass die Anzahl vernetzter Geräte unaufhörlich wächst, wird klar, dass sich hier etwas ändern muss. Konkret bedeutet das die Umstellung auf IPv6. Diese Version des Protokolls arbeitet mit 128 Bit, was bedeutet, dass es 2 128 mögliche Adressen gibt, über 340 Sextillionen. Grob geschätzt bewegen sich die Adressen pro Mensch dann im Bereich von 100 Quadrillionen. Das verschafft genügend Planungssicherheit für diverse IoT-Szenarien. Allerdings geht die Umsetzung des neuen Standards langsam voran. Vom Gesamt-Traffic am DE-CIX laufen aktuell nur 5 Prozent über IPv6.
Eine mittelfristige Lösung könnte die Entwicklung eigenständiger Protokolle für Teilnetze in geschlossenen Domänen sein. Möglich wird das durch frei programmierbare Netzwerkausrüstung, die nicht nur standardisierte Protokolle konfiguriert, sondern Software-defined Networking (SDN) ermöglicht, also die Verarbeitung von Datenströmen und Paketen mittels Software selbst definiert.
Global und lokal
Das Internet gehört sicher zu den Technologien, die die Globalisierung am stärksten vorangetrieben haben. Durch günstige und jederzeit verfügbare Kommunikationswege wächst die Welt in nie dagewesenen Dimensionen zusammen. Doch gerade wenn es um die Zukunft des Internets geht, müssen wir wieder lokaler denken. Was sich zunächst vielleicht etwas abwegig anhört, ist eigentlich ganz logisch. Dass sich im Universum nichts schneller als Licht bewegen kann, wissen wir seit Einstein. Selbstverständlich gilt das auch für Daten. Licht bewegt sich zwar mit unglaublichen 300.000.000 Metern pro Sekunde, doch das wäre immer noch zu wenig, um in den USA gehostete hochauflösende VR-Inhalte in Europa ohne Ruckeln wiederzugeben. Die einzig logische Konsequenz daraus: Die Daten müssen näher an die Nutzer.
Bereits seit einiger Zeit haben Anbieter eigene Hardware zum Zwischenspeichern von Inhalten in den Endkundennetzen. Jedoch beschränkt sich das vornehmlich auf große Telekommunikations-Zentren wie Frankfurt. Sollte Virtual Reality im großen Stil genutzt werden, müsste das Netz viel engmaschiger werden. Auch kleinere Städte benötigten dann eigene Rechenzentren. Für autonomen Straßenverkehr brauchte man vermutlich eines an jedem Autobahnkreuz, um der Datenflut Herr zu werden, die diese Fahrzeuge generieren.
Die nähere Zukunft wird vermutlich auf eine konsequente Weiterentwicklung bestehender und bewährter Technologien beruhen. Dies wird auch nötig sein, um den Anforderungen einer digitalisierten Welt gerecht zu werden. Darüber hinaus brauchen wir neue, innovative Ansätze, um Daten möglichst effizient zu verarbeiten und zu übertragen. Denkbar sind etwa intelligente Netzwerke, die Datenströme während der Übertragung analysieren und optimieren. Auf jeden Fall bleibt die weitere Entwicklung des Internets spannend.