cherezoff - stock.adobe.com

Warum 400 GbE gebraucht wird und wofür

400 GbE überwindet die Kapazitätsgrenzen des Netzwerks. Richtig eingesetzt, ermöglicht es neue Anwendungen und erhöht die Effizienz. Kommerzielle Lösungen sind startklar.

Für viele Verbraucher, insbesondere diejenigen die erst vor Kurzem schnelles Internet bekamen, war der Umstieg auf Hochgeschwindigkeits-Breitband wahrscheinlich eine Offenbarung. Alles wurde schneller, doch die Veränderungen waren viel tief greifender als die Geschwindigkeit. Die genutzten digitalen Inhalte und Dienste wurden robuster, dynamischer und personalisierter.

Eine ähnliche Erfahrung können Cloud-Provider, Kommunikationsdienstleister (CSP) und Unternehmen nun mit der Einführung von 400-GbE-Konnektivität (400 Gigabit Ethernet) erwarten. Durch die Aufrüstung von Rechenzentren und WAN-Transportverbindungen auf 400 GbE – der vierfachen Kapazität der Leitungen, die die meisten Unternehmen heute verwenden – werden bisher unmögliche Dinge möglich. Darüber hinaus liefern sie 400 GbE mit dem nur zweieinhalbfachen Stromverbrauch von 100 GbE und können so den Bedarf an digitalen Inhalten und Diensten weitaus effizienter bedienen.

Obwohl Anbieter und Analysten schon seit einiger Zeit von 400 GbE sprechen, gibt es immer noch keine weitverbreiteten kommerziellen 400-GbE-Lösungen. Wurden die Vorteile von 400 GbE – oder die Dringlichkeit, sie einzuführen – überbewertet? Die Antwort ist Nein.

Die enormen Kapazitäts-, Dichte- und Effizienzsteigerungen, die mit 400 GbE einhergehen, sind stark gefragt, und diese Nachfrage wird nur noch weiter steigen. Die Verzögerung basiert auf einfacheren Faktoren. Erstens muss sich die Branche auf standardisierte Implementierungen einigen. Noch wichtiger ist, dass Pluggable-400-GbE-Optiken in großen Stückzahlen und zu vernünftigen Kosten verfügbar werden müssen. Glücklicherweise macht die Branche in beiden Bereichen stetige Fortschritte.

Das Streben nach 400 GbE

Um 400 GbE zu verstehen, muss man die Unternehmen anschauen, die es am dringendsten benötigen: die Cloud Hyperscaler. Unternehmen wie Google, Amazon, Facebook und ähnliche kämpfen mit einem explosionsartigen Wachstum des Datenverkehrs in ihren Rechenzentren.

Facebook zum Beispiel generiert täglich 4 Petabyte an neuen Daten. Der Netzwerkbedarf der Google-Rechenzentren verdoppelt sich alle 12 bis 15 Monate. Der Ansatz, diese Anforderungen mit 100-GbE-Links zu erfüllen, ist wie der Versuch, genauso viel Wasser wie mit einem Schlauch durch eine Handvoll Strohhalme zu pumpen. Man kann es machen, zieht aber eigentlich eine bessere Option vor.

Hyperscaler sind nur die Spitze des Eisbergs. CSPs sehen sich mit ähnlichen Wachstumstrends in ihren eigenen Netzwerken konfrontiert, gefolgt von großen Unternehmensrechenzentren. Was treibt dieses massive Wachstum an?

  • Neue Anwendungen: Weltweit ist ein explosionsartiges Wachstum bei Cloud- und digitalen Anwendungen zu sehen, insbesondere bei Videos. HD- und Ultra-HD-4K-Videoinhalte verbrauchen derzeit 73 Prozent der weltweiten Bandbreite und werden bis 2021 voraussichtlich 82 Prozent überschreiten. Durch den zunehmenden Einsatz von künstlicher Intelligenz (KI) und Machine Learning in Cloud-Rechenzentren wächst ebenfalls der Bedarf an deutlichen Kapazitäts- und Geschwindigkeitssteigerungen.
  • Die Weiterentwicklung von Data Center Backbones: Da Hyperscaler neue Architekturen einsetzen, um mit diesen Anforderungen Schritt zu halten, rüsten sie von 50-GbE- auf 100-GbE-Serververbindungen auf. Die einzige Möglichkeit, dieses Verkehrsaufkommen wirtschaftlich zu bewältigen, ist mit 400-GbE-Optik.
  • Neue 5G-Netze: Die Einführung von 5G beschleunigt die Netzanforderungen an Mobilfunkbetreiber, die denen von Hyperscalern nahekommen. Eine Vielzahl von 5G-Anwendungsfällen treibt den Bedarf an schnelleren Verbindungen voran: Hochgeschwindigkeits-Breitband, Telemedizin, immersive Virtual-Reality-Erlebnisse und viele andere. Aber allein die Verbindung von 5G-Zellstandorten wird enorme Kapazitätssteigerungen erfordern. Massive MIMO-Antennentechnologien (Multiple Input, Multiple Output) führen dazu, dass ein Zellstandort anstatt der bisherigen vier 10-GbE-Schnittstellen bald mehrere 100-GbE-Schnittstellen benötigen wird, um ein dicht besiedeltes Stadtgebiet zu versorgen.
  • Rasantes Wachstum der digitalen Dienste für zu Hause und die Telearbeit: Die COVID-19-Pandemie löste einen massiven Anstieg der digitalen Dienste zu Hause aus. Immer mehr Menschen arbeiten aus der Ferne und nutzen leistungsfähigen Dienste wie Videokonferenzen, Remote-Arbeitsplätze, Video-Streaming, Spiele und mehr. Das hat aber tief greifende Auswirkungen auf die globalen Verkehrsmuster. Einige dieser Veränderungen werden nur von kurzer Dauer sein, während andere anhaltende Folgen haben. Es ist zu erwarten, dass sich die Zeitpläne für die Aufrüstung der Kapazität in privaten Netzwerken beschleunigen.

Überwindung von Hindernissen

Diese Faktoren führen zu enormen neuen Umsatzmöglichkeiten für Cloud-Provider, CSPs und Unternehmen gleichermaßen. Um davon profitieren zu können, benötigen sie jedoch eine höhere Dichte und Skalierbarkeit bei gleichzeitig besserer Energieeffizienz und geringeren Kosten. 400 GbE ist einfach sinnvoll, auch für Rechenzentrumsnetzwerke, DCI (Data Center Interconnect) sowie Kern- und Transportnetzwerke von Service-Providern. Warum gibt es also nicht mehr davon?

Zum einen dauert es, bis sich die Anbieter auf Multi-Source-Agreements (MSA) bei optischen Standards geeinigt haben, die dann gründlich getestet werden müssen. Es kann ein langer, komplexer Prozess sein, aber das Ergebnis ist oft von großem Nutzen für das gesamte Ökosystem.

Ein Beispiel dafür ist der QSFP56-DD-Pluggable-Formfaktor, der die Bandbreite und Dichte von optischen Empfängern um ein Vielfaches erhöht. Dieser neue Formfaktor ermöglicht DWDM und Ethernet auf der gleichen Grundfläche und bietet Rückwärtskompatibilität mit anderen QSFP-Formaten. Diese Art von MSA-Prozessen im Rahmen von 400 GbE sind fortlaufend. Im Laufe des Jahres 2020 ist mit einer Zunahme von qualifizierten Optiken auf dem Markt zu rechnen.

Die größere Verzögerung ist auf den Preis zurückzuführen. Kunden benötigen 400-GbE-Lösungen zu einem überschaubaren Preis. Während die Netzwerkausrüster und ASIC-Hersteller die Kosten pro Bit kontinuierlich gesenkt haben, haben die Kosten für die Optik nicht Schritt gehalten. Vor einem Jahrzehnt machte die 10-GbE-Optik etwa zehn Prozent der Kosten für die Netzwerkhardware in Rechenzentren aus. Heute beträgt der Anteil der Optik mehr als die Hälfte.

Die Massenfertigungsprozesse, die Automatisierung und die Skaleneffekte, die es bei Halbleitern ermöglichen, mit jeder neuen Generation erschwinglicher zu werden, müssen optisches Networking implementieren. Die Industrie ist sich dessen bewusst, doch der Wandel geht langsam vonstatten. Wenn die Hyperscaler jedoch beginnen, 400-GbE-Optik in großem Maßstab einzusetzen (was voraussichtlich Ende 2020 der Fall ist), dürften die Preise für jedermann sinken.

Blick nach vorn

Mit der kommerziellen Machbarkeit von 400 GbE sind 2020 auch bedeutende optische Fortschritte zu erwarten. Die laufende Entwicklung der Silizium-Photonik wird zum Beispiel die Konvergenz des optischen Transports mit Routing und Switching fördern. Sie liefert auch Pluggable-Transceiver-Fähigkeiten auf Plattformen mit fester Konfiguration oder direkt auf Line Cards für modulare Plattformen.

Ebenfalls in Sichtweite: 400ZR, das die Wirtschaftlichkeit von WAN-, Metro- und DCI-Anwendungsfällen dank einer höheren Reichweite von Hochgeschwindigkeits-Ethernet und kohärenter Optik auf bis zu 120 Kilometer transformieren kann.

Dies sind einige Überlegungen, die bei der Vorbereitung auf 400 GbE berücksichtigt werden sollten:

  • Offen und interoperabel, ohne Lock-in. Plattformen, die auf offenen Standards basieren mit herstellerübergreifender Interoperabilität. Dadurch werden langfristig Investitionskosten gespart und operative Flexibilität wird verbessert.
  • Vorbereitung auf 400 GbE. Netzwerk-Aktualisierungszyklen mit festen Konfigurationen oder modularen Lösungen unterstützen die QSFP56-DD-Schnittstellen für 400-GbE-Dienste. So ist der Übergang, zum Beispiel durch das Austauschen von Pluggables, schnell und problemlos möglich.
  • Inline-Sicherheit. Für viele Organisationen muss jeglicher Datenverkehr, der das Rechenzentrum verlässt, verschlüsselt werden. 400-GbE-Lösungen bieten eine MACsec-Verschlüsselung (Verschlüsselung auf Layer 2) inline, ohne dass separate Komponenten verwendet werden müssen, die den Stromverbrauch sowie die Kosten erhöhen und gleichzeitig die Leistung beeinträchtigen.
  • Telemetrie at Scale. Zur Verwaltung und Überwachung eines wachsenden Netzwerks werden Netzwerkgeräte benötigt, die auch Telemetriefunktionen skalieren und so Millionen von Countern und Filteroperationen pro Sekunde unterstützen.
Wolfgang Kirchberger, Juniper Networks

„In jedem Fall ist es an der Zeit, bei Kapazitätsgrenzen des Netzwerks 400 GbE ernsthaft in Erwägung zu ziehen, denn kommerzielle Lösungen sind bald realisierbar.“

Wolfgang Kirchberger, Juniper Networks

Fazit

In jedem Fall ist es an der Zeit, bei Kapazitätsgrenzen des Netzwerks 400 GbE ernsthaft in Erwägung zu ziehen, denn kommerzielle Lösungen sind bald realisierbar. Wer die nächste Generation digitaler Dienste und Anwendungen bereitstellt oder auch nur die aktuellen effizienter unterstützen möchte, sollte erfolgreiches und wettbewerbsfähiges Handeln sicherstellen.

Über den Autor:
Wolfgang Kirchberger ist Systems Engineering Director bei Juniper Networks.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über LAN-Design und Netzwerkbetrieb