whyframeshot - stock.adobe.com
400 GbE: Warum 400 Gigabit Ethernet schnell kommen wird
Anbieter wie Cisco, Arista und Juniper bringen Produkte für 400 GbE auf den Markt. Das verdeutlich den Bedarf nach größerer Bandbreite, der etwa durch Datenakkumulation entsteht.
Große Hyperscale-Cloud-Provider setzten sich zunächst wegen ihres unstillbaren Hungers nach immer mehr Netzwerkbandbreite für 400 Gigabit Ethernet (GbE) ein. Wie so viele andere Technologien, die im Highend-Bereich mit den anspruchsvollsten Kunden ihren Ursprung haben, wird auch diese Technologie letztlich ihren Weg in normale Rechenzentren von Unternehmen finden.
Die meisten Enterprise-Netzwerke nutzen vor allem 100 GbE für ihren Backbone und ihre Leaf-Spine-Infrastruktur, mit 10-GbE- und 25-GbE-Switches weiter unten im Stack. Da es sich hierbei um Produktionsumgebungen handelt, zögern die Kunden, Änderungen vorzunehmen – entweder, weil das Equipment noch nicht vollständig abgeschrieben ist oder die Anwendungen noch nicht an die Bandbreitengrenzen kommen.
Wenn Kunden aktuell die 100-GbE-Infrastrukturen nicht ausreizen, dann sollte man annehmen, dass es keinen Bedarf nach einer Vervierfachung der Bandbreite gibt. Doch aus anderen Gründen dürfte es nur eine Frage der Zeit sein, bis 400 GbE den Weg in Enterprise Data Center findet.
Was treibt die Nachfrage nach 400 GbE?
Einige tiefgreifende Änderungen beim Enterprise Computing sind dafür verantwortlich, dass die Nachfrage nach 400-GbE-Infrastrukturen wächst. Denken Sie zum Beispiel an folgende Punkte:
- Die Serverdichte ist größer als jemals zuvor. Egal ob hyperkonvergente, modulare, Blade- oder einfach Rack-Server – die Dichte steigt. Und jeder Server verfügt über zwei Netzwerkkarten mit 10 GbE oder sogar 25 GbE.
- Netzwerk-Storage setzt statt auf Fibre Channel zunehmend auf Ethernet, was den Bedarf nach Ethernet-Funktionen mit hoher Bandbreite wachsen lässt.
- Die Zunahme an Private-Cloud-Anwendungen und virtueller Desktop-Infrastruktur (VDI) stellt zusätzliche Anforderungen an Netzwerke, da das Computing weniger auf den verteilten Endpunkten, sondern auf Serverebene stattfindet.
- Und schließlich sorgen das IoT und eine massive Datenakkumulation am Edge für wachsende Bandbreitenanforderungen im Netzwerk.
Alle diese Dynamiken weisen auf die Notwendigkeit einer größeren Netzwerkbandbreite hin, die 400 GbE liefern kann. Allerdings steht kaum zu erwarten, dass Unternehmen ihre vorhandene Core-Infrastruktur entsorgen und ihre Data Center neu verkabeln. Wahrscheinlicher ist ein Wechsel zu 400 GbE in der Leaf-and-Spine-Architektur, wo eine höhere Bandbreitendichte helfen kann, überlastete Aggregationsnetzwerke zu entlasten.
Wie 400 GbE die Verkabelung vereinfacht
400 GbE lässt sich über einen Multiplexer in kleinere Größen aufteilen. Die populärsten Optionen hierbei sind 2 x 200 GB, 4 x 100 GB oder 8 x 50 GB. Auf Aggregationsebene erhöhen diese neuen Verbindungen mit größerer Geschwindigkeit die Bandbreite pro Port. Das wird zu einer geringeren Port-Dichte führen, während die Verkabelung einfacher wird.
So stammen heute die gängigsten Leaf-Spine-Switches aus der Catalyst 9300er-Serie von Cisco, die sechs Uplinks mit 100 GB für 600 GB aggregierte Upstream-Bandbreite bietet. Wenn man zwei ToR-Switches (Top of Rack) für die Redundanz einrichtet, benötigen Netzwerke 12 Upstream-Links mit 100 GB oder nur drei Links mit 400 GB.
Obwohl der Top of Rack auf Leaf-Ebene vielleicht gleichbleibt, verringert eine Reduzierung der Verbindungen zum Spine im Verhältnis 4 zu 1 die Anzahl der Ports und lässt mehr Raum für künftige Erweiterungen. Am wichtigsten aber ist, dass dadurch die Infrastrukturen entlastet werden, die in puncto Platzbedarf oder Port-Verfügbarkeit langsam an ihre Grenzen stoßen.
Neue Transceiver mit doppelter Dichte
Während die Port-Dichte auf Aggregationsebene ein wichtiger Treiber für 400 GbE sein dürfte, gibt es einen anderen Bereich, wo die Dichte ebenfalls eine Rolle spielt. Die QSFP-Ethernet-Transceiver (Quad Small Form Factor Pluggable), die Kunden nutzen, etwa in Form von QSFP+, QSFP28 oder QSFP56, werden eine Bandbreite von 400 GbE nicht unterstützen.
Nun werden die neuen QSFP-DD-Transceiver (Quad Small Form Factor Pluggable Double Density) eingeführt, die abwärtskompatibel zu vorhandenen QSFP-Cages sind. Steckt man sie in ältere Systeme, erfolgt die Verbindung nur mit einer Kontaktreihe, was vier I/O-Lanes ermöglicht. In neueren Systemen bieten sie aber acht Lanes und 400 GB.
Der andere primäre Transceiver ist der neue Octal Small Form Factor Pluggable (OSFP). Doch damit ausgestattete Geräte werden zu bestehenden QSFP-Infrastrukturen nicht kompatibel sein.
Der Bedarf nach mehr Bandbreite
Unterm Strich lässt sich festhalten: Im Zuge der technischen Weiterentwicklung entsteht immer ein Trend, auf die nächste Networking-Generation mit höherer Bandbreite umzusteigen. Und 400 GbE wird der nächste Halt auf diesem Weg sein.
Weil neue Server-Formfaktoren und Data-Center-Anwendungen mehr Bandbreite benötigen, wird diese neue Technologie ihren Siegeszug von Cloud-Data-Centern aus – wo sie rasch eingeführt wurden – zu Enterprise-Data-Centern, die eher konservativ verwaltet werden, antreten.
Die Abwärtskompatibilität und Multiplexing-Fähigkeiten der Transceiver werden es Unternehmen ermöglichen, 400 GbE bei Bedarf im Data Center einzusetzen, anfangs auf Spine-Ebene und später dann bis auf Leaf-Ebene. Alle genannten Punkte deuten darauf hin, dass 400 GbE bald das Data Center erobern wird. Zeit also, sich Gedanken zu machen, wo dies für Sie sinnvoll ist.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder und entsprechen nicht unbedingt denen von ComputerWeekly.de.