sakkmesterke - stock.adobe.com

Data-Center-Netzwerke: Immer schneller und dichter

Der Trend bei Data-Center-Netzwerken – und Verbindungen zwischen Data Centern und Cloud-Providern – geht zu mehr Tempo und Dichte. Auch die Topologien entwickeln sich weiter.

Bei Designtrends von Data-Center-Netzwerken ist es schon immer um höhere Geschwindigkeiten und mehr Endpunkte gegangen, während das Pendel beim Flachheitsgrad in alle Richtungen ausschlägt.

Derzeit erleben wir Vergleichbares bei der Außenanbindung – dort, wo Data Center sich mit anderen Entitäten verbinden.

Data-Center-Netzwerkdesign: schneller auf jeder Ebene

Die großen Änderungen beim Design von Data-Center-Netzwerken sind darauf zurückzuführen, dass Computing- und Storage-Infrastrukturen mit immer gewaltigeren Datenströmen zurechtkommen müssen. Diese Ströme treten nicht nur im Backend auf, sondern auch intern in Form von Ost-West-Traffic innerhalb eines Data Centers und als Nord-Süd-Traffic, der von einem Data Center zu einem anderen fließt.

Vor noch nicht allzu langer Zeit schienen Verbindungen mit 10 GbE (10 Gigabit Ethernet) mehr als ausreichend sowohl für Ost-West- wie Nord-Süd-Traffic. Heute sieht das Ganze schon anders aus. Microservices-Architekturen, Big Data, Rich Media und eine größere Dichte in virtualisierten Computing-Infrastrukturen wirken zusammen als Motor für die rasche Verbreitung von 25-GbE- und sogar 100-GbE-Netzwerken. Das gilt nicht nur für Netzwerkengpässe, an denen viele Ströme zusammenkommen, sondern für die gesamte Infrastruktur – um mit sich schnell ändernden und wenig vorhersehbaren Datenströmen Schritt zu halten.

Die schnellen Helfer von Data-Center-Netzwerken

Vieles davon lässt sich auch für Verbindungen von Data Centern untereinander feststellen, da aufgrund von Datengröße und Anwendungsarchitektur die Anzahl und der Umfang der Ströme immer weiter wachsen. Nimmt man Cloud-Dienste und die große Menge an zu transportierenden Bits in, aus und zwischen Clouds hinzu, lässt sich leicht erkennen, warum so viele Unternehmen auf Multi-Gigabit-Verbindungen setzen, ob per Ethernet oder dedizierten Wellenlängebereichen, bewährter Dark Fiber oder immer mächtigeren Internetanbindungen.

Ein besonderes Verhältnis: Direct-Cloud-Verbindungen

Unternehmen brauchen Geschwindigkeit, um ihre Data-Center-Anwendungen mit Cloud-Ressourcen oder umgekehrt zu verbinden. Sie benötigen das Tempo, damit On-Premises-Nutzern, die mit Cloud-Services arbeiten, eine hohe Anwendungs-Performance zur Verfügung steht.

Diese Anforderungen treiben einen weiteren Netzwerktrend: Organisationen mit einem großen Geschwindigkeitsbedarf wenden sich Technologien zu wie Microsoft Azure ExpressRoute oder Amazon Web Services Direct Connect, um ihren Netzwerk-Edge mit dem Netzwerk eines Cloud-Providers zu verbinden.

Dies findet in der Regel in einer Meet-me-Einrichtung statt – einem Carrier-Hotel oder einer großen Colocation-Einrichtung –, wo der Cloud-Service-Provider einen Point of Presence (POP) betreibt. Das Unternehmen hat dann folgende Optionen: es kann an dem Ort Infrastruktur installieren, um einen eigenen POP einzurichten. Oder es least einen Port in der Provider-Infrastruktur, über den es per physischem Kabel eine Verbindung zum eigenen Router aufbauen kann. Dies ermöglicht eine Jitter-freie Traffic-Leitung mit hoher Kapazität und geringer Latenz.

Weitere Optionen: WAN-Cloud Exchange

WAN-Cloud Exchange ist ein anderer Netzwerktrend. Wenn ein Unternehmen nicht in Eigenverantwortung die physische Infrastruktur einer direkten Verbindung verwalten will, kann es sich für eine virtualisierte Version des gleichen Service entscheiden, indem es einen WAN-Cloud Exchange abonniert.

Anstatt sich direkt mit dem Router eines Cloud-Providers zu verbinden, wird die Verbindung über einen Exchange Router aufgebaut. Dieser Exchange-Punkt ist wiederum mit mehreren Cloud-Service-Providern verbunden. Das Unternehmen kann virtuelle Direktverbindungen mit jedem von ihnen aktivieren.

Mit Cloud Exchange lassen sich nicht nur die Interna für das Management vieler physischer Verbindungen verbergen. Dieser Ansatz ermöglicht zudem mehr Spielraum bei der Kapazität der Verbindungen, eine größere Agilität (virtuelle Verbindungen können statt in Tagen oder Wochen binnen Minuten erstellt werden) und die Fähigkeit, eine Verbindung zu mehreren Providern herzustellen, ohne den dazu nötigen Verwaltungsaufwand linear zu skalieren.

Data-Center-Netzwerke: Ist flaches Design in oder out?

Data-Center-Netzwerke besitzen eine Tiefe – die Anzahl der Schichten, die Daten in einem Worst-Case-Szenario durchdringen müssen, um innerhalb des Netzwerks von Punkt A nach Punkt B zu gelangen. Diese Netzwerke besaßen als Bridged- und dann Switched-Netzwerke ursprünglich ein flaches Design. Später gab es mit Aggregation und Edge zwei Schichten und durch Hinzufügen einer Backbone-Schicht drei. Fabric-Umgebungen setzten wieder auf ein flaches Modell mit nur einer Schicht. Jetzt bewegt sich der Trend erneut in Richtung von zwei Schichten. Das Ergebnis in Form von Leaf-Spine-Architekturen ist in relativ kurzer Zeit zum Standard für Data Center geworden. Für die meisten Anwender ist die dadurch entstandene Balance zwischen Flachheit und Resilienz genau richtig.

Extern hingegen schwingt das Pendel in alle Richtungen. Flache MPLS-Clouds mit in Data Centern konzentriertem Internetzugang – zwei Schichten in gewisser Weise – machen an einigen Stellen einer dreistufigen Struktur Platz: Intermediäre Netzwerkaggregationspunkte verbinden Branch-Netzwerke in einer Region miteinander und dem Internet – für bestimmten Traffic –, den Data Centern – wo der Rest des Internet-Traffics sowie sonstiger eingehender Traffic landet – und mit anderen Aggregationspunkten.

Oder aber es setzen sich noch flachere Strukturen durch, mit direktem Internetzugang am Branch. Denkbar ist auch, dass sie zu Software-defined WANs (SD-WAN) mit mehr als einer Topologie werden. Hierbei nutzt ein Teil des Traffics eine zweischichtige Hub-and-Spoke-Struktur, während ein anderer Teil ein vollständiges – flaches – Mesh nutzt, selbst wenn sonstiger Traffic noch verschlungeneren Wegen zu spezifischen Cloud-Partnern oder -Services folgt.

Ausblick: Data Center und Edge Networking

Der nächste große Umbruch, der beim Design von Data-Center-Netzwerken wohl zu erwarten steht, ist das Aufkommen von Edge Computing. Dadurch wird von Grund auf neu definiert, wo die Datenverarbeitung erfolgt und wie viele Daten an welcher Stelle fließen müssen, um diese Art der Verarbeitung möglich zu machen. In der Zwischenzeit können wir davon ausgehen, dass Data-Center-Netzwerke zunehmend dichter und schneller werden. Gleiches gilt für das Verbindungsgeflecht zwischen Data Centern und Cloud-Providern, während sich die Topologien weiterentwickeln, um sich an die künftigen Anforderungen und Methoden anzupassen.

Folgen Sie SearchNetworking.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Data-Center-Netzwerke effizienter verwalten

Die richtige Netzwerkverkabelung für Ihre IT-Infrastruktur

Gratis-eBook: Kaufberatung Data Center Switches

Erfahren Sie mehr über LAN-Design und Netzwerkbetrieb