Gorodenkoff - stock.adobe.com
Welche NVMe-Technologie sich wahrscheinlich durchsetzt
Es wird diskutiert, wie sehr sich NVMe over Fabrics durchsetzen wird und mit welcher Technologie. Allerdings wird dies Fibre Channel nicht aus den Storage-Umgebungen verdrängen.
Unternehmen haben mehrere NVMe-Fabric-Optionen, wenn sie NVMe over Fabrics einsetzen. NVMe über Fibre Channel ist eine davon, mit Hilfe der Fibre Channel-Netzwerkspeicher, die Profis gut kennen. Die meisten anderen NVMe-oF-Optionen sind Remote Direct Memory Access-basiert, einschließlich RDMA über Converged Ethernet und iWARP.
NVMe wird in vielen Rechenzentren für extrem leistungsstarke Anwendungen eingesetzt, die typischerweise dedizierte Hardware erfordern. Bei den NVMe-Fabric-Optionen wird wahrscheinlich RDMA eine frühe Führungsrolle übernehmen. Die für NVMe über RDMA erforderliche spezielle Hardware ist bereits verfügbar. Dies sind RDMA-fähige Netzwerk-Schnittstellenkarten (RNICs). Fast jede 10-Gigabit-Ethernet-Netzwerkkarte ist auch eine RNIC, obwohl sie nicht alle vom gleichen Typ sind und man sie nicht mischen und anpassen kann.
Da NVMe SCSI als lingua franca für Storage ersetzt, greifen Unternehmen über den bewährten und bekannten Fibre Channel (FC) auf vollwertige Arrays wie Dell EMC PowerMax oder NetApp All-Flash FAS zu. Die meisten Ethernet NVMe werden auf TCP enden, das über Standard-Ethernet-Geräte läuft, ohne dass spezielle RNICs oder Host-Bus-Adapter (HBAs) erforderlich sind. RDMA wird für Controller-zu-Shelf-Verbindungen in Arrays wie Pure Storage's FlashArray///X verwendet, aber es steht nicht zu erwarten, dass es Mainstream wird.
Empfehlungen für NVMe-Fabrics
Während zuverlässiges RDMA über konvergentes Ethernet und das Internet Wide Area RDMA-Protokoll theoretisch ohne spezielle Konfiguration über Netzwerke laufen kann, empfehlen die RoCE-Anbieter den Benutzern immer noch, die Priority Flow Control (PFC) und die Explicit Congestion Notification (ECN) zu aktivieren, um verlorene Pakete (dropped packets) zu eliminieren. Die Aktivierung von PFC und ECN erfordert einige Konfigurationsschritte.
RDMA-Auslagerungen können die Latenzzeit und die CPU-Auslastung reduzieren, aber wenn die Intel Xeon-Rechenleistung steigt, kann es sein, dass NVMe-Fabric-Muster dem Weg folgen, den iSCSI-Benutzer eingeschlagen haben. In den Anfangszeiten von iSCSI wurden iSCSI-HBAs und TCP-Offload-Engine-Karten benötigt. Aber als die CPU-Leistung zunahm, entdeckten die Anwender bald die in ihren Betriebssystemen eingebauten Softwareinitiatoren, und Hypervisoren lieferten viel Leistung bei gleichzeitiger Verwendung nur eines kleinen Teils der CPU des Servers. Heute bieten viele NICs und konvergierte Netzwerkadapter iSCSI- und TCP-Offloads an, allerdings wird dies anscheinend noch nicht genutzt.
Das Converged Ethernet in RoCE kommt vom Data Center Bridging (DCB), das entstand, um FC über Ethernet zu ermöglichen, indem es verlorene Pakete aus dem Ethernet eliminiert. Man kann das DCB-Switch-Setup als analog zu Jumbo Frames in einem iSCSI-SAN betrachten. Beide erfordern, dass der Netzwerkadministrator für jeden Port ein paar Parameter einstellt, um eine bessere Leistung zu erzielen. Beide Technologien werden unzuverlässig, wenn ein oder zwei Geräte oder Ports nicht richtig konfiguriert sind. Dienstanbieter mit Netzwerkautomatisierung können damit problemlos umgehen, während Systemadministratoren eventuell warten müssen, bis das Netzwerkteam die beiden Ports für einen neuen Server konfiguriert hat. In einem solchen Fall entscheidet sich der Admin eher dafür, TCP zu verwenden.
NVMe-oF ist viel mehr als nur ein schnellerer Ersatz für SANs. Die NVMe-Fabric, das Anwender wählen, kann mehr als nur die Geschwindigkeit erhöhen. Bei Fabric-gebundenen JBOFs, insbesondere bei Festplatten-JBOFs, wie dem OpenFlex D3000 von Western Digital, geht es um die Kompatibilität und die damit verbundene Flexibilität, aber das ist eine andere Geschichte.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!