kwarkot - stock.adobe.com

Vier wichtige Fakten zu Compute Express Link

CXL als schneller Interconnect zu Memory-Ressourcen für alle Arten von Prozessoren könnte die Architektur von Rechenzentren in Zukunft signifikant beeinflussen.

Compute Express Link (CXL) wird wahrscheinlich die Infrastruktur von Rechenzentren signifikant verändern. Der Begriff beschreibt eine Verbindungstechnik, mit der sich verteiltes Memory, also Arbeitsspeicher, für die direkte Nutzung durch Compute-Knoten zu einer gepoolten Ressource zusammenfassen lässt. CXL ermöglicht frei definierbare Infrastrukturen (Composable Infrastructure), wie sie vorher nicht möglich waren und gleichzeitig Leistungssteigerungen. Denn die Technik beseitigt in gewissem Umfang Engpässe zwischen verarbeitenden Einheiten und Arbeitsspeicher.

Vier grundlegende Fakten über CXL sollten interessierte Anwender kennen: seine Vorteile, die dadurch möglichen Workloads, die zugrundeliegende Technik und die durch CXL zu erwartenden Veränderungen im Rechenzentrum.

Was ist CXL?

CXL ist eine Open-Source-Verbindungstechnik, die das Memory an die verarbeitenden Einheiten in Servern und Storage anbindet.

Sein großer Vorteil gegenüber bisherigen Verfahren besteht in der potentiellen Chance, Memory-Pools mit sehr viel höherer Kapazität zu bilden als sie bisher verfügbar waren.

Das Pooling funktioniert auch dann, wenn das Memory von unterschiedlichen Herstellern stammt. Angebunden werden können diese Pools an CPU-, GPU- und DPU-Prozessoren, Smart NICs und Computational Storage.

CXL ist als Open-Source-Technologie und universelle Verbindungstechnik für Memory entstanden. Ziel war es, große Caches aus gepoolten Ressourcen für gerade in Bearbeitung befindlichen Datensätze zu bilden.

Die Technologie ist im Kontext von Storage-Class Memory zu sehen. Denn es zeigte sich schnell, dass seine Fähigkeiten nicht ausreichten, um die neuen Multiprozessor-Architekturen wirksam zu unterstützen. SCM ließ sich nur schwer zusammen mit solchen Modulen zum Laufen bringen, so dass bedarf nach einer einfacheren Lösung bestand, um Memory zu poolen. Hier springt CXL in die Bresche.

Vorteile von CXL und geeignete Workloads

CXL beseitigt proprietäre Verbindungstechnik zwischen Memory, Storage Class Memory, Compute und Storage. So können viele Prozessoren viel größere Memory-Pools als bisher gemeinsam nutzen. Merken sollte man sich, dass CXL die beliebige Zusammenstellung (Composability) potentiell großer Memory-Speicher und maßgeschneiderter Workloads ermöglicht.

Deshalb eignet sich CXL für jede Workload, die von großen Mengen Anwendungsdaten direkt im Memory profitiert. Das Spektrum reicht von Transaktionsverarbeitung bis zu Analytics, Künstlicher Intelligenz (KI) und maschinellem Lernen (ML).

CXL ist sehr wahrscheinlich interessant für Cloud Provider und Hyperscaler, sobald und wo von ihnen schnelle Bereitstellung und Skalierung verlangt werden.

Denn eine CXL-basierte Memory-Erweiterung liefert zusätzliche Kapazität und Bandbreite zu dem, was die DIMM-Steckplätze der Hardware schon anbieten. Man kann einem CPU-Hostprozessor weiteres Memory über ein mit CXL angebundenes Gerät bereitstellen. Zusammen mit persistentem Memory ermöglicht CXL der CPU zum Beispiel, das persistente Memory zusammen mit dem DRAM als eine Ressource zu verwenden.

Technologie: So funktioniert CXL

CXL basiert auf PCIe 5.0. Derzeit ist CXL Version 2.0 aktuell.

Das Verfahren nutzt drei Protokolle:

  • io, das wie PCIe 5.0 Initiierung, Verbindungsaufbau und die Suche nach vorhandenen Geräten erledigt
  • cache, ein optionales Protokoll für Interaktionen zwischen Host und Memory-Device, um CXL-Kohärenz herzustellen
  • mem, ein optionales Protokoll, das Host-Prozessoren direkten Zugriff auf das über beschleunigte Verbindungen angebundene Memory gibt

Die drei Protokolle können unterschiedlich kombiniert werden, damit diverse Gerätetypen bei Bedarf auf den Memory-Pool und zusätzliches Device-Memory zugreifen können.

So können beispielsweise spezialisierte Beschleuniger wie Smart NICs ohne lokales Memory verwenden, auf das Memory der Host-CPU zugreifen. Generelle Beschleuniger (GPU, ASIC, FPGA) können so ebenfalls auf CPU-Memory zugreifen oder den Zugriff auf ihr eigenes Memory gewähren. CPUs können Memory-Erweiterungen oder Storage Class Memory nutzen.

Veränderte Architektur durch CXL

Server und Storage werden schon lange mit eigenem Arbeitsspeicher auf dem Mainboard gebaut. Aber das Hardwaremodell moderner Rechenzentren verschiebt sich nun weg von dem Paradigma, dass jeder Knoten eigene Rechenleistung und eigenes Memory braucht.

Stattdessen entwickeln sich disaggregierte Architekturen, die zum Beispiel Storage-Ressourcen an die jeweiligen Workloads anpassen. Sie werden dann für mehrere CPUs, GPUs, DPUs und auch Smart NICs verwendet, die Daten in Bewegung (Data in Motion) bearbeiten, während Computational Storage mit den in großen Massenspeichern liegenden Daten arbeitet.

Rechenzentren können zukünftig auf mehrere Dutzend Terabyte gepooltes Memory zugreifen, um ihre Aufgaben zu erledigen. Storage I/O muss nicht mehr auf externe Kapazitäten zugreifen. Manche Fachleute vergleichen diese Veränderung mit der Einführung von Fibre-Channel-SANs in den Neunzigern. Sie stellten damals erstmalig externe, gemeinsam nutzbare Storage-Kapazität für Server bereit. 

Erfahren Sie mehr über Storage Management