Zwei wichtige Anwendungsfälle für Storage Class Memory
Wird persistenter Speicher zu einem wichtigen Speichermedium im Rechenzentrum? Hier sind zwei Anwendungsfälle für SCM, die veranschaulichen, warum dies höchstwahrscheinlich ist.
Storage Class Memory (SCM), auch bekannt als persistenter Speicher, ist eine der interessantesten Speichertechnologien der letzten Jahre. SCM ist etwas langsamer als herkömmliches dynamisches RAM, aber es ist persistent. Dies bedeutet, dass in SCM gespeicherte Inhalte während eines Stromausfalls erhalten bleiben, was sie zu einer potenziell bahnbrechenden Technologie für eine Vielzahl anspruchsvoller Speicheranwendungen macht.
„Die Vorteile des SCM sind höhere Dichte, geringerer Stromverbrauch und wirtschaftliche Erschwinglichkeit im Vergleich zu DRAMs“, erklärt Sylvain Dubois, Vice President of Business Development and Marketing beim Halbleiterspeicher-Technologieanbieter Crossbar. „Heute werden die meisten kritischen Daten gespeichert und über DRAM abgerufen, da es die einzige praktikable Lösung ist, um die Compute-Ressourcen für die Datenverarbeitung, Analyse und künstliche Intelligenz in Rechenzentren zu versorgen“, stellt er fest.
DRAM ist jedoch stromfressend und teuer im Vergleich zur sehr dichten und preiswerten NAND-Technologie. „Deshalb muss ein großer Teil der Daten in Rechenzentren auf NAND-basierten SSDs oder sogar billigeren Festplatten gespeichert werden“, sagt Dubois. SCM-Produkte können NAND als Backup-Speicher und DRAM als Cache für aktive Daten verwenden.
Vorteile von SCM-Anwendungsszenarien
Die SCM-Einsatzmöglichkeiten haben viel versprechende Aussichten in Bezug auf die Reduzierung der Latenzzeiten von Speicher-Arrays auf Systemebene und der Anzahl der in Rechenzentren verwendeten Server, meint Rajesh Vijayaraghavan, Direktor für Produktmanagement beim Speicheranbieter Hitachi Vantara.
Rajesh VijayaraghavanHitachi Vantara
Es gibt mindestens zwei wichtige Implementierungen, die versprechen, das Potenzial von SCM zu erschließen. SCM kann im Backend des Storage-Arrays verwendet werden, wo es als Caching-Tier für heiße Daten mit extrem niedrigen Latenzen dienen könnte, so Vijayaraghavan. Oder es kann auf der Server-Controller-Seite eingesetzt werden, um einen Lockstep durchzuführen; und zwar mit den Intel-CPUs, die SCMs unterstützen und somit DRAM ablösen können.
Vielleicht ist der vielversprechendere dieser beiden SCM-Anwendungsoptionen der des DRAM-Ersatzes bei leseintensive Anwendungen wie KI und Deep Data Analytics. „Im Jahr 2018 war SCM noch ein Nischenprodukt, das nicht viele Hersteller anboten. Wir sehen, dass sie Akzeptanz größer wird und in den nächsten Jahren die Produktauswahl und die Leistungsmerkmale vergrößern werden“, so Dubios. Normungsgremien arbeiten bereits daran, die verschiedenen Varianten von SCM und anderen neuen Speichertechnologien auf NVDIMM-P, GenZ, Cache Coherent Interconnect for Accelerators und Open Coherent Accelerator Processor Interface auszurichten und zu vereinheitlichen.
Größe und Einsparungen
SCM bringt die Kapazität und Wirtschaftlichkeit von Speicher in Memory, sagt Kais Belgaied, CTO von Viking Enterprise Solutions, einem Anbieter von Server- und Speichersystemen. Einer der Hauptvorteile des Rechenzentrums ist die Serverkonsolidierung. „Es sind weniger Knoten erforderlich, um eine Memory-basierte, verteilte In-Memory-Datenbank oder eine In-Memory-Compute-Engine wie Apache Spark auszuführen, was wiederum die Kosten reduziert“, erläutert er.
Als DRAM-Ersatz kann SCM einen niedrigeren Preis pro GByte als herkömmliches DRAM anbieten, aber nur auf Kosten potenziell reduzierter Leistung und nicht-deterministischen Verhaltens, sagt Robert Hormuth, Vice President und CTO von Dell EMC Server- und Infrastruktursysteme. „Der spannendste Anwendungsfall ist der persistente DRAM, bei dem sich die Inhalte wie ein Speicher verhalten, da er persistent ist, aber auf einem Leistungsniveau, das näher am DRAM liegt“, bemerkt er. „In diesem Anwendungsfall müssen Anwendungen optimiert werden, um die Charakteristiken persistenten Storage zu verstehen und damit zu operieren.“
Bis 2020 dürfte SCM als Backend-Medium in fast allen wichtigen Speicher-Arrays eingesetzt werden, da die Implementierung viel einfacher ist als die Verwendung von SCM als DRAM-Ersatz auf der Serverseite, prognostiziert Vijayaraghavan. „Die Einführung von SCM auf der Serverseite kann bis 2021 dauern, bis sie ausgereift ist und bei allen OEMs von Server-Storage übernommen wird.“
Die Vorteile der Verwendung von SCM für die Serverkonsolidierung werden immer offensichtlicher, um sie nicht zu verpassen, so dass SCM wahrscheinlich auf vielen kommenden Server-Aktualisierungslisten zu finden sein wird, sagt Belgaied. Auf der Softwareseite werden sich mehrere Trends abzeichnen, darunter mehr speicherintensive Anwendungen, die SCMs als Alternative zur horizontalen Skalierung verwenden. Hypervisor, wie VMware ESXi, werden sich weiterentwickeln, um SCM für virtuelle Maschinen verfügbar zu machen, was zu einem Anstieg der Workload-Dichte für nur wenige zusätzliche Latenzkosten führen wird, meint Belgaied. „Orchestrierungs-Tools für Cloud-basierte Anwendungen, wie Mesos oder Kubernetes, werden sich ebenfalls weiterentwickeln, um diese andere Art von billigem und tiefem Speicher zu erkennen und zu nutzen.“
Der Weg zur Adoption
Der Schlüssel zur groß angelegten Einführung jeder Technologie liegt in der Verfügbarkeit von mehreren Anbietern und der Wirtschaftlichkeit erhöhter Nachfragen, sagt Vijayaraghavan. „Hyperscale Cloud-Anbieter könnten die ersten sein, die SCMs einsetzen, sowohl als Medien- als auch als DRAM-Ersatz, da sie eine engere Kontrolle über ihre Systemarchitekturen und Lieferkettenstrategien haben.“