pressmaster - stock.adobe.com

Prognose: Diese Storage-Technologien sind 2020 wichtig

Flash-Speicher setzt sich dank neuer Technologien für höhere Speicherdichte, Leistung und Parallelität sowie Lösungen für nahtlose Hybrid-Cloud-Interoperabilität weiterhin durch.

In der Anfangszeit wurde Flash hauptsächlich als Speichermedium für leistungsorientierte Workloads verwendet. Sinkende Kosten haben Flash heute für viele Anwendungen attraktiv gemacht. Zu den Hauptvorteilen von Flash gehören die hervorragende Leistung und Zuverlässigkeit sowie der reduzierte Energie- und Platzbedarf im Rechenzentrum.

Mit neuen Solid-State-Technologien wie Quad-Level Cell (QLC) NAND und Storage Class Memory (SCM) sowie dem NVMe-Protokoll für hohe Parallelität ist Flash nun auch für besonders großvolumige Anwendungen bereit.

Mit der Kombination von SCM und dem Hochgeschwindigkeitsprotokoll NVMe over Fabrics (NVMe-oF) können sowohl hochleistungsfähige serverbasierte Speicherlösungen als auch Spitzenleistungen für latenzempfindliche Highend-Anwendungen bereitgestellt werden.

Für die Anwendung moderner Analyseverfahren auf große Datenmengen ist ein schnelles Medium erforderlich. Ein Bedarf besteht insbesondere im Bereich der Analytik, Stichwort Big Data, und die zunehmend notwendige schnelle Wiederherstellung immer größerer geschäftskritischer Systeme und Datenbanken.

Im Jahr 2020 dürfte Flash daher für noch mehr Workloads interessant werden, die bisher auf Festplatten- oder Hybridsystemen betrieben wurden.

Höhere Speicherdichte mit QLC

QLC wird Flash zu einer noch attraktiveren Option für Speicherebenen machen, die bislang weitgehend auf Festplatte verblieben sind. QLC verspricht niedrigere Kosten pro GByte als mit bisherigen Flash-Speicherlösungen möglich war. Die mit QLC erreichte hohe Speicherdichte erhöht die Speicherkapazität von Flash-Speicher, der gleichzeitig billiger wird.

Zukünftig wird sich QLC im Tier-2-Workload-Markt mit gleichbleibender Leistung bei enormen Speicherdichten und Preisvorteilen gegenüber Tier-1-Flash-Systemen durchsetzen. Ein QLC-Flash-Array kann für sekundäre Daten verwendet werden und somit als Alternative zu 7.200-U/min-Festplatten für Nearline-Speicher positioniert werden.

Nearline- oder Sekundär-Storage werden derzeit noch von Festplatten mit 8 bis 16 TByte dominiert, die mit 7.200 U/min rotieren. Die aktuellen TLC-Flash-SSDs (Triple-Level-Cell) sind für diese Workloads zu teuer, da sie pro TByte etwa zehnmal mehr kosten als eine Festplatte.

QLC-Flash verändert jedoch die Kostendynamik grundlegend. Mit QLC steigt die Kapazität um ein Drittel und damit sinken die Kosten pro TByte. Weitere Einsparungen können durch den Einsatz von Technologien wie Daten-Deduplizierung und Komprimierung erzielt werden.

Die Kosten für Speicher-Arrays werden mit dem Einsatz von QLC-Flash sinken, wodurch sich der allgemeine Nearline-Storage-Markt für Flash-Arrays öffnet. Im Tier-1-Bereich ist jedoch nicht zu erwarten, dass QLC NAND das heute übliche TLC NAND mit ähnlichen Leistungs- und Verfügbarkeitsanforderungen ablösen wird, da der Kostenvorteil trotz der höheren Speicherdichte nicht so deutlich zum Tragen kommt.

SCM und NVMe bringen noch mehr Leistung und Parallelität

Storage Class Memory (SCM) ist eine neue Speicherschicht zwischen DRAM (Dynamic Random Access Memory)- und NAND-Flash. SCM hebt die Leistung auf ein neues Niveau – mit DRAM-ähnlichen Latenzen. Im Vergleich zum herkömmlichen Speichertyp DRAM behält SCM die geschriebenen Daten auch dann bei, wenn die Stromversorgung unterbrochen wird.

Im Vergleich zu NAND-Flash ist SCM sowohl beim Lesen als auch beim Schreiben viel schneller, aber auch viel widerstandsfähiger gegen Überschreiben und hat im Allgemeinen eine höhere Belastbarkeit. Deshalb wird SCM bei Hochleistungs-Workloads in Speichersystemen entweder als Cache-Schicht oder sogar als persistentes Speichermedium für Hochleistungsanforderungen eingesetzt.

SCM überbrückt die Lücke zwischen DRAM und NAND in der heutigen Speicherhierarchie in Bezug auf Leistung und Zuverlässigkeit. Zu den interessantesten Workloads für SCM gehören die Online-Transaktionsverarbeitung (OLTP), die analytische Online-Verarbeitung (OLAP) und In-Memory-Datenbanken, die von der deutlich geringeren Latenz, dem zusätzlichen Durchsatz und der CPU-Belastung profitieren.

SCM kann auch zur Erhöhung der Cache-Leistung verwendet werden, um SAP HANA, Oracle, SQL Server und andere latenzempfindliche Anwendungen wie Finanzdienstleistungen und Analysen zu erhalten. Aufgrund der höheren Kosten im Vergleich zu NAND-Flash wird der Gesamtanteil von SCM am Flash-Markt jedoch vorerst stabil bleiben.

Als Protokoll für Flash-Medien wie die Adressierung von Flash-Modulen oder SSDs wird sich in den nächsten Jahren voraussichtlich NVMe (Non-Volatile Memory Express) in Speichersystemen durchsetzen. Nicht nur Highend-Speichersysteme werden NVMe verwenden, sondern auch Speichersysteme in den folgenden Klassen.

SAS und SATA werden somit als Protokolle für den Anschluss von Flash-Speichern in Speichersystemen ersetzt. So kann eine breite Zielgruppe von den Vorteilen von NVMe, d.h. hohe Parallelität, mehr Warteschlangen und damit höhere Packungsdichte und Leistung, profitieren.

Damit werden auch die Voraussetzungen für End-to-End-NVMe geschaffen, dann mit der Anbindung von Hosts über NVMe-oF. NVMe-oF ebnet den Weg für NVMe-basiertes Shared Storage.

Mit dem Einsatz von NVMe-oF kann auch das volle Potenzial von SCM in Speichersystemen genutzt werden. Neue Arten von dichten Medien, einschließlich QLC, können mit Modulen für die direkte Kommunikation zwischen dem Speicherbetriebssystem und Raw-NAND besser genutzt werden.

Auf dem Weg zur einheitlichen Hybrid-Cloud

Der inzwischen breitere Einsatz von Flash macht es notwendig, die Speicherumgebung mit der Public Cloud zu verbinden. Gefragt sind auch Automatisierungsfunktionen mit Hilfe von APIs und einer Infrastruktur, die eine Hybrid-Cloud-Umgebung unterstützen kann.

Uneingeschränkte Datenmobilität erfordert konsistente Speicherdienste, Ausfallsicherheit und APIs in der gesamten hybriden Umgebung. Der nahtlose Hybrid-Cloud-Ansatz vereinheitlicht den Zugriff auf verschiedene Clouds und bietet gemeinsam genutzte Datendienste für firmeninterne und Cloud-Anwendungen. Eine hybride Cloud-Architektur auf einfachere Weise zu verwenden, bedeutet, dass Anwendungen einmal erstellt werden und dann nahtlos auf lokalen Instanzen und in der öffentlichen Cloud ausgeführt werden können.

In der Vergangenheit hat ein Mangel an geeigneten, strategischen Integrationen zwischen lokalem Speicher und der Cloud die Anwendungsmobilität stark eingeschränkt. Zuvor waren dies zwei völlig getrennte Umgebungen aufgrund unterschiedlicher Modelle in Bezug auf Ausfallsicherheit und Datendienste sowie völlig unterschiedlicher APIs.

Neue Cloud-Datendienste aus der Speicherbranche überbrücken diese Lücke und ermöglichen eine bidirektionale Datenmigration sowie flexible Anwendungsmobilität. Cloud Block Storage, nativ in der Cloud bereitgestellt, ermöglicht es, bestehende Geschäftsanwendungen in der Cloud zu betreiben, ohne eine eigene Architektur entwickeln zu müssen.

In Zukunft wollen Unternehmen die Datenportabilität und Datensicherung für ihre gesamte Geschäftsumgebung gewährleisten, sei es vor Ort im eigenen Rechenzentrum, in der gehosteten Umgebung oder in der öffentlichen Cloud-Infrastruktur.

Moderne Anwendungsfälle sind Disaster Recovery und Backup in der Cloud. Einheitliche APIs ermöglichen für alle Anwendungsfälle eine nahtlose Anbindung an die lokale Speicherumgebung und Speicherressourcen in der Cloud.

Plug-ins für Virtualisierungssoftware wie VMWare erleichtern die Implementierung virtualisierter hybrider Cloud-Umgebungen. Full-Stack-Orchestrierung ermöglicht ein ebenso nahtloses Management und eine umfassende Überwachung, um Performance-Probleme mit virtuellen Workloads aufzuspüren und zu lösen. Zukunftsweisend ist der Einsatz von KI-basiertem Predictive Support, eine Voraussetzung für eine autonom arbeitende Speicherumgebung mit minimalem Wartungsaufwand.

Flash für flexible Backups und superschnelle Restores

Bei der Datensicherung ging es lange Zeit nur darum, Daten zu speichern und die Kosten für eine zuverlässige Kopie zu minimieren. Die typische Backup-Architektur, die von den meisten Unternehmen verwendet wurde, basierte auf Festplatten und Bandspeichern.

Heute – und noch mehr in der Zukunft – sind flexible Backups und schnelle Wiederherstellungen erforderlich. Flash-to-Flash-to-Cloud (F2F2C) als neues Backup-Modell bedeutet, dass Festplatten und Band durch kostengünstige Cloud-Objektspeicher ersetzt werden.

Flash wird zunehmend zu einem attraktiven Sicherungsmedium, insbesondere durch die Möglichkeit sehr schneller Restores. Beim Wiederherstellungsprozess werden Daten aus entsprechenden Sicherungsdateien an einen bestimmten Ort kopiert, zum Beispiel für Disaster Recovery.

Eine Scale-Out-Datei- und Objektspeicherlösung wie FlashBlade mit einer Datenwiederherstellungsleistung von bis zu 270 TB/h kann diesen Prozess beschleunigen. Eine Rapid-Restore-Funktion erhöht hier die Geschwindigkeit der Datenwiederherstellung, ohne dass die Backup-Software ersetzt werden muss.

Markus Grau, Pure Storage

„Flash wird zunehmend zu einem attraktiven Sicherungsmedium, insbesondere durch die Möglichkeit sehr schneller Restores.“

Markus Grau, Pure Storage

---

All-Flash als Backup-Ziel bedeutet lineare Skalierung mit hoher Leistung und unterbrechungsfreie Upgrades. Die Wiederverwendung von Daten ist in großem Maßstab möglich, um Dev-Tests, schnellere Analysen und IT-Sandboxing zu beschleunigen. Schnellere Datenbank-Backups von Oracle/RMAN, Microsoft SQL Server und MySQL sind ebenfalls möglich.

Backup-Daten werden zunehmend für Analysen verwendet und sind daher auf ein leistungsfähigeres Medium als Bandspeicher oder HDD angewiesen, wie zum Beispiel die Public Cloud oder On-Premises-Flash. Netzwerkspeicher und insbesondere Objektspeicher werden im Jahr 2020 stark wachsen, da es in der vernetzten Welt von Edge, Core und Cloud immer mehr unstrukturierte Daten aus IoT-Anwendungen, 4K-Videos etc. geben wird, so der Ausblick auf die neue Storage-Welt.

Über den Autor:
Bevor Markus Grau vor 6 Jahren seine Karriere bei Pure Storage als Systems Engineer startete, war er bei NetApp 8 Jahre als Solutions Architect sehr erfolgreich. Seit Anfang 2019 ist er nun Principal Systems Engineer EMEA CTO Office bei Pure Storage und davor war er Principal Systems Engineer EMEA-Central Region.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Nächste Schritte

So unterscheiden sich Memory und RAM

Vorteile von NVMe hängen von der Flash-Systemarchitektur ab

Große Flash-Archive haben Einfluss auf die Unternehmenseffizienz

Erfahren Sie mehr über Flash Storage und SSD