jules - Fotolia
Diese fünf Mythen verfälschen das Bild von SSDs
Es gibt immer noch falsche Vorstellungen rund um Solid-State Disks (SSDs). Wir räumen mit fünf gängigen Mythen auf und zeigen den echten Mehrwert von SSDs im Rechenzentrum.
Obwohl Solid-State Disks (SSDs) mittlerweile zum Standard in Rechenzentren gehören, halten sich immer noch hartnäckige Mythen bezüglich Nutzungsdauer, Kosten und Leistung.
Administratoren ersetzen mittlerweile regelmäßig Festplatten (HDDs) durch SSDs. Sobald die Mythen über die angeblichen Probleme überwunden sind, sind Flash-Laufwerke eine Bereicherung des Storage-Managements und des Rechenzentrums. Betrachten wir diese Mythen im Einzelnen.
Mythos 1: SSDs halten nicht lange
Ein Körnchen Wahrheit steckt noch darin, dass SSDs irgendwann den Geist aufgeben. Aber die heutige Generation an SSDs ist auf eine Lebensdauer von mehreren Jahren ausgelegt. Dies wurde durch bessere Elektronik, Signalprozesse, Fehlererkennung und Fehlerkorrektur erreicht.
Zusätzlich sind SSDs heute spezifisch für leichte und schwere Schreib-Workloads pro Tag eingerichtet. Dies wird gemessen in kompletten Schreibvorgängen täglich. Laufwerke für schwere Workloads halten mehr Reservespeicherplatz vor. Das kostet allerdings mehr und verringert den verfügbaren Speicherplatz.
Auch bei Festplatten werden oft die täglichen Schreibvorgänge in die Spezifikationen geschrieben. Das bedeutet, dass auch Festplatten nicht gegen hohe Belastungen immun sind. Das Fazit lautet: SSDs sind genauso zuverlässig wie Festplatten und deutlich schneller.
Mythos 2: Das Management von SSDs ist kompliziert
Ein weiteres Problem aus der Frühzeit der SSDs war Amplifikation. Dabei geht es um das Löschen von Blöcken. Statt einfach auf freie Blöcke verwiesen zu werden, müssen Daten auf einer SSD erst in einen ungeschriebenen Status versetzt werden, um wieder beschrieben werden zu können.
Die Komplikation besteht darin, dass dazu bei Flash-basiertem Speicher das Material erhitzt werden muss, typischerweise in Mega-Blocks von 2 MB. Alle validen Daten im Mega-Block müssen an einen anderen Ort geschrieben werden.
Dies kann den Schreibvorgang erheblich verzögern, selbst wenn die Daten in einem schnellen Memory Buffer liegen. Es ist am besten, wenn der Block schon vorher mit dem TRIM-Befehl gesäubert wurde. TRIM ist im Treiber eingebaut, Sie müssen nur sicherstellen, dass es eingeschaltet ist. Dann läuft alles viel schneller.
Defragmentieren Sie die SSD nicht. Das verschwendet nur Zeit, senkt die Lebensdauer und die I/O Geschwindigkeit. Aus einem einfachen Grund: Während des Schreibprozesses werden Blöcke zufällig auf der SSD verteilt, aber im Gegensatz zu Festplatten kostet dies keine Latenz.
Andererseits kann eine Kompression der Flash-Daten auf der SSD sinnvoll sein. Dies kann Geschwindigkeit und Speicherplatz um den Faktor Fünf erhöhen.
Für einen weiteren Schub kann ein Network-Storage-System sorgen. Wenn sich die SSDs darin befinden, wird die Datenlast ebenfalls um den Faktor Fünf reduziert, wenn Kompression und Dekompression auf dem Server ausgeführt werden. Dies kann erhebliche Kosten einsparen und ist nur möglich, weil SSDs zusätzliche I/O-Zyklen haben, die die Kompression im Hintergrund ausführen können.
Mythos 3: SSDs können Festplatten in Arrays ablösen
Dieses Problem könnte Administratoren eine Menge Kopfzerbrechen bereiten, denn SSDs sind so schnell, dass die Array Controller meist nicht mithalten können. Arrays sind auf die I/O-Geschwindigkeit von Festplatten ausgerichtet. Das bedeutet einen 1000-mal langsameren I/O Random-Zugriff und 100-mal langsamere sequentielle Operationen als bei SSDs.
Array Controller wurden entworfen, um langsame Datenströme von Festplatten in einigermaßen schnelle Fibre Channel Verbindungen zu konsolidieren. Bei SSDs werden sie zu einem Flaschenhals. Nutzen Sie stattdessen für SSDs ausgelegte Storage-Appliances und denken Sie über 100 GbE-Verbindung nach.
Die Situation bei Servern ist ähnlich, weil SAS und SATA mit SSDs nicht mithalten können. Das neue NVMe-Protokoll ist viel schneller und reduziert den System Overhead, weil das Queue Management vereinfacht und die Interrupts konsolidiert werden. Mit NVMe over Ethernet können Administratoren Laufwerke über den ganzen Server-Cluster verteilen, was hyperkonvergente Systeme beschleunigt.
Mythos 4: SSDs sind teuer
Die Preise für SSDs sind in den letzten Jahren stetig gefallen, bis die Krise um die Fabrikation von 3D-NAND Chips dem Einhalt gebot. Jetzt ist dieses Hemmnis überwunden und wir können mit weiterem Preisverfall rechnen.
Dennoch gibt es noch eine Preislücke zu Festplatten. Bedenken Sie aber, dass SSDs die Server beschleunigen, so dass der Gesamtpreis niedriger ist. Mit Kompression kann der Preis pro Terabyte von SSDs günstiger sein als der von Festplatten.
Der in Branchenkreisen diskutierte Preisunterschied ist der von SATA HDDs und Enterprise-Performance SSDs. SATA SSDs kosten bereits halb so viel wie SAS Festplatten, die deswegen langsam aussterben. Natürlich kosten NVMe-SSDs im Moment noch mehr, aber die Differenz zu SATA SSDs schwindet.
Mythos 5: SSDS sind nicht groß genug
Es gibt immer noch Klagen über die mangelnde Kapazität von SSDs. Tatsächlich sind SSDs bereits an der Kapazität von Festplatten vorbeigezogen. 32 TB SSDs sind bereits verfügbar und 50 TB SSDs in Kürze zu erwarten, während Festplatten bei 16 TB festhängen. Dabei brauchen SSDs weniger Platz, weniger Strom und liefern bessere Resultate. Die Kapazität von SSDs ist im Rechenzentrum kein Problem mehr.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!