nikkytok - stock.adobe.com
Neupositionierung von Festplatten bestimmt ihre Marktrelevanz
Mit langlebigeren und höherkapazitiven Technologien sowie fallenden Preisen verdrängt Flash-Speicher die Festplatte in einigen Bereichen. Eine Neuausrichtung ist dringend notwendig.
Der vermehrte Einsatz von Flash-Speicher für transaktionsintensive Anwendungen nimmt in den Rechenzentren zu. Das liegt unter anderem daran, dass Flash nicht nur bessere Performance bietet, sondern mittlerweile auch im Kapazitätsbereich den herkömmlichen Festplatten Konkurrenz macht.
Vor allem die QLC-Technologie bringt frischen Wind in das Flash-Segment, mit PLC sollen weitere Kapazitätsgrenzen überwunden werden. Darüber hinaus sind SSDs robuster und langlebiger geworden, dank Technologien wie ECC, Wear Leveling oder S.M.A.R.T.
Da zudem die Preise für Flash-Medien stark gefallen sind und ein besseres Kosten-Leistungs-Verhältnis als noch vor einigen Jahren, werden sie in einigen Speicherbereichen zum Medium der ersten Wahl. Das wiederum drängt die Festplatte beziehungsweise die Festplattenhersteller zu einer Neupositionierung der rotierenden Medien und auch zu der Erkenntnis, dass einige Modelle vom Markt verschwinden werden.
Einige Festplattenmodelle werden verschwinden
Unternehmensfestplatten wurden je nach ihrer Umdrehungszahl den Anwendungen oder eben entsprechenden Systemen zugeordnet. HDDs mit 15k (15.000) Umdrehungen in der Minute (rpm) kamen für transaktionsreiche Workloads zum Einsatz, Medien mit 10k rpm eher für kleinere und mittelgroße Anwendungsfälle in Frage und Festplatten mit 7.2k rpm für Nearline-Zwecke.
Diese Hierarchie ist durch den flächendeckenden Einsatz von Flash-Speicher aufgebrochen wurde, was auch im Gespräch mit Rainer Kaese, Senior Manager Business Development Storage Products bei Toshiba Electronics Europe, deutlich wurde.
„Wir sehen, dass immer mehr 10k- und 15k-Festplatten von Flash-Medien abgelöst werden“, bestätigt Kaese. „Das 15k-Modell ist dabei ganz klar ein Auslaufmodell und wird irgendwann aus den Storage-Systemen verschwunden sein. Generell kann man sagen, dass Festplatten auf Dauer im Highend-Bereich, also dort wo enorm hohe IOPS-Anforderungen gefragt sind, nicht überleben werden.“
Eine Verschiebung sei eindeutig zu erkennen, so Kaese. Festplatten mit 10k und 15k Umdrehungen pro Minute werden von Flash abgelöst, wobei die Medien mit 10k rpm im Bereich für kleinere und mittlere Serverumgebungen stark nachgefragt werden. Außenstellenbüros, Filialen oder andere externe Standorte setzen beispielsweise auf diese Art der Speicher- und Serverumgebung.
Diese Entwicklungen verschiebt die HDDs mit 7.2k Umdrehungen in der Minute in den Bereich des aktiven Online-Storage oder aktiven Archivs, wo eine Umgebung mit vielen Spindeln nicht nur große Speicherkapazität, sondern auch eine noch recht nützliche IOPS-Leistung bieten kann.
Warum die Festplatte nicht obsolet ist
Bei allen Vorteilen des Flash-Speichers wird die Festplatte trotzdem weiterhin fester Bestandteil in Rechenzentren beziehungsweise IT-Infrastrukturen sein. Das hat mehrere Gründe. „Flash Storage mag noch so schnell sein, es ist aber immer noch weitaus teurer als klassischer Festplattenspeicher, trotz fallender Flash-Preise“, sagt Rainer Kaese. „Die Kosten für Flash-Speicher können zwei-, drei- oder gar fünfmal so hoch ausfallen wie für HDDs. Ein Terabyte herkömmlichen, rotierenden Speichers kann ein Anwender bereits für 25 US-Dollar erwerben, für Flash fallen da schnell 200 US-Dollar pro Terabyte an.“
Darüber hinaus sprechen die Lebensdauer und die hohen Speicherdichten immer noch für die Festplatte in vielen Anwendungsszenarien. Mittlerweile sind Kapazitäten von acht, zehn, 14 und 16 Terabyte im herkömmlichen 3,5-Zoll Festplattenformat erhältlich.
Die Mean Time Between Failure (MTBF) ist bei SSDs geringer und der Abnutzungsverschleiß reduziert die Lebensdauer und Robustheit von Flash-Medien. Eine SLC-SSD erlaubt in der Regel bis zu 100.000 Schreib-/Löschzyklen, eine TLC-SSD nur noch 3.000 und QLC-Medien kommen auf 1.000.
Zwar geben SSD-Anbieter auch MTBF-Werte für ihre Laufwerke an, allerdings sind diese nicht so entscheidend für die Langlebigkeit des Mediums. Eine SSD mit einer MTBF von 1,5 Millionen Stunden kann trotzdem nur eine gewisse Anzahl an Schreib-/Löschzyklen abarbeiten. Setzt der Verschleiß Transaktionen die SSD außer Betrieb, kann dies weitaus vor der angegebenen MTBF liegen.
Festplatten, die bis zu 2,5 Millionen Stunden MTBF aufweisen, können diese eher vollständig realisieren, da sie keine Zugriffslimitierung aufgrund ihrer Architektur haben. Auch verschleißen HDDs im Regelfall nicht so schnell, trotz beweglicher Komponenten wie Platten und Leseköpfe.
Darüber hinaus läuft die Festplatte im Archivbereich den Bandlösungen ein wenig den Rang ab. Das gilt vor allem für Online-Archive für Hyperscaler oder Unternehmen mit großen Datenbeständen, die online verfügbar sein müssen, beispielsweise Bibliotheken oder digitale Archive von Museen. Hier punktet die Festplatte durch ihre Agilität beim Lesezugriff, den eine Bandbibliothek nicht leisten kann.
Toshiba-Manager Kaese sieht noch ein weiteres Segment, aus dem Festplatten nicht wegzudenken sind: „Festplatten sind immer noch die erste Wahl für Backups, da sie mehrere Streams und ein gutes Preis-Leistungsverhältnis offerieren. Zudem ist ein schnellerer Restore möglich. Wir sehen zwar durchaus eine Neupositionierung des Mediums in einem engeren Bereich, aber für viele Anwendungsfälle sind Festplatten nach wie vor die beste Speicheroption.“
Es gibt einen weiteren Grund für die Relevanz der Festplattentechnologie und die liegt im ökonomischen Bereich. „In 2019 wurden etwa 1.000 Exabyte in SSDs und HDDs erzeugt, verkauft und eingesetzt“, erklärt Rainer Kaese. „Davon entfielen 20 Prozent auf SSDs. Selbst wenn die Nachfrage auf 50 Prozent stiege, ließe sich das produktionstechnisch gar nicht umsetzen, da nicht genügend Produktionsstätten existieren.“
Neue Technologien bringen Markterneuerung
Festplatten bleiben also weiterhin ein fester Bestandteil der IT-Welt und werden auch weiterentwickelt, um höhere Kapazitäten und längere Lebensdauer zu bieten. Zu den existierenden Neuentwicklungen gehören die Helium-gefüllte Festplatte, die durch das Gas weniger Reibung erfährt und somit weniger abnutzt, sowie das SMR-Verfahren (Shingled Magnetic Recording), das die Spuren besser ausnutzt und so auf höhere Kapazitäten kommt.
Darüber hinaus stehen zwei weitere Technologien in den Startlöchern: Heat-Assisted Magnetic Recording (HAMR) und Microwave-Assisted Magnetic Recording. Diese nutzen spezielle energiegestützte Aufzeichnungsmethoden, um große Datenbestände sichern zu können. Beide Medientypen sollen in Zukunft 30 und mehr Terabyte auf einem Datenträger vorhalten. Welches Verfahren sich wirklich am Markt durchsetzen wird, ist noch unklar.
„Entwicklungs- und Produktionskosten müssen im Einklang mit dem anvisierten Verkaufspreis und der Produktzahl stehen“, betont Kaese. „Darüber hinaus muss der Markt für das Produkt da sein. Fast alle Anwender erwarten stets verfügbaren, zuverlässigen Speicher, der einfach skaliert und eben lieferbar ist. Wir sehen beispielsweise die HAMR-Technologie als zu risikoreich in der Zuverlässigkeit an und investieren in das MAMR-Verfahren. Letztlich entscheidet aber der Markt, respektive der Kunde.“
Einen Kampf ums Rechenzentrum wird es also zwischen Festplatte und SSD nicht wirklich geben. Dafür sorgt nicht allein das ständige exponentielle Datenwachstum. Unternehmen, die auf reine Flash/SSD-Lösungen umsteigen, werden wohl eher die Ausnahme sein.
Selbst große Forschungsunternehmen wie CERN speichern den Großteil der maschinengenerierten Daten auf Festplatten (mehr zum Festplatteneinsatz im CERN in diesem Beitrag). Jede Partikelkollision erzeugt rund ein Petabyte an Daten. Das gibt einen Eindruck, was für eine enorme Datenwelle das Internet der Dinge, Sensoranalysen und Edge Computing erzeugen werden. Daten, die weiterhin auf Festplatten gesichert werden.