microworks - Fotolia
AFA-Storage bewältigt die Probleme von Big Data Analytics
All-Flash Arrays (AFA) sind technisch besonders für Big Data und Analytics geeignet, vor allem wegen ihrer hohen Performance.
Big Data Analytics erfordert mächtige, sehr schnelle Computersysteme, die hohen Durchsatz bei niedrigen Latenzen liefern, während sie riesige Datenmengen verarbeiten. Um diesen Anforderungen gerecht zu werden, wenden sich Data Scientists zunehmend All-Flash Arrays (AFA) zu, die speziell für Analytics-Aufgaben entwickelt wurden.
AFAs sind eine logische Wahl für Anwendungen, die hohe Performance erfordern. AFA-Speicher übertrifft traditionelle Festplatten, da man mehr Zuverlässigkeit und Effizienz geboten bekommt. Und in dem Maße, wie die Kosten der Flash-Technologie weiter fallen, wird der Wechsel zu All-Flash für analytische Auswertungen unvermeidlich.
Die Herausforderungen von Big Data Analytics
Die Datenmengen wachsen in einem alarmierenden Ausmaß, und die Unternehmen tun sich nicht leicht damit, mit diesem Tempo Schritt zu halten. Je mehr Daten erzeugt werden, desto größer ist der Druck, die Informationen zu durchforsten, Forecasts zu erstellen, Modelle für Voraussagen zu bauen, Machine Learning und künstliche Intelligenz zu integrieren oder verwandte Analyseprozesse anzuwenden.
Um all dies zu bewältigen, benötigen Data Scientists schnellen Zugang zu Datensets im Umfang von Petabytes – und das in einer umfassenden und vorhersehbaren Art und Weise. Oft geht es dabei um Analytics und Entscheidungsfindung in Echtzeit. Diese sehr großen Workloads bestehen aus lese-intensiven Arbeitsschritten, die hohe IOPS-Raten und extrem niedrige Latenzen erfordern.
Weil sie lese-intensiv sind, nehmen diese Workloads die Systeme weniger in Anspruch als traditionelle Rechenoperationen. Read-Operationen führen zu geringerer Belastung der Arrays.
Diese Workloads erfordern jedoch eine Skalierbarkeit im Petabyte-Bereich, ohne dass die Performance darunter leidet. Die zugrundeliegende Plattform muss also parallele I/O-Operationen unterstützen und kontinuierliche Antworten zu den Anfragen der Analyseprogramme liefern.
Die Vorteile von AFA-Storage
Um ihre Workload-Anforderungen erfüllen zu können, pflegten Data Scientists mehr RAM zu den Servern hinzuzufügen. Aber die meisten Server begrenzen die Menge an Arbeitsspeicher, die installiert werden kann, was zum Einsatz weiterer Systeme führte – oft ein umständlicher und kostspieliger Prozess.
Ein verstärktes Caching ist eine andere Methode, um Performance-Probleme anzugehen. Das hilft aber in der Regel nicht bei Analytics-Aufgaben, da das ganze Data Set zur Bearbeitung herangezogen wird und sich nicht in einzelne Teile aufsplitten lässt.
All-Flash Arrays empfehlen sich deshalb wegen der genannten Schwierigkeiten als Alternative, um besser mit den Herausforderungen der Analytics-Prozesse zurechtzukommen. Sie sind bis zu zehnmal schneller als Festplattensysteme, während sich ihre Latenzrate im Bereich von weniger als eine Millisekunde bewegt. Da AFA-Storage keine sich bewegenden Teile besitzt, sind diese Systeme auch effizienter und zuverlässiger als Festplatten.
Da All-Flash Arrays höhere Kapazitäten unterstützen, brauchen Analytics-Prozesse auch weniger Server. AFAs sind überdies schneller und weisen geringere Latenzen auf, weshalb sie gut geeignet sind für datenintensive Prozesse von Analytics-Programmen.
Sinkende Preise haben zudem die Hinwendung zu All-Flash für Analytics begünstigt. Nicht nur die Kosten pro Gigabyte sind in den letzten paar Jahren gesunken, sondern sämtliche All-Flash Arrays erfordern weniger Platz und Energie in den Rechenzentren, was zu weiteren Kosteneinsparungen führt.
Neue Flash-Technologien
Die Vorteile, die alle All-Flash-Speicher Analytics-Anwendungen bieten, verdanken sie in erster Linie den jüngsten Fortschritten der Flash-Technologien.
Die Entwicklung von TLC-Storage (Triple-Level-Cell) hat die Flash-Fähigkeiten deutlich verbessert. Dieses Solid-State-NAND-Flash-Storage speichert drei Daten-Bits pro Zelle und ist damit weniger teuer als Cell Flash mit Single-Level oder Multi-Level. Und die Technologie von 3D-NAND-Flash, die Memory-Cell-Layer übereinander stapelt und mit TLC-Technologien verbindet, um eine höhere Dichte zu erreichen, hat zu einer großen Zunahme bei Kapazität und Performance von Storage geführt. TLC und 3D-NAND haben den Fokus verändert: weg von Haltbarkeit und hin zu Kapazität und Performance. Was einem wahren Segen für Analytics gleichkommt.
AFA-Storage profitiert auch von der Einführung von NVMe (Non-Volatile Memory Express), einem Protokoll für Host Controller und Storage, das die Datenübermittlung zwischen Servern und SSDs beschleunigt.
Mit den genannten Technologien sind AFAs auf bisher nicht mögliche Art in der Lage, ausgefeilte Analytics-Untersuchungen durchzuführen. Die Storage-Plattform muss jedoch genau auf solche Anforderungen abgestimmt sein. Zum Beispiel muss das Storage-System direkt mit dem Server verbunden sein und dabei NVMe oder ähnliche Technologien benutzen.
Der Markt für AFA-Storage
AFA-Pionier Pure Storage gehört zu den Herstellern, die Analytics-Workloads unterstützen. Die FlashBlade-Systeme von Pure sind speziell für Anwendungen von Analytics für wissenschaftliche Forschungen bis zu künstlicher Intelligenz (KI) geeignet. FlashBlade-Systeme können bis zu 1,6 Petabyte an nutzbarem Storage skalieren, wobei sie mehrere Blades mit 52 Terabyte einsetzen, die eine umfassende parallele Architektur mit hoher Performance und konstanten I/O-Prozessen unterstützen.
Zu diesem wachsenden Marktsegment gehören auch Hersteller wie IBM, Kaminario, Micron und SanDisk.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!