Getty Images/iStockphoto
Künstliche Intelligenz: Paradigmenwechsel im Storage-Umfeld
Künstliche Intelligenz ist auf dem Vormarsch und kann auch im Storage-Umfeld viele Vorteile bringen, wie Latenzoptimierung, einfache Policy-Anpassungen und Performance-Erhöhung.
Bänder, Wechselplatten, Festplatten und SSDs – seit den Anfängen der Datenspeicherung hat sich auf dem Storage-Markt viel getan. Und er wird immer vielfältiger. Der Fortschritt künstlicher Intelligenz verspricht auch, dass die Art und Weise, wie wir Daten speichern, intelligenter wird – und für die Unternehmen damit effizienter, flexibler und kostengünstiger. Unternehmen, die ihren immer höheren Datenbestand (im zunehmenden Petabyte-Bereich) verlässlich speichern möchten, haben mittlerweile eine große – und teilweise unübersichtliche – Auswahl. Wie lässt sich also die beste Lösung finden?
Prinzipiell wünschen sich IT-Verantwortliche die Ablage der Daten auf möglichst schnellen Datenträgern, um einen stets raschen Zugriff auf die Informationen zu gewährleisten. Doch wie sinnvoll ist es, sämtliche Daten ständig auf den leistungsfähigsten Datenträgern vorzuhalten? Sicher ist Fast Flash deutlich schneller als Near-Line-SAS-Laufwerke. Jedoch sind ist Flash auch wesentlich teurer.
Seinen kompletten Datenbestand auf Flash abzulegen, ergibt ohnehin wenig Sinn, da die meisten Daten nicht oft verwendet werden. Vieles muss zudem aufgrund von Compliance-Regeln über eine lange Zeit aufbewahrt werden und manches wird beispielsweise gelegentlich bei der Anfertigung von Langzeit-Analysen benötigt. Auch Backup-Bestände müssen nicht auf Flash hinterlegt werden – sie kommen nur bei der Wiederinstandsetzung eines Datenbestands zum Zuge. Daher müssen IT-Verantwortliche die ihre Datenstrategie ständig im Blick behalten, um die optimalen Speichermedien für jeden Anwendungsfall zu bestimmen.
Mühsam von Hand
Bislang dienen vordefinierte Policys dazu, genau festzulegen, welche Daten wo aufbewahrt werden. Die Definition der Policys erfolgt bereits anfangs, wenn die entsprechenden Strukturen gebildet werden. Dann bleiben sie im Großen und Ganzen gleich, wenn auch kleinere Modifikationen bei Bedarf auch im laufenden Betrieb stattfinden. Doch die Menge und vor allem die Beschaffenheit der Daten ändert sich rapide. Waren Daten früher – infolge der limitierten Kapazitäten und Fähigkeiten der damaligen IT-Systeme – größtenteils normiert, sieht es in den heutigen Zeiten anders aus. Die ständige manuelle Anpassung der Policies wird immer aufwändiger und bindet zunehmend Personal, das dafür andere, wichtige Aufgaben nicht mehr im vollen Umfang wahrnehmen kann. Dabei ist mit komplexeren Datenstrukturen sogar eine regelmäßigere Anpassung nötig, denn die falsche Wahl des Aufbewahrungsorts kann entweder das Budget dadurch belasten, dass zu viel kostspieliger Speicher für nicht relevante Daten verwendet oder dass durch einen langsameren Zugriff auf relevante Daten der Betriebsablauf gestört wird.
Ausweg durch künstliche Intelligenz
Doch wie kann man dieses Dilemma lösen? Einen Ausweg bietet hier die Nutzung der künstlichen Intelligenz (KI). Mit einer automatisierten Methode können Anpassungen sekündlich vorgenommen werden, ohne dass ein manueller Eingriff notwendig ist, so dass Unternehmen kostengünstigere Speicherlösungen nutzen können. Mittels Machine Learning kann eine KI-Engine das Nutzerverhalten und die Beschaffenheit der Zugriffe auf Daten auswerten und den Aufbewahrungsort dementsprechend zuweisen. Außerdem kann sie die Muster, nach denen die Zugriffe erfolgen, auf das zukünftige Nutzungsverhalten projizieren. Damit können auch Prognosen des benötigten Speichers sowie der zukünftig benötigten Leistung erstellt werden, die sich auch in der Infrastruktur- und Budgetplanung niederschlagen können. Wichtiges Ziel dabei ist es, die Inanspruchnahme nicht benötigter Ressourcen zu verhindern.
Intelligente Entscheidungen über den Neural Cache
Der Einsatz von künstlicher Intelligenz kann beispielsweise über einen Neural Cache erfolgen. Dieser durchforstet mittels Algorithmen für maschinelles Lernen den Datenbestand und analysiert die Muster bei den Datenzugriffen, um so versteckte Korrelationen aufzufinden. Als Ergebnis entscheidet er, welche Daten relevant für den sofortigen Zugriff durch Anwendungen oder den Nutzer direkt sind. Dabei werden häufig verwendete Daten automatisch im RAM (das um Größenordnungen schneller ist als Flash), die „warmen“ Daten im Flash und die weniger häufig verwendeten Daten auf Near-Line SAS-Laufwerken gespeichert, die wesentlich kostengünstiger sind.
Geringere Latenzzeiten und beschleunigte Abläufe
In einem Storage-Array, das DRAM, Flash-Medien (SSD) und Near-Line-SAS-Laufwerke kombiniert, führt der Neural Cache zu einer Verringerung der Latenzen und beschleunigt die Schreib/Lese-Zugriffe. Die meisten Anwendungen sind transaktionsorientiert und benötigen mindestens zwei getrennte I/O-Vorgänge. Ein Vorgang dient immer dazu, die Transaktion selbst in die Protokolle zu integrieren, der andere für den eigentlichen Schreibvorgang der Daten. Dies führt dazu, dass sich Latenzen in exorbitanter Weise auf die Performance auswirken können. Reaktionszeiten der Metadatenschicht wirken sich so auf die maximale Leistung der Anwendung aus. So werden sowohl Lese- als auch Schreiboperationen, also die Einfügungen, Änderungen und Löschungen aus der Metadatenstruktur, mit derselben Latenzzeit abgearbeitet.
Der Fortschritt künstlicher Intelligenz verspricht auch, dass die Art und Weise, wie wir Daten speichern, intelligenter wird – und für die Unternehmen damit effizienter, flexibler und kostengünstiger.
Eran Brown, Infinidat
Diese Vorgänge erfolgen ohne Vorverarbeitung wie etwa Pattern-Entfernung, Kompression oder Verschlüsselung direkt im DRAM des Storage-Servers. Währenddessen wird eine zweite Kopie des Schreibvorgangs im DRAM eines weiteren Storage-Knotens mit RDMA (Remote Direct Memory Access) niedriger Latenz erstellt und erst dann eine Bestätigung an den Host gesendet. Durch den Schreibvorgang direkt an dem an der CPU des Servers angeschlossenen DRAM wird gegenüber dem direkten Zugriff auf ein externes Flash-Device eine geringere Gesamt-Latenz erreicht.
Außerdem stellt die Verwendung eines einzigen großen Speicherpools für die Annahme von Schreibzugriffen – anders als bei herkömmlichen Architekturen, wo der Schreibcache in kleinere Sektionen unterteilt ist – sicher, dass größere Schreib-Bursts aufrechterhalten werden können. Daten, die sich häufig ändern, können so mit der Latenz des DRAM überschrieben werden, so dass der Neural Cache intelligent entscheiden kann, welche Datenblöcke auf welchen Medien abgelegt werden können. Der längere Verbleib der Daten im Schreib-Cache führt dazu, dass CPU und Backends entlastet werden. Ebenfalls kann der Neural Cache auch Leseoperationen beschleunigen, indem er die aktivsten Daten im DRAM vorhält.
Die KI baut ihre Erfahrung aus der Analyse großer Datenmengen und der Identifizierung von Mustern beziehungsweise Merkmalen auf. Damit hilft sie IT-Managern, ihre Ausgaben für Storage zu reduzieren – die in ihren Budgets bereits an erster Stelle stehen – und gibt zusätzliches Budget für Investitionen in Innovation und Transformation frei.
Über den Autor:
Eran Brown ist CTO EMEA bei Infinidat.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!