zentilia - Fotolia
Die Entwicklung softwaredefinierter Speicher
Softwaredefinierter Speicher (SDS) hat sich im Lauf der Zeit weiterentwickelt bis hin zu Produkten mit Scale-Out-, hyperkonvergenter, NVMe-, Public Cloud- und Container-Funktionalität.
Der Begriff „softwaredefiniert“ wurde im Laufe der Jahre etwas verfälscht, sollte aber ursprünglich Speichersysteme beschreiben, die keine enge Verbindung zwischen Hard- und Software aufwiesen.
In der Tat konnte der Kunde Hardware kaufen und darauf die Software aufspielen, die er ausführen wollte.
In den vergangenen zehn Jahren des softwaredefinierten Storage (SDS) haben wir eine erhebliche Entwicklung der Technologie beobachtet, die sich von der vereinfachten Definition der Trennung von Hard- und Software weiterentwickelte.
Die heutigen Systeme sind stärker auf eine engere Integration mit der Anwendung, Automatisierung und die Verwendung der neuesten, schnellen Hardware ausgerichtet.
SDS Grundlagen
Zunächst wurde softwaredefinierter Speicher durch eine Reihe von Merkmalen charakterisiert:
- Hardware abstrahiert: Das bedeutet eine deutliche Entkopplung der Beziehung zwischen Software und Hardware. Diese Abstraktion ermöglicht effektiv die Verwendung von Standard-Komponenten. Hardwareabhängigkeit aufzulösen, bedeutet auch Bestandteile zu abstrahieren, die zum Speichern von Daten verwendet werden, zum Beispiel LUNs (Logical Unit Numbers), Dateifreigaben und Repositories.
- Automatisiert: Die Fähigkeit, Speicherfunktionen (beispielsweise Provisionierung oder Data Protection) über Code zu steuern, entweder als Teil einer CLI (Commando Line Interface) oder API (Aplication Programming Interface). Speicher nutzt traditionell graphische Benutzeroberflächen (GUI, Graphical User Interface), während eine Anwendungsprogrammierschnittstelle (API) die Automatisierung von Softwarefunktionen ermöglicht.
- Richtliniengesteuert: Implementierung von servicebasierten Speichermesszahlen, wie zum Beispiel Servicequalität und Datenplatzierung. Dies bestimmt den Durchsatz sowie Funktionen wie Verfügbarkeit und Ausfallsicherheit.
- Skalierbarkeit: Dies sollte die Möglichkeit bieten, die Leistung und Kapazität zu erhöhen oder zu verringern.
Wahrscheinlich hat der Schritt in Richtung private und öffentliche Cloud die drei letztgenannten Eigenschaften wichtiger gemacht. Das Cloud-Modell konzentriert sich mehr auf die servicebasierte Bereitstellung von Speicherressourcen für Anwendungen, obwohl die Möglichkeit, Standardhardware zu verwenden, immer noch ein wichtiger Faktor ist.
Softwaredefinierte Speicherentwicklung
Einige Entwicklungen im Bereich softwaredefinierter Speicher haben wir bereits in den vergangenen zehn Jahren gesehen. Sie lassen sich über eine Reihe von Generationsänderungen kategorisieren.
Obwohl es keine offizielle Definition gibt, können wir anhand dieser Schritte verstehen, wie sich SDS verändert hat, um den Marktanforderungen zu entsprechen.
SDS 1.0 - Software-Appliances
Die erste SDS-Phase bestand darin, die bereits in einer Appliance verwendete Software getrennt von der Hardware zu verkaufen.
Die meisten dieser Angebote existieren als Dual-Controller- und Scale-Up-Architekturen. Die Produkte der ersten Generation können normalerweise auch in einem Hypervisor als virtuelle Speicher-Appliance (VSA) installiert werden, die wie die ursprüngliche Appliance ausgeführt wird.
Der Hauptnutzen ist hier vor allem die Kosteneinsparung durch die Verwendung von Standardhardware. SDS in einer VSA (vSphere Storage Appliance) kann Speicherdienste in kleineren Zweigstellen bereitstellen. Dadurch werden dedizierte Speicherhardwaresysteme überflüssig. Hersteller wie Nexenta, Open-E und StorMagic bieten solche Lösungen.
SDS 2.0 - Spezialisierte Software
Die zweite Generation von Software-definiertem Speicher wird von Systemen verwendet, die speziell auf Softwareprodukte ausgelegt sind. Viele davon sind horizontal skalierbar, und ermöglichen es, Kapazität und Leistung zu erhöhen, indem zusätzliche Knoten zu einem Cluster von Geräten hinzugefügt werden.
Diese Produkte decken Block- und Objekt-Storage nativ ab, mit ein wenig Unterstützung für Dateiprotokolle. Für Block-Storage gibt es HPE StoreVirtual und Dell EMC ScaleIO. Auf Objekt-Storage fokussieren sich Scality, Caringo und IBM Cleversafe.
Hierzu könnten wir auch eine Unterkategorie von 2.0-Produkten definieren, die zwar softwaredefiniert sind, aber im Allgemeinen als Hardware-Appliances verkauft werden. Dies scheint der Logik des softwaredefinierten Speichers zu widersprechen, aber Produkte wie SolidFire und Nasuni bieten SDS-Funktionen, selbst wenn sie hauptsächlich als Hardwareangebot verkauft werden.
SDS 3.0 - Größere Abstraktion
In der dritten Produktgeneration sehen wir eine noch größere Trennung weg von der zugrunde liegenden Hardware. Daten werden über die verfügbaren Knoten verteilt und können die Hardware in einem Speichercluster mischen und abgleichen. Typische Beispiele für 3.0-Implementierungen sind Storpool und Primärdaten.
In der Version 3 Kategorie können wir hyperkonvergente Produkte wie VMware Virtual SAN (vSAN) und Nutanix Platform Services nennen, die Block- und Dateispeicher für VMs (Virtuell Machines) und Container bereitstellen.
Es gibt auch Anbieter, die ihre Software für hyperkonvergente Infrastruktur anpassen, wie Cisco HyperFlex (früher Springpath), Hedvig, Maxta und Hive-IO USX (früher Atlantis Computing).
Hyperkonvergenz ist zu einem großen Teil des softwaredefinierten Speichers geworden, so dass IT-Organisationen dedizierte Speicherhardware und die damit verbundene Kosten eliminieren können.
Der Einfluss von Containern
Durch die Einführung der Containertechnologie haben Startups die Möglichkeit, neue Produkte zu auf den Markt zu bringen. Wir haben Storage-Lösungen für Container auftauchen gesehen, einschließlich Storage-Varianten, die mit Containern gebaut wurden.
Ein Container sollte ursprünglich nur eine kurzfristige Anwendungslaufzeitumgebung sein. Jedoch haben wir zunehmend die Notwendigkeit erkannt, Container für längere Zeiträume ausführen zu können und ihn dauerhaft zu speichern.
Start-Ups wie Portworx und StorageOS liefern Speicher für Container in einem Container, so dass die Daten mit dem Container über mehrere physische Hosts verschoben werden können.
Technologische Innovation
Neue Technologien bieten Start-Ups die Möglichkeit, innovative softwaredefinierte Speichersysteme zu entwickeln.
Der NVMe Flash-Speicher bietet Verbindungen mit hoher Geschwindigkeit und geringer Latenz, die über Fabrics wie Fibre Channel, Infiniband und Ethernet verteilt werden können.
Excelero und E8 Storage haben dagegen blockbasierte Systeme entwickelt, die tatsächlich softwarebasiert sind. So kann die Hardware des Kunden oder das Angebot des Anbieters genutzt werden.
Beide erzeugen eine so genannte „disaggregierte“ Speicherarchitektur, indem die normalerweise in eine Appliance integrierten Dienste an jeden Client verteilt werden, der sich mit dem Speichersystem verbindet. Bei E8 handelt es sich um eine geteilte Hardware-Appliance, während Excelero auch in einem hyperkonvergenten Modell arbeiten kann.
Weka.IO, Qumulo und Elastifile verwenden Flash-Hardware, um Scale-Out-Dateisysteme zu erstellen. Alle diese Systeme können auf Standardhardware oder in Public Clouds implementiert werden.
Datrium hat ein softwaredefiniertes Speicherprodukt entwickelt, das Datenleistung und Kapazitätsanforderungen voneinander trennt. DVX von Datrium implementiert die I/O-Leistung (Input/Output) per Flash lokal auf dem Anwendungsserver und bietet gleichzeitig Kapazität und Ausfallsicherheit durch das Speichern von Daten auf einer gemeinsam genutzten Appliance.
Storage in der Public Cloud
Schließlich sollten wir beleuchten, wie sich die Public Cloud auf Storage auswirkt.
Public Cloud-Anbieter verfügen bereits über ihr Block- und Objektangebot, beispielsweise S3- und Blob-Speicher. Microsoft hat sich für eine Partnerschaft mit NetApp entschieden und implementiert Azure Enterprise NFS mithilfe der ONTAP-Technologie. Diese Lösung trennt die Implementierung vollständig vom Benutzer, während der Speicher als „erstklassiger Angehöriger“ in Azure integriert wird.
Viele Anbieter bieten inzwischen Speicherprodukte über öffentliche Cloud-Märkte an, darunter NetApp ONTAP Cloud, SoftNAS und Actifio.
Anbieter von Sekundärspeichern wie Rubrik und Cohesity halten Cloud-basierte Implementierungen ihrer Produkte bereit, und zwar sowohl als Backup-Ziel als auch zum Ausführen von sekundären Workloads in der öffentlichen Cloud. CTERA und Nasuni verwenden die öffentliche Cloud, um ein verteiltes Speicherdateisystem bereitzustellen, auf das global zugegriffen werden kann.
Die Public Cloud ändert das Konsummodell von einer Kapitalakquise hin zu einer operativen Ausgabe (Opex). Dies hat erhebliche Kosteneinsparungen für IT-Abteilungen zur Folge. Mit der Automatisierung kann Storage dynamisch in der öffentlichen Cloud erweitert werden, so dass On-Demand-Ressourcen ohne Überversorgung bereitgestellt werden.
Zusammenfassung
Die Palette der softwaredefinierten Speicherlösungen ist jetzt so breit wie tiefgehend. Wenn wir uns in eine hybride Cloud-Welt begeben, spielen softwaredefinierte Speichersysteme eine immer wichtigere Rolle. Sie erlauben, Daten innerhalb und zwischen den Clouds mit minimalen Auswirkungen verschieben zu können.
Der Begriff „softwaredefiniert“ wird zunehmend unwichtig, da Speicherplatz standardmäßig per Software geliefert wird und dedizierte Appliances eine geringere Rolle spielen.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!