Petrovich12 - Fotolia
Hyperkonvergenz und Backup ermöglichen Scale-Out
Hyperkonvergente Infrastruktur mit integrierter Backup-Software bietet Scale-Out-Funktionen. Dies eröffnet neue Möglichkeiten für den Unternehmenseinsatz.
Bei Backup galt viele Jahre lang: Baue es selbst. Vom Kunden wurde erwartet, dass er die Eigenschaften der Hardware entwickelt, sie beschafft und implementiert sowie anschließend eine Backup-Software installiert.
Dann kamen Backup-Geräte-Hersteller, die alles in ein Gehäuse steckten.
Der Trend zur hyperkonvergenten Infrastruktur (HCI) hat sich mittlerweile als bestätigt erwiesen und wir können beobachten, wie neue hyperkonvergente Backup-Produkte entstehen.
Das Standard-Backup-Modell
Das Design der Backup-Software hat sich im Laufe der Jahre kaum verändert. Die meisten verfügen über einen zentralen Metadatenserver und -planer, wobei die Skalierung von einem oder mehreren Medienservern verwaltet wird.
Um mit der Skalierung umgehen zu können, wurde jede Komponente auf einem separaten Server erstellt, um zusätzlichen Netzwerkdurchsatz und Backend-Speicherkapazität bereitzustellen.
Seit der Ära der Virtualisierung änderte sich der Backup-Prozess erheblich. Anstelle von Datenströmen von vielen verschiedenen Servern konnte die Sicherungssoftware eine vom Hypervisor-Hersteller bereitgestellte Anwendungsprogrammierschnittstelle (API) verwenden.
Diese Änderung bot zwei Vorteile: Erstens bedeutete dies, dass die Sicherungssoftware mit einer Reihe von Änderungen auf Blockebene für jede virtuelle Maschine (VM) arbeitete. Daher war es nicht mehr erforderlich, dass Client-Software auf jedem virtuellen Server Updates und Veränderungen nachverfolgen konnte. Das vereinfachte den Backup-Bereitstellungsprozess erheblich.
Zweitens wurde durch den konsolidierten Datenstrom der Backup-Daten die Lastverteilung auf Medienservern überflüssig, so dass die Backup-Lösung nur einen oder mehrere Datenströme vom Hypervisor verwalten musste.
Übergang zum Scale-Out
Die Fähigkeit, Hypervisor-basierte Daten zu verarbeiten, definiert aber nicht hyperkonvergente Backup-Lösungen. Daten von Hypervisor-aware-Backups landen in der Regel weiterhin auf platten- oder bandbasierten Medien.
Der nächste Schritt im Hyperkonvergenzprozess bestand darin, Backup-Software und Scale-Out-Speicher in einem einzigen Produkt zusammenzufassen, um hyperkonvergente Backups zu erstellen.
So konsolidiert eine hyperkonvergente Backup-Lösung Backup-Speicher und Software in einer Scale-Out-Architektur. Sie umfasst alle Funktionen einer Backup-Plattform.
Lösungen werden als Cluster aus Servern oder Knoten bereitgestellt, über die die Funktionen Metadatenverwaltung, Datenspeicherung und Planung implementiert werden.
Wie bei vielen hyperkonvergenten Infrastrukturangeboten beinhalten hyperkonvergente Backup-Lösungen eine verteilte Scale-Out-Speicherschicht über den Cluster von Knoten/Servern hinweg. Dies bietet eine Landezone für Backup-Daten, die für Wiederherstellungen oder „sofortige“ Wiederherstellungen verwendet werden können.
Da hyperkonvergente Backup-Produkte im Grunde genommen selbst Scale-Out-Speicher sind, bieten viele die Möglichkeit, als Hypervisor für einen Datenspeicher zu fungieren. Dies bedeutet, dass Backups als virtuelle Maschinen visualisiert werden können, indem die hyperkonvergente Backup-Plattform mit einem Hypervisor verbunden und ein Backup-Image hochgefahren wird.
Instant Restore ist eine Funktion, die ohne ein internes Dateisystem oder einen Prozess zum Erstellen synthetischer Ansichten von VMs (Virtual Machine) aus Sicherungen nicht implementiert werden konnte.
Serverfehler verwalten
Die Skalierbarkeit von hyperkonvergenten Backups bietet zwei Hauptvorteile – mindern von Serverfehlern und einfaches Scale-Out.
Im herkömmlichen Backup-Design basieren die Metadaten- und Planungsservices auf einem einzelnen Knoten oder sind als widerstandsfähiger Cluster implementiert. Die Verwaltung dieses Clusters im Falle eines Server- oder Standortfehlers kann eine komplexe Aufgabe sein.
Die meisten Backup-Lösungen verwenden Datenbanksoftware aus einem Guss wie SQL Server oder MySQL, die nicht problemlos über viele Knoten skaliert werden können. Bei der Replikation der Backup-Software an Remote-Standorten kommen häufig SAN-Technologien (Storage Area Network) zum Einsatz, um die Backup-Daten zu vervielfältigen.
Im Gegensatz dazu werden bei hyperkonvergenten Backup-Lösungen Dienste wie die Metadatenverwaltung über mehrere Knoten verteilt, wodurch Serverfehler besser verwaltet werden. Sollte ein einzelner Knoten ausfallen, können andere Knoten im Cluster die Befehle übernehmen und fortsetzen. Bei einem verteilten Dateisystem bedeutet dies, dass der Zugriff auf Sicherungsdaten nicht verloren geht.
Die verteilte Architektur erstreckt sich auch auf Skalierbarkeit. Da die Anforderungen an die Backup-Kapazität steigen, können hyperkonvergente Backup-Lösungen erweitert werden, indem dem Cluster zusätzliche Knoten auf dieselbe Weise hinzugefügt werden. So wie dies bei hyperkonvergierter Infrastruktur der Fall ist. Zusätzliche Kapazität kann einfach aufgestockt werden, indem Sie einen neuen Server einrichten und zum Cluster hinzufügen.
Die Flexibilität, zusätzliche Knoten hinzuzufügen, bedeutet, dass die Kapazität auch entsprechend der Nachfrage erhöht werden kann. Die Anbieter stellen eine Reihe von Servergrößen bereit, um mehrere Kapazitätsinkremente zu erfüllen (siehe „Anbieter für hyperkonvergente Backups“ weiter unten).
Backup-Administratoren müssen nun nicht mehr darüber nachdenken, wie die Arbeitslast in der neuen Infrastruktur verteilt wird – so wie sie es in der der Vergangenheit gewöhnt waren. Viele Lösungen bieten die Möglichkeit, Knoten geografisch zu verteilen und eine Konfiguration für mehrere Standorte zu erstellen, die mit herkömmlichen Sicherungen viel schwieriger zu verwalten wäre.
Hyperkonvergentes Backup: Lizenzierung und Support
Für viele Kunden hat sich auch die Lizenzierung vereinfacht. Hyperkonvergente Backup-Lösungen werden in der Regel nach Kapazität oder Knoten lizenziert, wodurch sich die Kosten für neue Kapazitäten, die hinzugefügt werden sollen, leicht bemessen lassen.
Es ist nicht mehr erforderlich, einzelne Features oder Komponenten der Backup-Architektur zu lizenzieren.
Obwohl Backup-Appliances keine streng hyperkonvergente Backup-Funktion besitzen, bieten sie häufig ein flexibleres Wartungsmodell, bei dem der Patch- und Upgrade-Prozess vom Lieferanten und nicht von den Backup-Administratoren gehandhabt wird.
Bei hyperkonvergenten Backup-Lösungen kann die Ausfallzeit durch rollierende Software-Upgrades über die Knoten eines Clusters auf ein Minimum reduziert oder praktisch eliminiert werden.
Hyperkonvergentes Backup: Einschränkungen
Obwohl hyperkonvergente Backup-Lösungen einen großen operativen Nutzen bieten, sind sie jedoch nicht für alle Anforderungen geeignet.
Ihre Entwicklung vom virtuellen Backup bedeutet, dass viele Anwendungen traditionelle Workloads, die auf physischen Servern ausgeführt werden, nur begrenzt unterstützen. Es ist niemals wünschenswert, mehrere Backup-Lösungen zu verwenden.
Daher ist eine hyperkonvergente Sicherung wahrscheinlich geeigneter, wenn sie frühere Backup-Implementierungen vollständig ersetzen kann.
Zudem stellt sich noch die Frage nach dem Lock-in. Backups, die hohe Datendeduplizierungsraten verwalten, haben ein Lock-in für den Kunden geschaffen. Das Verschieben von Backups auf eine andere Plattform würde bedeuten, das Backup-Image wiederherzustellen und es auf einem anderen System erneut zu erfassen.
Das Lock-in-Problem kann jedoch bei jeder Sicherungslösung auftauchen, auch bei solchen, die proprietäre Formate verwenden – nicht nur bei hyperkonvergenter Sicherung.
Anbieter hyperkonvergenter Backups
Es gibt eine Reihe von Start-ups, die Produkte im hyperkonvergenten Backup-Bereich auf den Markt gebracht haben. Die Angebote sind in der Regel hardwarebasiert und umfassen auch den Support von Produkten der wichtigsten Serverlieferanten. Alternativ gibt es Software-only-Produkte für Zweigstellen- oder Public Cloud-Umgebungen. Viele Anbieter stellen ihre Hardware- und Softwareangebote als integrierte verteilte Backup-Plattform zusammen.
Cohesity
Cohesity bietet eine Reihe von Hardwareknoten, entweder ungelabelt oder in Partnerschaft mit HPE und Cisco. Lösungen skalieren vom Einstiegsmodell C2105 mit 6 TB Festplatten-HDD und 800 GB Flash-Kapazität pro Knoten bis zum C2605 mit 30 TB HDD und 1,6 TB SSD Speicherplatz.
Cohesity stellt auch Data Platform Virtual Edition für kleinere Umgebungen ohne dedizierte Hardware zur Verfügung. Darüber hinaus gibt es eine Cloud-Edition zum Verwalten öffentlicher Cloud-Instanzen oder zum Replizieren von Daten von der lokalen Infrastruktur in den öffentlichen Cloud-Speicher.
Commvault
Commvault hat vor kurzem eine Appliance-Lösung namens HyperScale vorgestellt. Sie umfasst die aktuelle Commvault Data Platform Software mit einem auf GlusterFS basierenden Scale-Out-Dateisystem.
Die Speicherkapazitäten pro Knoten skalieren von 16 TB bis 40 TB Festplattenkapazität und zusätzlich 150 GB Flashspeicher. HyperScale ist auch als Software oder auf Cisco Unified Computing System (UCS) Hardware verfügbar.
Rubrik
Rubrik bietet eine Reihe von Hardware-Appliances an, die von dem Einstiegssystem mit drei Knoten r334 bis zum High-End-Gerät r3410 mit vier Knoten reichen. Die Speicherkapazität beginnt bei 36 TB Festplatte (HDD) und 1,2 TB Solid-State-Laufwerk (SSD) in der r334 zu 120 TB HDD und 1.6 TB SSD im R3410.
Für Kunden, die bevorzugen, bereits vorhandene Servertechnologie zu benutzen, sind Lösungen verfügbar, die HPE-, Cisco- und Lenovo-Hardware verwenden.
Rubrik bietet auch die Implementierung einer Software-Appliance, die in kleineren Zweigstellen und einer öffentlichen Cloud-Implementierung verwendet werden kann, die in Amazon Web Services (AWS), Microsoft Azure und Google Cloud ausgeführt wird.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!