Getty Images/iStockphoto
Bandbreite, Tempo, Bedienbarkeit bei Recovery beachten
Beim Data Recovery müssen Unternehmen darauf achten, wie die eigene Hard- und Software die spezifischen Herausforderungen erfüllen kann. Der Beitrag zeigt, was dabei wichtig ist.
Die Datenwiederherstellung ist ein zentraler Bestandteil der IT-Infrastruktur, insbesondere im Kontext von hardwarebasierten Lösungen im eigenen Rechenzentrum. Diese Systeme bieten eine Vielzahl von Vorteilen, darunter gute Bedienbarkeit, schnelle Wiederherstellungszeiten, angemessene Bandbreitenanforderungen, kontrollierbare Egress-Kosten (die zum Beispiel bei der Anbindung von Cloud-Speicher anfallen) und robuste Datenintegrität. Ein tiefgehender Blick auf diese Kriterien kann helfen, die optimale Lösung für Ihre spezifische Anforderungen zu identifizieren.
Bedienbarkeit von Backup-Lösungen
Die Bedienbarkeit von hardwarebasierten Datenwiederherstellungslösungen ist ein wesentlicher Faktor für die Effizienz der IT-Abteilung. Intuitive Benutzeroberflächen, klar strukturierte Menüs und umfassende Dokumentationen sind entscheidend, um den Einsatz der Systeme zu erleichtern. Viele moderne Lösungen bieten automatisierte Prozesse und benutzerfreundliche Dashboards, die es Administratoren ermöglichen, Wiederherstellungsprozesse schnell und effizient durchzuführen.
Ein Beispiel ist die Dell EMC Data Domain. Dieses System bietet eine übersichtliche und gut strukturierte Benutzeroberfläche, die Administratoren eine einfache Navigation ermöglicht. Die Integration von Data Domain Management Center (DDMC) erlaubt es, mehrere Data Domain Systeme zentral zu verwalten, was das Management großer Datenmengen erheblich vereinfacht. Zudem bietet Dell EMC Data Domain automatisierte Backup- und Wiederherstellungsprozesse, die den Arbeitsaufwand der IT-Abteilung reduzieren.
Ein weiteres Beispiel ist Veeam Backup & Replication, welches ebenso auf Benutzerfreundlichkeit fokussiert. Die Software nutzt vor allem Hardware im eigenen Rechenzentrum zum Backup von Daten, ist aber auch in der Cloudeinsetzbar. Veeam bietet eine grafische Benutzeroberfläche (GUI), die leicht verständlich ist und durch Assistenten-geführte Prozesse unterstützt wird. Diese Assistenten helfen bei der Konfiguration und Durchführung von Backup- und Wiederherstellungsaufgaben, was besonders für weniger erfahrene Administratoren von Vorteil ist. Veeam integriert sich nahtlos in verschiedene Hypervisoren wie VMware und Hyper-V, was die Verwaltung virtueller Umgebungen vereinfacht.
Das IBM Spectrum Protect (ehemals Tivoli Storage Manager) ist ein weiteres Beispiel, das zeigt, wie Bedienbarkeit die Effizienz steigern kann. Die Lösung bietet eine zentrale Verwaltungskonsole, die eine umfassende Übersicht über alle Backup- und Wiederherstellungsaktivitäten ermöglicht. IBM Spectrum Protect nutzt eine webbasierte Benutzeroberfläche, die von überall zugänglich ist und eine hohe Flexibilität bietet. Die Software unterstützt zudem detaillierte Berichte und Analysen, die Administratoren helfen, den Status ihrer Backup-Umgebung jederzeit im Blick zu behalten.
Die Unterstützung der Software umfasst sowohl primäre als auch sekundäre Speicherlösungen und reicht von traditionellen Festplatten bis hin zu modernen Flash- und Cloud-basierten Speichersystemen. Beispiele sind unter anderem die IBM Storwize Familie, zu der Modelle wie IBM Storwize V7000, V5000 und V3700 zählen. Darüber hinaus wird auch die IBM FlashSystem Serie unterstützt. Weitere Systeme, die mit der Software operieren sind die IBM DS8000 Serie mit Modellen wie IBM DS8880 und DS8900F sowie die IBM Elastic Storage Server (ESS) mit Modellen wie ESS 3000 und ESS 5000. Das zeigt, wie Hardware und Software im Bereich Backup Hand in Hand gehen, um eine stabiler Sicherungslösung zu etablieren. Ohne passende Hardware und die dazu optimierte Software ist ein Backup und ein schnelles und fehlerfreies Recovery kaum möglich.
Bandlaufwerke und Bandbibliotheken sind ein integraler Bestandteil vieler Backup-Strategien, insbesondere für die langfristige Archivierung. IBM Spectrum Protect unterstützt hierbei eine Vielzahl von IBM TS Series Tape Drives und Bandbibliotheken. Diese Lösungen sind besonders geeignet für Unternehmen, die große Datenmengen langfristig und sicher speichern müssen. Das gilt auch für andere Backup-Lösungen, die mit verschiedener Hardware zusammenarbeiten, um das beste Ergebnis zu erzielen.
NetApp ONTAP ist ebenfalls bekannt für seine benutzerfreundliche Bedienung. Das System bietet eine intuitive Web-Oberfläche sowie die Möglichkeit, Befehle über eine Kommandozeilenschnittstelle (CLI) zu steuern. Die Kombination aus grafischer Oberfläche und CLI ermöglicht es Administratoren, je nach Präferenz und Aufgabenbereich, die geeignete Methode zur Verwaltung ihrer Daten zu wählen. NetApp ONTAP unterstützt zudem automatisierte Snapshots und Replikationen, was die Wiederherstellung von Daten erheblich beschleunigt.
Das Betriebssystem läuft dabei nicht nur auf den AFF- Und FAS-Speichersystemen des Herstellers, sondern auch auf den Cloud-Plattformen von Amazon, Microsoft und Google. Das gibt Anwendern die Option, hybride Speicherumgebungen aufzubauen und die identischen Funktionen auf beiden Seiten nutzen zu können.
Tempo der Wiederherstellung und Bandbreitenanforderungen an das Backup
Das Tempo der Wiederherstellung ist maßgeblich vom Datenvolumen und den verfügbaren Netzwerkressourcen abhängig. Hardwarebasierte Lösungen im eigenen Rechenzentrum bieten in der Regel hohe Datenübertragungsraten und geringe Latenzzeiten, was zu schnellen Wiederherstellungsprozessen führt. Es ist wichtig, Systeme zu wählen, die skalierbare Architekturen unterstützen, um auch bei großen Datenmengen zügige Wiederherstellungen sicherzustellen. Die Verwendung von SSDs und NVMe-Technologie kann die Geschwindigkeit zusätzlich erhöhen.
Die Bandbreitenanforderungen für Datenwiederherstellungslösungen variieren je nach Datenvolumen und Netzwerkstruktur. Hardwarebasierte Lösungen im eigenen Rechenzentrum ermöglichen eine direkte Datenübertragung innerhalb des lokalen Netzwerks, was die Bandbreitenbelastung minimiert. Dies ist besonders vorteilhaft für große Organisationen mit umfangreichen Datenbeständen, da die interne Netzwerkbandbreite oft höher ist als bei externen Cloud-Lösungen. Gerade geschäftskritische Daten sollten von einem Backup am eigenen Standort wiederhergestellt werden, um die Ausfallzeit so gering wie möglich zu halten.
Datenwiederherstellung im Rechenzentrum richtig nutzen
Um das Recovery im Rechenzentrum zügig und erfolgreich durchführen zu können, helfen verschiedene Vorgehensweisen.
Differenzielle und inkrementelle Backups nutzen: Statt vollständiger Backups in jedem Zyklus umzusetzen, sollten differenzielle oder inkrementelle Backups zum Einsatz kommen. Diese Methoden sparen Speicherplatz und Bandbreite, da nur die geänderten Daten seit dem letzten Backup gesichert werden. Dies beschleunigt sowohl den Backup-Prozess als auch die Wiederherstellung. Allerdings könnten diese Recoverys etwas mehr Zeit und Aufwand bedeuten.
Verwendung von Deduplizierungstechnologien: Moderne Backup-Lösungen wie Dell EMC Data Domain bieten Deduplizierungstechnologien, die redundante Daten eliminieren und so den Speicherbedarf reduzieren. Dies führt zu effizienteren Backups und schnelleren Wiederherstellungen, da weniger Daten übertragen und gespeichert werden müssen.
Einsatz von Cloud-Backup als Ergänzung: Zusätzlich zur lokalen Backup-Hardware können Cloud-Backups eine weitere Sicherheitsebene bieten. Hybrid-Backup-Strategien kombinieren die Vorteile lokaler Geschwindigkeit mit der geografischen Redundanz von Cloud-Lösungen.
Echtzeit-Überwachung und Benachrichtigung: Implementierung von Überwachungs- und Benachrichtigungssystemen, um den Zustand der Backup- und Wiederherstellungsprozesse in Echtzeit zu überwachen. Bei Problemen oder Anomalien können sofortige Maßnahmen ergriffen werden.
Verwendung von Verschlüsselung: Um die Sicherheit der Daten während des Backups und der Übertragung zu gewährleisten, sollte eine starke Verschlüsselung verwendet werden. Verschlüsselung schützt die Daten vor unbefugtem Zugriff und gewährleistet die Vertraulichkeit. Dabei lassen sich die Daten in während der Übertragung (Data in Motion) oder im Ruhezustand (Data at Rest) verschlüsseln. Einige Backup-Systeme bieten beide Verschlüsselungsoptionen. Bei einer Wiederherstellung muss gewährleistet sein, dass die Schlüssel für die Entschlüsselung vorhanden und unbeschädigt sind.
Ressourcenoptimierung durch Lastverteilung: Um die Ressourcen optimal zu nutzen, sollten die Backup- und Wiederherstellungsaufgaben zeitlich verteilt und priorisiert werden. So lassen sich Spitzenlasten vermeiden und die Gesamtleistung des Systems verbessern. Lastverteilungsmechanismen können in Systemen wie Dell EMC Data Domain konfiguriert werden.
Snapshots einsetzen: Die Verwendung von Snapshots spielt eine entscheidende Rolle bei der Datenwiederherstellung im Rechenzentrum und kann effektiv mit den genannten Vorgehensweisen kombiniert werden. Snapshots sind zeitpunktgenaue Kopien eines Dateisystems oder einer virtuellen Maschine, die schnelle Wiederherstellungen ermöglichen, ohne dass ein vollständiges Backup durchgeführt werden muss. Differenzielle und inkrementelle Backupslassen sich optimal mit Snapshots integrieren. Snapshots erfassen nur die Änderungen seit dem letzten Snapshot, was den Speicherplatzbedarf minimiert und die Effizienz des Backup-Prozesses erhöht. Dadurch beschleunigen Snapshots sowohl die Erstellung der Backups als auch die Wiederherstellung, da nur die differenzierten oder inkrementellen Änderungen berücksichtigt werden müssen. Deduplizierungstechnologien profitieren ebenfalls von der Snapshot-Technik. Snapshots erfassen nur die geänderten Datenblöcke, was die Menge der zu sichernden Daten reduziert. Die Deduplizierung kann diese redundanten Datenblöcke effizient eliminieren, wodurch der Speicherbedarf weiter sinkt und die Backup-Zeiten verkürzt werden.
Egress-Kosten bei Recovery beachten
Egress-Kosten, also die Kosten für die Datenübertragung aus einem Cloud-Speicher heraus, sind bei hardwarebasierten Lösungen im eigenen Rechenzentrum nicht relevant. Dies bietet einen erheblichen finanziellen Vorteil, da alle Daten lokal gespeichert und wiederhergestellt werden. Die Investition in die eigene Hardware kann sich langfristig durch die Vermeidung dieser Kosten amortisieren. Diese Art an Kosten ist nicht nur bei einer benötigten Datenrückführung über ein Netzwerk zu beachten, sondern auch, wenn – bei zu großen Datenbeständen beispielsweise – physische Medien von einem Standort an einen anderen transportiert werden müssen.
Datenintegrität und Sicherheit: Air-Gap beachten
Die Sicherstellung der Datenintegrität und der Schutz vor Malware und Ransomware sind entscheidende Aspekte jeder Datenwiederherstellungslösung. Hardwarebasierte Systeme im eigenen Rechenzentrum bieten die Möglichkeit, strenge Sicherheitsrichtlinien und -protokolle zu implementieren und diese auch überwachen zu können. Durch regelmäßige Sicherheits-Updates und umfassende Überwachungsmechanismen lässt sich das Risiko von Datenverlusten und -beschädigungen minimieren. Viele Backup-Systeme bieten zudem integrierte Funktionen zur Erkennung und Abwehr von Ransomware-Angriffen, was die Datensicherheit zusätzlich erhöht.
Ein wesentlicher Aspekt der Datenwiederherstellung und -sicherung ist das Konzept des Air Gap, bei dem ein physischer oder logischer Abstand (ein Gap) zwischen den gesicherten Daten und dem Hauptnetzwerk geschaffen wird. Diese Methode erhöht die Sicherheit und Integrität der Backups erheblich. Hardwarebasierte Lösungen im eigenen Rechenzentrum können dieses Konzept effektiv umsetzen, indem sie dedizierte, isolierte Backup-Systeme bereitstellen. Beispielsweise können Systeme wie Dell EMC Data Domain oder IBM Spectrum Protect physisch getrennte Speichergeräte nutzen, die nur für Backup-Zwecke zugänglich sind und keine ständige Verbindung zum Netzwerk haben. Dies schützt die Daten vor Malware- und Ransomware-Angriffen, da die Angreifer nicht direkt auf die gesicherten Daten zugreifen können. Solche Air-Gap-Implementierungen ermöglichen es, im Falle eines Sicherheitsvorfalls schnell auf unversehrte Backups zuzugreifen und die Datenintegrität wiederherzustellen, ohne die Wiederherstellungsprozesse zu verzögern. Zudem können automatisierte Prozesse zur Synchronisation und Prüfung der isolierten Backups eingerichtet werden, um sicherzustellen, dass die Daten stets aktuell und vollständig gesichert sind, was die Zuverlässigkeit der Wiederherstellung weiter erhöht.
Praxis-Tipps zur Umsetzung des Air-Gap-Konzepts im Rechenzentrum
Die Implementierung eines Air-Gap-Konzepts im Rechenzentrum erhöht die Sicherheit und Integrität von Backups erheblich. Einige praxisnahe Tipps zur schnellen Umsetzung:
Physische Trennung der Backup-Hardware: Stellen Sie sicher, dass die Backup-Hardware physisch vom Produktionsnetzwerk getrennt ist. Separate Storage-Systeme, die nur während der Backup-Fenster verbunden sind, bieten sich an. Dell EMC Data Domain-Systeme können beispielsweise nur zu festgelegten Zeiten automatisch online geschaltet werden.
Verwendung von Wechseldatenträgern: Wechseldatenträger wie LTO-Bänder oder externe Festplatten für Backups können ebenso einen weiteren Sicherheitslevel für Backups und somit Wiederherstellungen offerieren. Diese Medien werden nach dem Backup physisch entfernen und sicher extern gelagert, was das Risiko eines Zugriffs durch Malware erheblich reduziert.
Netzwerkisolation durch VLANs und Firewalls: Der Einsatz von VLANs und Firewalls, kann die Backup-Infrastruktur logisch isolieren. Sind sind nur autorisierte Verbindungen während des Backup-Vorgangs erlaubt und die Verbindung wird nach Abschluss des Vorgangs wieder getrennt.
Regelmäßige Offsite-Backups: Regelmäßig Backups an einem externen Standort zu lagern kann durch physische Übertragung von Backup-Medien oder durch gesicherte Netzwerkverbindungen zu einem zweiten Rechenzentrum erfolgen. IBM Spectrum Protect bietet umfassende Funktionen zur Verwaltung und Automatisierung solcher Prozesse.
Automatisierte Prüfprozesse: Automatisierte Prüfprozesse überprüfen die Integrität der Backups regelmäßig. Tools, die Prüfsummen und Validierungen umsetzen, um sicherzustellen, dass keine Datenkorruption vorliegt, erleichtern die Durchführung dieser Prozesse. NetApp ONTAP beispielsweise bietet Funktionen zur regelmäßigen Überprüfung und Validierung von Snapshots.
Testen der Wiederherstellung: Regelmäßig Tests der Wiederherstellungsprozesse sind essenziell, um sicherzustellen, dass die Backups im Ernstfall schnell und vollständig wiederhergestellt werden können. Diese Tests müssen unter realistischen Bedingungen erfolgen und auch Szenarien wie Ransomware-Angriffe simulieren.
Durch die Umsetzung dieser praxisnahen Tipps lässt sich die Sicherheit der Backup- und Wiederherstellungsprozesse erheblich optimieren und absichern. So kann gewährleistet werden, dass Daten im Falle eines Angriffs oder Ausfalls zuverlässig wiederhergestellt werden können.
Fokussierung auf spezifische Datensätze
Bei der Implementierung von Datenwiederherstellungslösungen im eigenen Rechenzentrum können und sollten bestimmte Datensätze besonders berücksichtigt werden. Systeme, die auf die Wiederherstellung von Daten aus Anwendungen wie Microsoft Teams, Salesforce oder VMware spezialisiert sind, bieten oft optimierte Funktionen und Werkzeuge für diese speziellen Anforderungen. Dies ermöglicht eine effizientere und gezieltere Datenwiederherstellung, die den spezifischen Bedürfnissen der jeweiligen Anwendungen entspricht.
Hardware-Integration bei der Datenwiederherstellung
Die Datenwiederherstellung im Rechenzentrum profitiert erheblich von der richtigen Hardwareausstattung, die in Kombination mit den erwähnten Methoden eine robuste und effiziente Lösung darstellt. Hochleistungsfähige Speichersysteme und Backup-Hardware spielen eine zentrale Rolle bei der schnellen und zuverlässigen Wiederherstellung von Daten.
Zum Beispiel versprechen Systeme wie Dell EMC PowerProtect DD (ehemals Data Domain) und HPE Nimble Storage hohe Leistung und Zuverlässigkeit. Dell EMC PowerProtect DD verwendet moderne Deduplizierungstechnologien, um den Speicherbedarf zu reduzieren. Diese Systeme sind speziell darauf ausgelegt, redundante Daten zu eliminieren und bieten gleichzeitig eine hohe Skalierbarkeit. In Kombination mit der Dell EMC Data Domain Boost-Software können Backups direkt auf PowerProtect DD-Geräte geschrieben werden, wodurch der gesamte Prozess beschleunigt wird.
HPE Nimble Storage nutzt eine hybride Flash-Architektur, die sowohl Flash-Speicher als auch Festplatten kombiniert, um eine optimale Balance zwischen Leistung und Kosten zu bieten. Die Integration von HPE Nimble Storage mit Veeam Backup & Replication ermöglicht eine nahtlose Sicherung und Wiederherstellung, indem Snapshots und inkrementelle Backups effizient verwaltet werden. HPE Nimble Storage offeriert zudem eine intuitive Benutzeroberfläche und erweiterte Analysefunktionen, die die Verwaltung und Überwachung der Speicherumgebung vereinfachen sollen.
Ein weiteres Beispiel ist das Pure Storage FlashArray, das durch seine Integration mit der Pure1 Cloud-Management-Plattform eine effiziente Verwaltung von Snapshots und Replikationen ermöglicht. Das FlashArray soll extrem niedrige Latenzzeiten und hohe Datenübertragungsraten ermöglichen, was besonders nützlich für Umgebungen ist, die zügige Wiederherstellungszeiten benötigen. Die Verwendung von Snapshots in diesem FlashArray reduziert die Wiederherstellungszeiten zusätzlich und minimiert die Auswirkungen auf die Produktionsumgebung.
Für die langfristige Archivierung großer Datenmengen bieten Bandlaufwerke wie die Quantum Scalar i6 Tape Library Vorteile. Diese Bandlaufwerke sind besonders geeignet für die Erstellung von Offline-Backups, die physisch vom Netzwerk getrennt werden können, um ein höheres Maß an Sicherheit zu gewährleisten. Die Kombination aus moderner Tape-Technologie und der Möglichkeit zur Nutzung von Snapshots und Replikationen bietet eine flexible und kosteneffiziente Lösung für die Datenwiederherstellung.