ekzman - Fotolia
Sieben Schritte zu einer effektiven Backup-Strategie
Dieser Ratgeber erläutert die Grundlagen der Datensicherung, die riskanten Aspekte und die sieben kritischen Backup-Strategien, die Sie benötigen, um Ihre Daten zu schützen.
Obwohl Produktions-Storage immer zuverlässiger und belastbarer wird, ist die regelmäßige Erstellung und Pflege einer hochwertigen, unabhängigen Kopie der Produktionsdaten wichtiger denn je. Vor allem in Verbindung mit Cloud Backup erwarten die Benutzer und Anwendungseigentümer von heute keinen Datenverlust, selbst bei einem System- oder Anlagenausfall. Und sie erwarten Wiederherstellungszeiten, die in Minuten und nicht in Stunden gemessen werden. Dies setzt IT- und Speicheradministratoren unter enormen Druck, eine effektive Sicherungsstrategie zu entwickeln.
Im Folgenden erklären wir Ihnen sieben bewährte Verfahren, die die Entwicklung einer solchen Strategie erleichtern können.
1. Die Backup-Frequenz erhöhen
Aufgrund von Ransomware müssen Rechenzentren die Häufigkeit von Backups erhöhen - einmal pro Nacht ist nicht mehr genug. Alle Datensätze sollten mehrmals am Tag gesichert werden. Technologien wie inkrementelle Backups auf Blockebene (Block Level Incrementals, BLI) ermöglichen schnelle Backups fast aller Datensätze innerhalb weniger Minuten, da nur der geänderte Block und nicht einmal die gesamte Datei auf den Backup-Speicher kopiert wird. Unternehmen sollten eine Form der intelligenten Sicherung in Betracht ziehen, die schnelle und häufige Backups ermöglicht.
Eine enge Verbindung zu den inkrementellen Backups auf Blockebene haben die In-Place-Recoverys, die von den Anbietern manchmal als „sofortige Wiederherstellung“ (Instant Recovery) bezeichnet werden. Obwohl sie nicht wirklich sofort erfolgt, ist die Wiederherstellung sehr schnell. Der Datenspeicher einer virtuellen Maschine wird auf einem geschützten Speicher instanziiert, so dass eine Anwendung innerhalb weniger Minuten wieder online sein kann, anstatt darauf zu warten, dass die Daten über das Netzwerk auf den Produktionsspeicher kopiert werden. Eine wichtige Voraussetzung für eine erfolgreiche In-Place-Recovery-Technologie ist ein leistungsfähigerer Festplatten-Backup-Speicherbereich, da er als temporäres Storage dient.
Eine Alternative zu In-Place-Recovery ist Streaming Recovery. Bei Streaming Recovery wird das Volume der virtuellen Maschine ebenfalls fast sofort instanziiert, allerdings auf dem Produktionsspeicher und nicht auf dem Backup-Speicher. Die Daten werden auf das Produktionsspeichersystem gestreamt, wobei die Daten, auf die zugegriffen wird, Priorität haben. Der Vorteil einer Streaming-Wiederherstellung gegenüber einer In-Place-Wiederherstellung besteht darin, dass die Daten automatisch an den Produktionsspeicher gesendet werden, so dass die Leistung des Backup-Speichers weniger ins Gewicht fällt.
Grundlagen der Datensicherung
Bei der Entwicklung einer modernen Backup-Strategie kann es hilfreich sein, sich die Grundlagen zu vergegenwärtigen. Hier sind einige davon.
Vollständige, inkrementelle und differenzielle Backups. Seit den Anfängen des Rechenzentrums gibt es zwei Arten von Backups: Die Vollsicherung, bei der der gesamte Datensatz gesichert wird, unabhängig davon, wann die Daten zuletzt geändert wurden, und die inkrementelle Sicherung, bei der nur die Daten gesichert werden, die seit der letzten Sicherung geändert wurden, unabhängig davon, ob es sich um eine inkrementelle oder eine Vollsicherung handelte.
Als das Rechenzentrum von einem einzelnen Mainframe zu einer offenen Systemumgebung mit mehreren Anbietern überging, wurde es schwierig, mehrere inkrementelle Backups zu verwalten. Differenzielle Backups wurden eingeführt, um die Verwaltung der Backup-Daten zu vereinfachen, allerdings auf Kosten der Kapazitätseffizienz. Bei differenziellen Backups werden alle Daten seit dem letzten vollständigen Backup gesichert. Sie sind weniger kapazitätseffizient als inkrementelle Backups, bieten aber eine einfachere Wiederherstellung der Daten. Unternehmen setzten vor allem in den 1990er und frühen 2000er Jahren auf differenzielle Backups, als der primäre Backup-Speichertyp Band und Bandbibliotheken waren.
Image-basierte Backups und BLIs. Image-basierte Backups, bei denen geänderte Datenblöcke anstelle von geänderten Dateien gesichert werden, werden immer beliebter. Dies bietet eine viel feinere Granularität als die meisten Arten von inkrementellen oder differenziellen Backups. Die zunehmende Verbreitung von festplattenbasiertem Speicher für Backup-Daten hat die Einführung von Block Level Increments (BLI), einer Art inkrementeller Backups, vorangetrieben. Image- und blockbasierte Backups erfordern ein Gerät mit wahlfreiem Zugriff (Random Access), um ihre Aktualisierungen durchzuführen; ein Band ist beispielsweise ein Medium mit sequentiellem Zugriff. Image- und blockbasierte Backups erstellen ein vollständiges Backup und aktualisieren dieses vollständige Image in benutzerdefinierten Abständen (einmal pro Tag bis alle 15 Minuten, je nach Wichtigkeit der Daten).
Neue Backup-Ziele. Seit den Anfängen des Rechenzentrums bis in die frühen 2000er Jahre waren Bandmedien und Bandbibliotheken das primäre und in den meisten Fällen einzige Speichermedium für Backup-Daten. Disk-basierte Backups, die Image-basierte Backups zur Realität werden ließen, führten dazu, dass die Backup-Daten auch für andere Anwendungsfälle genutzt wurden. Dazu gehörten Test- und Entwicklungs- sowie Berichterstattungszwecke, da moderne Sicherungssoftware Daten schnell für diese Umgebungen bereitstellen kann. Festplattenbasierte Backup-Systeme sind heute meist Scale-Out-Speichersysteme, die so konzipiert sind, dass sie mit dem Datenwachstum und den Anforderungen an die Datenaufbewahrung Schritt halten können.
Die Cloud im Vergleich zum eigenen Rechenzentrum. In den letzten acht Jahren haben sich Public-Cloud-Anbieter schnell als attraktive Alternative zur festplattenbasierten Sicherungstechnologie im eigenen Rechenzentrum etabliert. Durch die Verwendung von Cloud-Speicher können Unternehmen automatisch eine Kopie ihrer Daten außerhalb des Standorts erstellen und das Wachstum von Backup-Speichersystemen am eigenen Standort begrenzen. Da sich die Daten in der Cloud befinden, können Unternehmen Cloud-Computing-Dienste auch für Disaster Recovery sowie für die oben beschriebenen Anwendungsfälle Testen, Entwicklung und Berichterstellung nutzen. Die Kostenkontrolle ist ein Schlüsselelement der Cloud-Speicherung. Unternehmen müssen jeden Monat für den Cloud-Speicher bezahlen, und die Wiederherstellung von Daten aus Cloud-Speichern kann erhebliche Kosten für den Datenabfluss (Datenrückführung, Egress) verursachen.
2. Backup-Strategie auf Service-Level-Anforderungen abstimmen
Seit den Anfängen des Rechenzentrums war es eine bewährte Praxis, für jede Anwendung in der Umgebung Prioritäten festzulegen. Diese Praxis war sinnvoll, als ein Unternehmen vielleicht zwei oder drei kritische Anwendungen und vielleicht vier bis fünf wichtige Anwendungen hatte.
Heutzutage verfügen jedoch selbst kleine Unternehmen über mehr als ein Dutzend Anwendungen, und größere Unternehmen können mehr als 50 haben. Die Zeit, die für die Prüfung dieser Anwendungen und die Festlegung von Backup-Prioritäten erforderlich ist, ist einfach nicht vorhanden. Hinzu kommt, dass die meisten Eigentümer der Anwendungen auf möglichst kurze Wiederherstellungszeiten bestehen. Mit Hilfe von Chargeback- und Showback-Techniken können die Eigentümer der Anwendungen praktischere Wiederherstellungszeiten in Betracht ziehen.
Die Möglichkeiten der schnellen Wiederherstellung und des BLI-Backups nehmen der IT-Abteilung den Druck, Daten und Anwendungen zu priorisieren. Sie können buchstäblich alle Daten und Anwendungen innerhalb eines Zeitfensters von 30 Minuten bis zu einer Stunde wiederherstellen und dann bestimmte Anwendungen je nach Benutzerreaktion und Bedarf priorisieren.
Die Festlegung eines standardmäßigen, aber aggressiven Wiederherstellungsfensters für alle Anwendungen ist dank moderner Technologie erschwinglich und praktischer als eine detaillierte Prüfung der Umgebung. Dies gilt insbesondere für Rechenzentren, in denen die Zahl der Anwendungen, die geschützt werden müssen, ebenso schnell wächst wie die Daten selbst.
Der Service Level der Wiederherstellung bedeutet jedoch, dass das Unternehmen so häufig Backups durchführen muss, wie es der Service Level verlangt. Wenn der Service Level 15 Minuten beträgt, müssen Backups mindestens alle 15 Minuten durchgeführt werden. Auch für BLI-Backups ist ein 15-Minuten-Fenster angemessen.
Der einzige Nachteil einer hohen Anzahl von BLI-Sicherungen besteht darin, dass die meisten Softwareanwendungen die Anzahl der BLI-Sicherungen begrenzen, bevor sie sich auf die Sicherungs- und Wiederherstellungsleistung auswirken. Um die Anzahl der inkrementellen Aufträge zu verringern, muss das Unternehmen möglicherweise zweimal täglich Konsolidierungsaufträge einrichten. Da die Konsolidierungsaufträge außerhalb der Produktion stattfinden, beeinträchtigen sie die Produktionsleistung nicht.
Die Kosten für BLI-Backups und In-Place-Recovery liegen heute im Rahmen der meisten IT-Budgets. Viele Anbieter bieten kostenlose oder Community-Versionen an, die sich auch für sehr kleine Unternehmen eignen. Die Kombination aus BLI und Instant Recovery, die beide in der Regel im Grundpreis der Backup-Anwendung enthalten sind, ist weitaus kostengünstiger als ein typisches Hochverfügbarkeitssystem, bietet aber fast ebenso gute Wiederherstellungszeiten.
3. Befolgen Sie weiterhin die 3-2-1-Backup-Regel
Die 3-2-1-Regel besagt, dass Unternehmen drei vollständige Kopien ihrer Daten aufbewahren sollten, zwei davon lokal, aber auf unterschiedlichen Medien, und mindestens eine Kopie außerhalb des Unternehmens. Eine Firma, die die oben beschriebenen Techniken anwendet, sollte seine Daten auf einem lokalen Backup-Speichersystem im eigenen Rechenzentrum sichern, diese Daten auf ein anderes Backup-System am gleichen Standort kopieren und diese Daten dann an einen anderen Ort replizieren, beispielsweise in die Cloud.
In modernen Rechenzentren ist es akzeptabel, eine Reihe von Speicher-Snapshots als eine dieser drei Kopien zu zählen, auch wenn sie sich auf dem primären Speichersystem befinden und vom Zustand des primären Speichersystems abhängen. Wenn das Unternehmen an einen zweiten Standort repliziert, kann es die Daten auch noch einmal an einem anderen Standort replizieren, um die Anforderung von drei Kopien zu erfüllen.
Die Anforderung von zwei Kopien auf zwei verschiedenen Medientypen ist für ein modernes Rechenzentrum schwieriger zu erfüllen. In ihrer reinsten Form bedeuten zwei verschiedene Medientypen buchstäblich zwei unterschiedliche Medien, mit anderen Worten eine Kopie der Daten auf Festplatte und eine Kopie auf Band.
Die reinste Form dieser Regel ist immer noch die ideale Praxis, aber es ist für Unternehmen akzeptabel, eine Kopie von Daten auf einem Cloud-Speicher als diesen zweiten Medientyp zu betrachten, auch wenn zugegebenermaßen beide Kopien im Grunde auf Festplattenlaufwerken liegen. Die Cloud als ein anderer Medientyp auch dadurch gestärkt, wenn diese Cloud-Kopie unveränderlich (immutable) ist und erst nach Ablauf einer Aufbewahrungsrichtlinie gelöscht werden kann. Mit anderen Worten, sie kann nicht durch einen böswilligen Angriff gelöscht oder verändert werden.
4. Cloud-Backup mit Intelligenz nutzen
IT-Fachleute sollten weiterhin Vorsicht walten lassen, wenn sie Daten in die Cloud verschieben. Vorsicht ist vor allem bei Backup-Daten geboten, da das Unternehmen im Grunde ungenutzten Speicherplatz mietet. Obwohl das Cloud-Backup zu einem attraktiven Preis angeboten wird, können sich die langfristigen Cloud-Kosten summieren.
Wenn man immer wieder für dieselben 100 TB an Daten bezahlt, wird es schließlich teurer, als wenn man 100 TB Speicherplatz besitzt. Außerdem erheben die meisten Cloud-Anbieter eine Gebühr für die Rückübertragung (Egress) von Daten aus der Cloud in das Unternehmen, was immer dann der Fall ist, wenn eine Wiederherstellung stattfindet. Dies sind nur einige der Gründe, warum ein strategischer Ansatz bei der Auswahl eines Cloud-Backup-Anbieters so wichtig ist.
In Anbetracht der Nachteile ist ein strategischer Ansatz für die Cloud wichtig. Kleinere Unternehmen haben selten den Kapazitätsbedarf, der den Besitz von Speicherplatz im eigenen Rechenzentrum günstiger macht als die Sicherung in der Cloud. Die Speicherung all ihrer Daten in der Cloud ist wahrscheinlich die beste Lösung. Mittelgroße und größere Unternehmen könnten feststellen, dass der eigene Speicher kosteneffizienter ist, aber auch diese Unternehmen sollten die Cloud nutzen, um die aktuellen Datenkopien zu speichern und Cloud-Computing-Dienste für Aufgaben wie Disaster Recovery, Reporting sowie Tests und Entwicklung zu nutzen.
Auch ein Cloud Backup ist eine wichtige Überlegung für Unternehmen, die ihre Data-Protection- und Backup-Strategie überarbeiten wollen. IT-Planer sollten jedoch nicht davon ausgehen, dass alle Backup-Anbieter die Cloud gleichermaßen unterstützen. Viele ältere lokale Sicherungssysteme behandeln die Cloud als Bandersatz und kopieren im Wesentlichen 100 Prozent der lokalen Daten in die Cloud. Der Einsatz der Cloud als Bandersatz kann zwar die Infrastrukturkosten am lokalen Standort senken, verdoppelt aber auch die Speicherkapazität, die die IT-Abteilung verwalten muss.
Einige Anbieter unterstützen jetzt Cloud Storage als eine Speicherebene (Storage Tier), bei der alte Sicherungsdaten in der Cloud archiviert werden, während neuere Sicherungen lokal gespeichert werden. Die Nutzung der Cloud auf diese Weise ermöglicht es dem Unternehmen, sowohl die Anforderungen an eine schnelle Wiederherstellung zu erfüllen als auch die Infrastrukturkosten für das eigene Rechenzentrum zu senken.
Anbieter nutzen die Cloud auch zur Bereitstellung von Disaster-Recovery-Funktionen, die oft als Disaster Recovery as a Service (DRaaS) bezeichnet werden. Bei dieser Technik wird nicht nur Cloud-Speicher, sondern auch Cloud-Rechenleistung genutzt, um virtuelle Images wiederhergestellter Anwendungen zu hosten. Mit DRaaS kann ein Unternehmen potenziell erhebliche IT-Budgets einsparen, als wenn es einen zweiten Standort selbst verwalten und einrichten müsste. DRaaS ermöglicht auch einfachere und daher häufigere Tests von Disaster-Recovery-Plänen. Es ist zweifellos eine der praktischsten Anwendungen der Cloud und eine hervorragende Möglichkeit für Unternehmen, mit der Nutzung der Cloud zu beginnen.
DRaaS ist jedoch kein Allheilmittel. IT-Planer müssen den Anbietern schwierige Fragen stellen, zum Beispiel wie lange es dauert, bis die Anwendung nach einer Katastrophenmeldung wieder einsatzbereit ist. Viele Anbieter versprechen DR auf Knopfdruck, aber das bedeutet nicht sofortiges DR. Anbieter, die Backups in ihrem proprietären Format auf einem Cloud-Speicher ablegen, müssen die Daten immer noch aus diesem Format extrahieren. Außerdem müssen sie in den meisten Fällen ihr VM-Image vom Format des lokalen Hypervisors (in der Regel VMWare) in das vom Cloud-Anbieter verwendete Format (in der Regel ein Linux-basierter Hypervisor) konvertieren. Alle diese Schritte sind überschaubar und können von der IT-Abteilung oder dem Anbieter bis zu einem gewissen Grad automatisiert werden, aber sie nehmen Zeit in Anspruch.
5. Automatisieren von Disaster Recovery Runbooks
Die häufigsten Wiederherstellungen sind kein Disaster Recovery, sondern Wiederherstellungen einer einzelnen Datei oder einer einzelnen Anwendung. Gelegentlich muss die IT-Abteilung ein ausgefallenes Speichersystem wiederherstellen, aber es ist äußerst selten, dass die IT-Abteilung eine komplette Umgebung wiederherstellen muss, bei dem das gesamte Rechenzentrum verloren gegangen ist.
Unternehmen müssen natürlich trotzdem für die Möglichkeit einer solchen Wiederherstellung planen. Bei einer Katastrophe muss die IT-Abteilung Dutzende von Anwendungen wiederherstellen, und diese Anwendungen können von anderen Prozessen abhängen, die auf anderen Servern laufen. In vielen Fällen müssen die anderen Server in einer ganz bestimmten Reihenfolge wieder verfügbar sein, so dass der Zeitpunkt, zu dem die einzelnen Wiederherstellungen beginnen können, für den Erfolg entscheidend ist.
Die Kombination aus der Seltenheit einer tatsächlichen großen Katastrophe und der abhängigen Reihenfolge des Serverstarts bedeutet, dass der Wiederherstellungsprozess sorgfältig dokumentiert und ausgeführt werden sollte. Das Problem ist, dass diese Prozesse in den heutigen überlasteten Rechenzentren nur selten dokumentiert werden. Und noch seltener werden sie aktualisiert.
Einige Backup-Anbieter bieten jetzt Funktionen zur Automatisierung von so genannten Runbooks an. Diese Funktionen ermöglichen es dem Unternehmen, die Wiederherstellungsreihenfolge vorzugeben und den entsprechenden Wiederherstellungsprozess mit einem einzigen Klick auszuführen. Jedes Unternehmen mit mehrschichtigen Anwendungen mit voneinander abhängigen Servern sollte diese Funktionen ernsthaft in Erwägung ziehen, um die Wiederherstellung zum richtigen Zeitpunkt zu gewährleisten.
Herausforderungen beim Backup kennen
Die Erwartungen an eine Sicherungskopie sind gestiegen, und die Faktoren, die den Sicherungsbedarf eines Unternehmens beeinflussen, haben sich vervielfacht. Hier ein Blick auf einige von ihnen.
Exponentielles Datenwachstum. Der potenzielle Wert von Daten veranlasst Unternehmen dazu, mehr Daten zu erstellen und diese über einen längeren Zeitraum aufzubewahren. Das Ergebnis ist eine massive Ansammlung von Datenspeichern und eine größere Nachfrage nach geschütztem Speicher und nach Backup-Anwendungen, die Aufschluss darüber geben können, welche Daten tatsächlich geschützt sind. Darüber hinaus sind viele Unternehmen und möglicherweise auch ihre derzeitigen Backup-Anwendungen nicht auf das beispiellose Wachstum unstrukturierter (Datei-)Daten vorbereitet, das eine Hauptursache für den raschen Anstieg des Kapazitätsbedarfs ist. Viele Unternehmen verfügen heute über Dateiserver mit Millionen von Dateien, was eine Herausforderung sowohl für Image-basierte als auch für File-by-File-Backup-Strategien darstellt.
Komplexe Technologieumgebungen. Neben dem Datenwachstum müssen Unternehmen auch mit einem komplexeren technologischen Ökosystem zurechtkommen. In den meisten Unternehmen ist beispielsweise die Anzahl der Speichersysteme, die zur Unterstützung des Unternehmens eingesetzt werden, gestiegen, und jedes dieser Systeme muss anders geschützt werden. Außerdem ist es nicht ungewöhnlich, dass ein Unternehmen Bare-Metal-Systeme und zahlreiche Hypervisor-Systeme zu schützen hat. Die Vielfalt der Speichersysteme und -umgebungen stellt eine zunehmende Bedrohung für die Backup-Qualität dar, und die Wahrscheinlichkeit, dass ein Fehler unterläuft, ist größer denn je.
Verschärfte Vorschriften. Regierungen und Aufsichtsbehörden sind sich des Wertes von Daten durchaus bewusst. Unternehmen sehen sich mit einer zunehmenden Zahl von Vorschriften konfrontiert, die speziell den Schutz und die Aufbewahrung von Daten vorschreiben. Vorschriften wie die EU-DSGVO verlangen auch, dass Unternehmen Daten löschen, wenn Kunden dies verlangen.
Wachsende Ransomware-Bedrohungen. Aufgrund der Cyberkriminellen wird die Datensicherung zunehmend mit der Incident Response in Verbindung gebracht. Eine große Bedrohung für Daten ist die zunehmende Zahl von Cyberangriffen, vor allem Ransomware. Ransomware-Pakete dringen in der Regel über einen Benutzerendpunkt in das Unternehmen ein und verbreiten sich dann schnell über alle Server, auf die der Benutzer Zugriff hat. Die Schöpfer von Malware werden immer kreativer und warten wochenlang, um Angriffe auszulösen, damit sich die Malware an den Backup-Datensatz anhängt und dann, sobald sie ausgelöst wurde, zuerst die Backup-Anwendungen angreift.
6. Verwenden Sie Backups nicht zur Datenaufbewahrung
Die meisten Unternehmen bewahren die Daten in ihren Backups viel zu lange auf. Die meisten Wiederherstellungen werden vom letzten und aktuellen Backup durchgeführt, nicht von einer Sicherung, die sechs Monate oder gar sechs Jahre alt ist. Je mehr Daten in der Backup-Infrastruktur enthalten sind, desto schwieriger ist es, sie zu verwalten und desto teurer wird sie.
Ein Nachteil der meisten Sicherungsanwendungen besteht darin, dass sie geschützte Daten in einem proprietären Format und in der Regel in einem separaten Speichercontainer für jeden durchgeführten Sicherungsauftrag speichern. Das Problem hierbei ist, dass einzelne Dateien nicht aus diesen Containern gelöscht werden können.
Vorschriften wie die DSGVO verlangen von Unternehmen, bestimmte Datentypen aufzubewahren und zu trennen. Aufgrund der Richtlinien zum Recht auf „Vergessen zu werden“ verlangen sie außerdem, dass Unternehmen nur bestimmte Komponenten von Kundendaten löschen und andere Kundendaten weiterhin speichern. Darüber hinaus müssen diese Löschungen bei Bedarf durchgeführt werden. Da das Löschen von Daten innerhalb eines Backups nicht möglich ist, muss die Organisation möglicherweise besondere Maßnahmen ergreifen, um sicherzustellen, dass „zu vergessende“ Daten nicht versehentlich wiederhergestellt werden.
Der einfachste Weg, diese Vorschrift zu erfüllen, besteht darin, Daten nicht langfristig im Backup zu speichern. Die Verwendung eines Archivierungsprodukts für die Aufbewahrung von Daten ermöglicht es Unternehmen, verschiedene Vorschriften zum Datenschutz zu erfüllen und gleichzeitig die Backup-Architektur zu vereinfachen. In der Regel werden Archivsysteme als Mittel zur Senkung der Kosten für die Primärspeicher verkauft, und obwohl dies nach wie vor zutrifft, besteht ihr Hauptwert darin, Unternehmen bei der Erfüllung der Aufbewahrungsanforderungen zu unterstützen. Folglich können Unternehmen einfach Backup-Aufträge im Archiv wiederherstellen, was ein nicht produktiver Prozess ist und eine Granularität von Datei zu Datei bietet.
7. Schutz von Endgeräten und SaaS-Anwendungen
Endgeräte wie Laptops, Desktops, Tablets und Smartphones enthalten alle wertvollen Daten, die möglicherweise nur auf ihnen gespeichert sind. Man kann davon ausgehen, dass die auf diesen Geräten erstellten Daten niemals in einem Rechenzentrum gespeichert werden, es sei denn, sie werden speziell gesichert, und dass die Daten verloren gehen, wenn das Endgerät ausfällt, verloren geht oder gestohlen wird. Die gute Nachricht ist, dass der Schutz von Endgeräten dank der Cloud praktischer ist als je zuvor. Moderne Endpunktsicherungssysteme ermöglichen die Sicherung von Endpunkten in einem Cloud-Repository, das von der zentralen IT verwaltet wird.
SaaS-Anwendungen wie Office 365, Google G-Suite und Salesforce.com werden von den Unternehmen sogar noch häufiger übersehen. Eine allgemeine und falsche Annahme ist, dass die Daten auf diesen Plattformen automatisch geschützt sind. Die Realität ist, dass die Benutzervereinbarungen für alle diese Plattformen sehr deutlich machen, dass der Datenschutz in der Verantwortung des Unternehmens liegt. IT-Planer sollten sich nach einer Datenschutzanwendung umsehen, die auch die von ihnen genutzten SaaS-Angebote absichern kann. Im Idealfall sind diese Angebote in das bestehende System integriert, aber die IT-Abteilung könnte auch SaaS-spezifische Systeme in Betracht ziehen, wenn diese zusätzliche Funktionen oder einen höheren Wert bieten.
Der Backup-Prozess steht mehr denn je unter Druck. Es wird erwartet, dass es keine Ausfallzeiten und keinen Datenverlust gibt. Glücklicherweise kann Backup-Software Funktionen wie BLI-Backups, Recovery-In-Place, Cloud-Tiering, DRaaS und Disaster-Recovery-Automation bieten. Diese Systeme ermöglichen dem Unternehmen eine schnelle Wiederherstellung für eine große Anzahl von Anwendungen, ohne das IT-Budget zu sprengen.