natali_mis - stock.adobe.com
Warum Data Protection ein geschäftskritischer Aspekt ist
Verteilte Standorte, hybride Arbeitsmodelle und Multi-Cloud-Umgebungen, aber auch immer raffiniertere Cyberangriffe stellen Firmen bei der Datensicherung vor Herausforderungen.
Die Erkenntnis, dass Unternehmen heute auf Technologie und Daten angewiesen sind und dem Thema Data Protection deshalb eine geschäftskritische Rolle zukommt, ist nicht neu. Entsprechende Maßnahmen wurden lange Zeit jedoch nur als Schutz vor Beschädigung und Verlust verstanden.
Da Daten heute aber auch die Wettbewerbsfähigkeit eines Unternehmens beeinflussen, spielt ein effektives Datenmanagement eine genauso wichtige Rolle. Technologien, die zur Gewährleistung kontinuierlicher Verfügbarkeit beitragen, müssen demnach zur Vereinfachung der Compliance, Optimierung von Workflows, Unterstützung von DevOps-Aktivitäten und einer gewinnbringenden Nutzung der Daten beitragen.
Die Ausgangslage ist allerdings schwierig: Wenn Datenmengen exponentiell wachsen, steigen auch die Kosten und die Komplexität bei Backup und Datenaufbewahrung, Compliance und Datensicherheit deutlich an. Gleichzeitig lauern zahlreiche Fallstricke, die Unternehmen entweder nicht auf dem Radar haben oder angesichts einer allgemeinen Überlastung in ihrer Prioritätenliste weit nach unten schieben.
Nummer 1: Daten liegen irgendwo
Die rasante Digitalisierung, die Pandemie und Remote-Working als Antwort darauf haben mehr Daten an immer mehr Orten entstehen lassen. Unterschiedliche Speicherorte und damit Datensilos lassen sich aber nur schwer verwalten. So können Unternehmen nicht erkennen, ob Informationen beispielsweise redundant vorhanden oder kritische personenbezogene Daten bei den Backup-Maßnahmen sogar übersehen worden sind.
Eine fragmentierte Umgebung bedeutet immer Risiken bei der Einhaltung von Governance und Compliance. Natürlich können Unternehmen versuchen, mit Einzeltools dieses Problem in den Griff zu bekommen. In der Regel ziehen eine immer komplexere Architektur und mangelnde Integration zwischen den unterschiedlichen Produkten aber hohe Infrastruktur- und Betriebskosten nach sich. Zudem stellt sich die Frage, ob und wie schnell eine umfassende Wiederherstellung im Notfall umsetzbar ist.
Nummer 2: Die Cloud ist kein geschützter Raum
Unternehmen verfolgen zunehmend hybride Multi-Cloud-Strategien, wodurch sich ihre Daten über verschiedene Plattformen wie AWS, Google Cloud Platform und/oder Microsoft Azure sowie in SaaS-Anwendungen wie Microsoft 365 oder Salesforce verteilen. Hinter jeder Cloud steckt aber ein riesiges Rechenzentrum, das wie jede Infrastruktur anfällig für Störungen und Ausfälle ist.
Viele Firmen unterliegen außerdem einem großen Irrtum: Sie gehen davon aus, dass ihr Anbieter umfassende Vorkehrungen gegen Risiken wie versehentliches und vorsätzliches Löschen, Diebstahl oder Ransomware-Attacken trifft. Für Backup und Recovery von Cloud-Daten sind jedoch grundsätzlich die Anwender selbst verantwortlich, entsprechende Klauseln finden sich in jedem Vertrag.
SaaS-Betreiber beispielsweise bieten in der Regel nur sehr rudimentäre Möglichkeiten für die Aufbewahrung und Wiederherstellung an. Löscht man etwa Daten in Salesforce, landen sie im Papierkorb, der nach einer gewissen Zeit automatisch geleert wird.
Gegen Ransomware-Attacken sind SaaS-Anwendungen ebenfalls nur bedingt abwehrbereit. Denn auch hier ist das Zeitfenster für die Aufbewahrung von Daten in der Regel knapp bemessen. Wird ein Unternehmen außerhalb dieses Fensters angegriffen, hat es keine Chance, die betroffenen Daten auf einen unverschlüsselten Zustand zurückzusetzen. Außerdem existiert keine Isolierung der aufbewahrten Daten von der Primärumgebung, um das Übergreifen der Ransomware auf diese Daten zu verhindern.
Nummer 3: Edge Computing verschärft Bedrohungslage
Edge Computing und Internet of Things stehen für eine dezentrale IT-Architektur: Anstatt Daten an ein weit entferntes Rechenzentrum weiterzuleiten, werden sie näher am Ort ihrer Entstehung analysiert und verarbeitet. Dadurch sinkt die Latenzzeit deutlich – was insbesondere bei Applikationen, die nahezu Echtzeitinformationen benötigen, den entscheidenden Geschwindigkeitsvorteil bringt.
Edge Computing hat aber auch seine Schattenseiten: Die zahlreichen IoT-Geräte am Netzwerkrand werden schnell zu einem Risiko, sind sie in der Regel deutlich schlechter abgesichert als zentrale Umgebungen. Fehler wie die Inbetriebnahme mit einem Standardpasswort oder eine fehlende Multi-Faktor-Authentifizierung tragen dazu bei.
Da sich Edge-Geräte normalerweise im freien Feld befinden, wächst auch die Gefahr von physischen Manipulationen. Zudem bringen viele dieser Devices schon von Haus aus Sicherheitsmängel mit – etwa Zero-Day-Schwachstellen, fehlende Updates oder die Verwendung veralteter Protokolle mit Sicherheitslücken, die nicht gegen Angriffe gewappnet sind.
„Angesichts der zunehmenden Bedrohungen durch Cyberkriminelle müssen Unternehmen proaktiv Maßnahmen ergreifen, um sich vor Datenverlusten zu schützen.“
Tobias Krause, Dell Technologies
Sehr einfach formuliert kann man sagen: Sind Hunderte Edge-Computing-Geräte im Einsatz, schafft das Hunderte potenzielle Einfallstore für DDoS-Angriffe und andere Sicherheitsverstöße. Werden hier Maßnahmen wie die Verschlüsselung der Daten und abgestufte Zugangskontrollen für die einzelnen Geräte vernachlässigt, haben die Kriminellen leichtes Spiel. Ein Zero-Trust-Ansatz ist nahezu unabdingbar, da Edge Computing die ohnehin illusorische Idee von Perimeter-Sicherheit aufhebt.
Ein ganzheitlicher Ansatz erleichtert die Arbeit
Angesichts der zunehmenden Bedrohungen durch Cyberkriminelle müssen Unternehmen proaktiv Maßnahmen ergreifen, um sich vor Datenverlusten zu schützen. Ein fortschrittlicher Schutz ist dabei auch ein Werkzeug, das eine schnelle Wiederherstellung ermöglicht.
Mit Hilfe eines umfangreichen Sicherheitskatalogs, zu dem unter anderem die Zwei-Faktor-Authentifizierung, die Überwachung von Eindringlingen in das Netzwerk und eine gute Hygiene gehören, um die Systeme immer auf dem aktuellen Patch-Stand zu halten, kann ein Unternehmen seine Widerstandsfähigkeit erheblich verbessern.
Allerdings reichen herkömmliche Backup- und Recovery-Technologien heute nicht mehr aus. Viele Angriffe erfolgen über Malware und Code in Dateien. Wenn diese Dateien gesichert und später wiederhergestellt werden, können nur die Angreifer den Zugriff auf Netzwerke und Daten wiedererlangen.
Auch Backups müssen daher Ransomware-sicher sein. Moderne Lösungen unterstützen beispielsweise automatisches Air Gapping. Lediglich während der Übertragung sind die beiden Systeme miteinander verbunden, ansonsten ist die Verbindung gekappt. Schadsoftware hat es dadurch erheblich schwerer, sich von der Primär- auf die Backup-Umgebung auszubreiten.
In der heutigen Wirtschaft geschieht nichts ohne Daten. Besteht kein Zugriff mehr, so kommt der gesamte Betrieb zum Stillstand. Dennoch geben die meisten Unternehmen offen zu, sich nicht sicher zu sein, ob sie bei Data Protection und Wiederherstellbarkeit gut gerüstet sind. Die Notwendigkeit, schnell zu handeln und eine umfassende, einheitliche Plattform einzuführen, ist zweifelsohne da.
Über den Autor:
Tobias Krause ist Data Protection Software Specialist bei Dell Technologies.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.