Tierney - stock.adobe.com
Warum Kubernetes-Backups so wichtig sind
Backup wird im Zusammenhang mit Containern und Kubernetes oft nicht als wichtig erachtet. Warum es durchaus gute Gründe für eine Datensicherungsstrategie gibt, erklären wir hier.
Immer mehr Unternehmen setzen für die digitale Struktur der eigenen Anwendungen auf Container. Für viele ist der einfachste Weg, diese zu verwalten, Kubernetes als Framework zu verwenden. Durch die ohnehin breite Verwendung und die Menge an Hilfsmaterialien, ist es ein oft gewählter Ansatzpunkt für Unternehmen, um Container in die eigenen Prozesse einzubinden.
Kubernetes hat sich so zum de-facto Standard für Container-Orchestrierung und Management entwickelt. Erfahrungsgemäß ist Backup nicht das erste Thema, über das man sich Gedanken macht, wenn man eine neue Technologie einführt, daher spricht man dabei von sogenannten „Day-2-Operations“.
Ursprünglich waren Container dazu gedacht „stateless“ Anwendungen zu managen. Kubernetes als Framework entstammt dem Software-Giganten Google und wenn man sich die Suchmaschine ansieht, ist es hier nicht notwendig die Daten, also die Suchanfragen, persistent zu speichern. „Stirbt“ ein Container oder das System, auf dem dieser läuft, wird einfach ein neuer Container gestartet und der User muss seine Suchanfrage neu absetzen oder die Website aktualisieren.
Wollte man Daten behalten, mussten diese in Datenbanken oder Speicherorten außerhalb von Containern gespeichert werden. Dann wurden jedoch persistente Volumes eingeführt, also Speicherplatz, der den „Tod“ eines Containers überdauert und von einem neugestarteten Container weiterverwendet werden kann.
Hier gab es lange einen Kampf der Philosophien – stateless vs. stateful
Mittlerweile gibt es immer mehr Datenbanken und Applikationen, die stateful auf Kubernetes laufen und eben auch ihre Daten in der Containerwelt ablegen. Spätestens dann muss man sich Gedanken um eine Datensicherung machen, sollte es sich dabei um wichtige Daten handeln. Kunden, die also eine gewisse Verfügbarkeit ihrer Entwicklungsumgebung gewährleisten müssen, sollten spätestens, wenn produktive Workloads auf Kubernetes betrieben werden, auch darüber nachdenken, wo und wie diese gespeichert werden müssen. Wird hier nämlich falsch konfiguriert oder nicht auch für den Ernstfall geplant, so droht dem Unternehmen der Verlust von wichtigen Daten, welcher immer auch mit einem finanziellen Verlust und einem Vertrauensverlust der Kunden einhergeht.
„Eine Applikation in Kubernetes besteht in der Regel aus verschiedenen Komponenten und entsprechend sollte die Lösung in der Lage sein, diese Workloads Policy-basiert zu sichern und bei Bedarf auch wiederherzustellen.“
Thomas Sandner, Veeam
Wer es also vermeiden will, dass die sprichwörtlichen Fließbänder des eigenen Unternehmens zum Erliegen kommen, statt dem erhofften Boost durch die Adaption einer neuen und agileren Technologie, der sollte auch „Day-2-Operations“ mit höchster Priorität angehen. Für Kubernetes bedeutet das, dass Backups und Disaster Recovery nativ in Kubernetes geschehen sollten. Dabei sollte die gewählte Backup-Management-Lösung selbstständig erkennen, welche Applikationen auf dem Kubernetes Cluster laufen, auf dem sie aktiv sind. Eine Applikation in Kubernetes besteht in der Regel aus verschiedenen Komponenten (Pods, Services, Deployments, Namespace) und entsprechend sollte die Lösung in der Lage sein, diese Workloads Policy-basiert zu sichern und bei Bedarf auch wiederherzustellen.
Stolpersteine können dabei Wiederherstellungen sein, die über verschiedene Kubernetes-Versionen hinweg geschehen – moderne Lösungen sind allerdings in der Lage, die Backups entsprechend zu transformieren. Dadurch sind Unternehmen in der Lage, die Bandbreite an Vorteilen, welche die Container-Technologie und Kubernetes anbieten, besser zu nutzen, während sie gleichzeitig gegen Ausfälle und Probleme gerüstet sind.
Über den Autor:
Thomas Sandner ist Senior Director Technical Sales Germany bei Veeam Software, einem Anbieter von Backup-, Recovery- und Datenmanagementlösungen für moderne Datensicherung. Sandner ist Fachinformatiker für Systemintegration und verbrachte die ersten Jahre seiner Karriere bei Fujitsu Technology Solutions. Vor 8 Jahren wechselte er dann als System Engineer und Presales Consultant zu Veeam und hatte über die Jahre verschiedene Positionen inne. In seiner aktuellen Rolle fokussiert er sich auf den Ausbau des Veeam-Geschäfts auf Basis des Plattform-Angebots für Cloud-, virtuelle, physische, SaaS- und Kubernetes-Workloads in Deutschland.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.