zhu difeng - Fotolia
Container und Edge Computing auf dem Prüfstand
Edge Computing in Kombination mit Containern stellt Unternehmen vor einige Herausforderungen – der richtige Einsatz von Kubernetes kann hier helfen.
Edge Computing ist in aller Munde – in IT-Fachkreisen und Unternehmen. Was steckt aber eigentlich dahinter? Edge Computing ist eine topologie- und standortabhängige Form von Distributed Computing, das Rechenressourcen und Datenspeicherung näher an die Datenquellen bringt. Dadurch sollen die Antwortzeiten verbessert und Bandbreite eingespart werden. Edge Computing erschließt viele neue Geschäftsmöglichkeiten in Bereichen wie Fertigung, Einzelhandel, Gesundheitswesen und Telekommunikation. Es bringt den Dienst und den Benutzer näher zusammen, um völlig neue Dienste zu ermöglichen oder das Benutzererlebnis bei bestehenden Diensten zu verbessern. Die meisten Beispiele sind netzabhängige Anwendungen wie Live-Interaktionen, Augmented Reality, Connected Car, autonomes Fahren oder Fertigung.
Was macht Edge zu einer Herausforderung?
Die Verwaltung des Umfangs, der Verteilung und des Lebenszyklus von Anwendungen an einer großen Anzahl von Edge-Standorten erfordert jedoch die Erfüllung mehrerer Kriterien. Eines davon ist Sicherheit: Es ist von entscheidender Bedeutung, eine wirksame Isolierung von Workloads zu gewährleisten, damit sich Ressourcen und Daten in einer mandantenfähigen Einrichtung nicht gegenseitig beeinflussen. Die Betreiber sollten zudem in der Lage sein, die Ressourcen zentral zu verwalten. Außerdem sollte das System im Falle einer Datenpanne in der Lage sein, aus der Ferne und unabhängig zu arbeiten. Im Betrieb erfordert ein effektives Edge-System einen hohen Automatisierungsgrad samt Selbstheilungsfähigkeiten, um die Auswirkungen von geringer Netzbandbreite, Latenzzeiten oder Ausfällen zu verringern.
Edge-Systeme nutzen offene Standards und zeichnen sich dadurch aus, dass sie in der Lage sind, neue Workloads schnell zu implementieren und sie in eine Vielzahl unterschiedlicher Umgebungen zu integrieren. Ebenso sollten sich Edge-Computing-Plattformen in verschiedenen Szenarien vorhersehbar verhalten, um ein konsistentes und stabiles Nutzererlebnis zu bieten. Zudem müssen Edge-Systeme eine Abstraktionsschicht für Infrastrukturkomponenten bieten, um die Portabilität von Anwendungen und Workloads über verschiedene Plattformen hinweg zu unterstützen. Edge Computing ist ins Interesse gerückt mit der zunehmenden Beliebtheit von Containern, insbesondere basierend auf Kubernetes, in verschiedenen Anwendungsfällen wie IoT, 5G oder KI/ML. Angesichts von Bereitstellungen mit zunehmender Anzahl von Clustern wird die Verwaltung dieser Cluster und der darin laufenden Anwendungen schnell zur Herausforderung.
Der Optimalfall des IT-Betriebs ist eine einzige Oberfläche, die einen Überblick über und Einblick in die gesamte IT-Infrastruktur bietet. Mit jeder neuen Technologiegeneration und den zusätzlichen Tools, die dem Stack hinzugefügt werden, scheint dieser Optimalfall jedoch immer weiter in die Ferne zu rücken, anstatt näher zu kommen. Wenn Unternehmen Edge Computing in ihre Technologielandschaft einbeziehen wollen, um ihren Kunden neue Dienste anzubieten, wägen sie daher sorgfältig ab, wie es sich in die bestehende Infrastruktur integrieren lässt. Mit der Abkehr von traditionellen Rechenzentren und sogar vom Cloud Computing stellt das Edge Computing eine große betriebliche Herausforderung dar. So gilt es, eine Vielzahl von Infrastrukturen an unterschiedlichen Standorten effizient und effektiv zu verwalten. Darüber hinaus stellt sich angesichts der Notwendigkeit, sowohl Container als auch virtuelle Maschinen am Rande des Rechenzentrums auszuführen, die Frage, wie sich all diese Managementprozesse nahtlos integrieren lassen.
Der Weg zum Edge Computing im operativen Bereich
Unternehmen, die Edge Computing in Betracht ziehen, stellen sich einigen Herausforderungen. Erforderlich ist eine konsistente Infrastruktur, um die Anzahl der Server und Bereitstellungen zu reduzieren. Automatisierung und Selbstheilungsfunktionen sind nötig zur Senkung der Betriebskosten. Zudem ist der gemeinsame Betrieb von Legacy- und Greenfield-Anwendungen zu bewerkstelligen.
„Standardisierung und Automatisierung von Cloud-Native-Technologien wie Kubernetes sind für Edge Computing unverzichtbar, so viel ist klar. Es stellt sich jedoch die Frage, wie Container und virtuelle Maschinen in einem Stack verwaltet werden können.“
Sebastian Scheele, Kubermatic
IT-Führungskräfte wissen, dass Automatisierung und Standardisierung bei der Bereitstellung und Verwaltung von Anwendungen die Produktivität erheblich verbessern und gleichzeitig die Kosten senken können. Sie sind sich bewusst, dass sie sich diesen Herausforderungen stellen müssen, wenn sie ihre Edge-Computing-Ziele erreichen wollen. Ein stetiges Thema ist jedoch, dass zwar alle Anwender ehrgeizige Edge-Computing-Ziele haben, die meisten aber noch in der Phase des Konzeptnachweises stecken oder nur eine Handvoll Anwendungen implementiert haben. Deshalb stellt sich die Frage, wie sich Edge Computing für den operativen Betrieb umsetzen lässt.
Standardisierung und Automatisierung von Cloud-Native-Technologien wie Kubernetes sind für Edge Computing unverzichtbar, so viel ist klar. Es stellt sich jedoch die Frage, wie Container und virtuelle Maschinen in einem Stack verwaltet werden können. Diese Hürde lässt sich ebenfalls mit Cloud-Native-Ideen lösen, denn alles, was erforderlich ist, ist eine konsistente Methode zur Verwaltung von Containern und virtuellen Maschinen.
Mit Tools wie KubeVirt können virtuelle Maschinen als Pods innerhalb von Kubernetes ausgeführt werden, so dass Container und virtuelle Maschinen Seite an Seite mit einem Infrastruktur-Stack betrieben werden können. Das bietet Entwicklern, Betreibern und Unternehmen zahlreiche Vorteile, selbst wenn es nur um die Cloud geht. Wenn das auf den Edge-Bereich ausgedehnt wird, sind die Vorteile sogar noch größer. Durch den Einsatz von Kubernetes und KubeVirt am Edge erhalten Unternehmen die Möglichkeit, einen gemeinsamen Stack zu betreiben, unabhängig vom Workload und mit nur einem Satz von Tools.
Unerlässliches Multi-Cluster-Management für Edge Computing
Kubernetes bietet viele Fähigkeiten, um die Skalierung und Verteilung von Edge Computing zu bewältigen, einschließlich der Möglichkeit, Container und virtuelle Maschinen nebeneinander auszuführen. Für Edge Computing sind jedoch viele Cluster erforderlich, sogar mehrere an jedem Standort, um Latenzzeiten und andere technische Anforderungen zu bewältigen. Um den Optimalfall des Single Pane of Glass zu erreichen, ist daher eine Lösung für Multi-Cluster-Management unerlässlich.
Eine Kubernetes-Plattform wie Kubermatic kann genau diese Herausforderung lösen. Sie bietet automatisiertes Multi-Cluster-Management über jede beliebige Infrastruktur hinweg und ermöglicht Unternehmen die Bereitstellung, Steuerung und den Betrieb ihrer Edge-Computing-Umgebungen über eine einzige Oberfläche. Außerdem lässt sich KubeVirt nahtlos integrieren, im Sinne des Single Pane of Glass-Ansatzes. So gelingt es, Edge Computing mittels Kubermatic produktiv nutzbar zu machen für moderne Anwendungen.
Über den Autor:
Sebastian Scheele ist CEO und Mitbegründer von Kubermatic.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.