nirutft - stock.adobe.com
Kein Randthema mehr: Edge Computing für Unternehmen
Edge-Computing entlastet Netzwerke und reduziert dadurch die Kosten und den Aufwand beim Cloud-Computing. Verantwortliche sollten sich mit diesen Vorteilen auseinandersetzen.
Die meisten Unternehmen haben mittlerweile die Vorteile der Cloud für sich entdeckt: Innerhalb weniger Klicks sind Rechenleistung, Speicher und Co. bereitgestellt und lassen sich in die eigene Infrastruktur implementieren. Dennoch ist die Cloud kein Allheilmittel: Bei einer verbrauchsorientierten Abrechnung, können die Kosten sehr schnell sehr hoch werden, wenn Sie nicht genau kontrollieren, in welchem Umfang Ihre Mitarbeiter auf die Cloud zugreifen.
Eine Lösung für dieses Problem ist ein Filter am Rande des Netzwerks, der Daten vorsortiert und nur diejenigen an die Cloud weitergeschickt, deren Bearbeitung sich auch wirklich lohnt. Für den Netzwerkrand hat sich passenderweise der Begriff Edge etabliert. Wir klären in diesem Beitrag, worum es sich dabei handelt, wie Unternehmen davon profitieren können und worauf sie bei der Integration achten sollten.
Edge & versus Fog: Alter Wein in neuen Schläuchen?
Doch was bedeutet Edge überhaupt? Die Idee dahinter ist einfach: Edge Computing bezeichnet eine verteilte Architektur, die darauf abzielt, Rechen-, Speicher oder Netzwerkleistung in die Nähe der Orte zu bringen, an denen die Daten generiert und die Anwendungen benötigt werden – also an den Rand (Edge) des Netzwerkes. So nehmen smarte Produktionsgeräte in einer Fabrik eine erste Bearbeitung der Daten vor, bevor sie sie an die Cloud weiterleiten. Die Datenflüsse lassen sich auf diese Weise lokal autonom, ohne den umständlichen Weg über die Cloud verarbeiten. Dies spart Zeit (Latenzen), Bandbreite und Kosten.
Gänzlich neu ist der Ansatz indes nicht: Verteilte Architekturen, die Computing-Ressourcen für Webanwendungen näher an den Ort des Geschehens zu bringen, gibt es schon seit mehreren Jahren von unterschiedlichen Akteuren. So hat beispielsweise Cisco das Prinzip des Fog-Computings geprägt. Die Funktionsweise und Metaphern ähneln sich bei Edge und Fog stark: Beim Fog-Computing wird, wie bei der Edge, die Rechenleistung auch am Rand des Netzwerks bereitgestellt. Der zentrale Unterschied bei beiden Konzepten:
- Edge Computing bringt die Verarbeitung der Daten auf die im Netzwerk befindlichen Endgeräte und hausinternen Server.
- Fog-Computing setzt auf zahlreiche Mini-Rechenzentren, welche die Datensortierung übernehmen.
Konkret heißt das: Der Fokus beim Edge Computing liegt stärker auf der Dezentralisierung der Datenverarbeitung, während Fog-Computing die Cloud näher an die eigene Infrastruktur heranbringt. Beide Ansätze verfolgen aber das Ziel, Cloud-Ressourcen zu schonen, indem sie den ausgehenden Netzwerkverkehr innerhalb des eigenen Netzes vorsortieren und priorisieren.
Bei allen Vorteilen, die Edge Computing mit sich bringt, hat es auch Risiken: Management, Absicherung und Skalierung sind auf verteilten Geräten und Servern deutlich schwieriger als in einem zentralen Cloud-Rechenzentrum. Entscheidend ist letztlich, die richtige Balance zwischen zentralisierten und dezentralen Anwendungs- und Serverbetrieb zu finden, die damit einhergehenden Vorteile auszuschöpfen und Risiken zu minimieren
Die Edge in der Anwendung
Anwendungsbeispiele für den Betrieb von Edge-Infrastrukturen in Kombination mit einer Cloud gibt es viele:
So funktioniert die Sprachverarbeitung von elektronischen Assistenten nach diesem Prinzip. Tätigt ein User eine Spracheingabe, sortiert das Programm auf dem Endgerät die Daten, die in die Cloud kommen sollen. Auf diese Weise lassen sich sowohl der Datenverkehr zur Cloud hin als auch die Latenzzeit verringern.
„Ob und welche der Technologien – Cloud und Edge – in Zukunft durchsetzen wird, ist unklar. Auch eine Koexistenz der beiden Ansätze, wie es heute der Fall ist, liegt im Bereich des Möglichen. Was wiederum klar ist: Entscheider müssen sich mit den Möglichkeiten, die die Edge liefert, auseinandersetzen“
Henrik Hasenkamp, Gridscale
Besonders die Industrie bietet diverse Anwendungsmöglichkeiten für Edge Computing: Moderne Produktionsmaschinen sammeln mit ihren Sensoren eine Fülle von Daten, die für verschiedene Zwecke an Cloud-Lösungen weitergeleitet werden.
Die Möglichkeiten reichen hier von der Zustandsüberwachung über die Ersatzteilbestellung bis hin zur vorausschauenden Instandhaltung. Würden diese Systeme alle gesammelten Informationen an Cloud-Dienste weiterschicken, würde das die Bandbreite überlasten und die Latenz zwischen Geräten und Cloud-Lösung in die Höhe treiben. Auch hier übernimmt die Edge die Priorisierung der Daten, die an die Cloud gehen sollen.
Faktoren für den Einsatz der Edge im eigenen Unternehmen
Obwohl das Thema Edge Computing kein gänzlich neues ist, lohnt es sich für Unternehmen, sich mit den Möglichkeiten auseinanderzusetzen. Insbesondere diese Faktoren sprechen dafür:
Fortschreitende Cloudifizierung des eigenen Unternehmens
Die meisten Unternehmen haben erkannt: An der Cloud führt aus vielen Gründen kein Weg mehr vorbei. Allerdings ist die Cloud alleine keine Lösung, vor allem der wachsende Datenverkehr stellt bei rein auf Cloud Computing ausgelegten Architekturen (Latenzen, Kosten für den Datenverkehr, Netzwerkstörungen) ein Risiko dar: Bandbreiten-intensive und Latenz-sensible Anwendungen beeinflussen, wie schnell Ergebnisse für das Unternehmen vorliegen – der Edge hilft hier, Bandbreite und Latenz zu schonen.
Marktfähige Angebote – vorangetrieben von der Cloud-Industrie
Bei der Umsetzung von Edge Computing geht es darum, eine Vielzahl von Akteuren zu koordinieren, darunter Hardwarehersteller, Telekommunikationsanbieter, Netzwerkausrüster und so weiter. Dies trägt zur Komplexität der Edge-Technologie bei und sorgte in der Vergangenheit zu Anwendungsproblemen. Der Markt scheint sich nun zu konsolidieren – auch wegen der verstärkten Engagements der großen Cloud-Plattformen. Gartner etwa schätzt, dass bis Ende 2023 etwa 20 Prozent der großen Edge-Computing-Plattformen von Cloud Hyperscalern bereitgestellt werden. Im Jahr 2020 waren es gerade einmal ein Prozent. Neben Branchengrößen wie Amazon und Microsoft bauen auch europäische Anbieter im Schulterschluss mit Hardwareanbietern und Telkos ihre Edge-Angebote aus.
Fazit
Ob und welche der Technologien – Cloud und Edge – in Zukunft durchsetzen wird, ist unklar. Auch eine Koexistenz der beiden Ansätze, wie es heute der Fall ist, liegt im Bereich des Möglichen. Was wiederum klar ist: Entscheider müssen sich mit den Möglichkeiten, die die Edge liefert, auseinandersetzen, alleine schon aus Effizienz- und Kostengründen.
Es ist wichtig, die richtige Balance zwischen zentralisiertem und dezentralem Anwendungs- und Serverbetrieb zu finden. Unternehmen profitieren so von den Vorteilen und minimieren gleichzeitig die Risiken. Angesichts der steigenden Beliebtheit von Edge Computing sollten Unternehmen sich mit den Möglichkeiten, die die Technik bietet, auseinandersetzen. Und wenn der Edge-Ansatz für die IT-Infrastruktur des eigenen Unternehmens in Frage kommt, einen erfahrenen Partner zur Umsetzung finden.