buchachon - Fotolia
Was müssen Administratoren über Serverless Computing wissen?
Unternehmen nutzen Serverless-Architekturen für Virtualisierung und Function as a Service. Administratoren müssen zumindest mit den Grundzügen der Technologie vertraut sein.
Jeder Administrator sollte über ein grundlegendes Wissen zum Thema Serverless Computing verfügen. Aber die Funktionserstellung und -bereitstellung ist hauptsächlich die Domäne von Softwareentwicklern. Die meisten Administratoren sind nicht an Serverless Computing-Infrastrukturen im eigenen Unternehmen beteiligt – das ist keine vorteilhafte Situation.
Denn es sind die Administratoren, die vor Ort für die Provisionierung von Rechenleistung und anderen Ressourcen verantwortlich sind, um Workloads abarbeiten zu können. Und auch die Aufgaben im Umfeld der Bereitstellung solcher Workloads an provisionierte Ressourcen, wie etwa virtuelle Maschinen (VM) oder Storage, kommt klassisch den Administratoren zu.
In agilen Entwicklungsmethodiken für Software spielen Administratoren hingegen eine geringere Rolle, denn die Aufgaben der Provisionierung und Konfiguration des Deployments werden oft bei jedem Build- oder Publishing-Vorgang der Software automatisiert neu erstellt. Stand 2019 umfasst das auch bereits die Bereitstellung von Workloads in Cloud-Ressourcen wie AWS EC2- oder S3-Instanzen.
Nun bringen es diese Cloud-Deployments aber mit sich, dass die Ressourcen pro Stunde abgerechnet werden. Das ist überwiegend teuer und ineffektiv. Aus welchem Grund sollte ein Unternehmen Cloud-Ressourcen bezahlen, wenn eine Workload nur über einen vergleichsweise geringen Zeitraum hinweg tatsächlich genutzt wird?
Um diesem Manko abzuhelfen, dass unausgelastete Workloads teure Ressourcen in Anspruch nehmen, haben Cloud-Architekten sich das Prinzip der Funktionen ersonnen. Funktionen ermöglichen es, dass Code in Reaktion auf einen Trigger, also ein Signal hin geladen und ausgeführt wird. Solche Signale können etwa Ereignisse in der echten Welt sein, oder auch programmtechnisch angelegte Reaktionsfunktionen. Sobald die Ausführung des Workloads für dieses spezifische Ereignis abgearbeitet ist, werden die genutzten Ressourcen wieder freigegeben.
Auf diese Weise wird also nicht mehr die dauerhafte zeitliche Inanspruchnahme von Ressourcen bezahlt. Die Rechnung wird vielmehr auf Basis der Anzahl der Aufrufe von Funktionen und deren insgesamt aufgewendeter Zeit im Abrechnungszeitraum fakturiert. Längst ist diese Methodik Alltag geworden und wird entsprechend von allen großen Anbietern und deren Angeboten von AWS über Azure bis Google unterstützt.
Die Bezeichnung Name Serverless Computing für diese Methodik rührt daher, dass Entwickler sich um Provisionierung und Konfiguration von Serverressourcen schlicht nicht kümmern müssen, wenn sie Funktionen einsetzen. Der Begriff ist also hochgradig irreführend: Selbstverständlich werden auch beim Serverless Computing weiterhin Server benötigt, um Funktionen abarbeiten zu können. Sie treten lediglich gegenüber Anwendern und Entwicklern nicht mehr als solche auf.
Für den erfolgreichen Einsatz von Serverless-Architekturen spielen Skalierung und Automatisierung eine entscheidende Rolle. Natürlich kann jedes Unternehmen mit einer Private Cloud auch seine eigene Serverless-Architektur implementieren. An dieser Stelle tritt wieder der Administrator zutage: Die Bereitstellung der Private Cloud eines Unternehmens für die Nutzung von Funktionen im In-House-Service-Menü gehören in seine Hand.
Die Implementierung einer Private Cloud mit Funktionen erfordert durchaus bemerkenswerte Investitionen in die intellektuelle, technische und finanzielle Kapazitäten. In den meisten Fällen werden Unternehmen daher für die Nutzung von Funktionen auf die Vorteile der Skalierung und Automation bestehender Clouds setzen, während bei den Administratoren des hauseigenen Rechenzentrums die Unterstützung und Fortentwicklung der lokalen Infrastruktur für konventionellere Workloads verbleibt.