Hyperscale Computing
Hyperscale Computing ist eine verteilte Infrastruktur, die schnell eine erhöhte Nachfrage nach Internet- und Backend-Rechenressourcen bewältigen kann, ohne dass zusätzlicher Platz, Kühlung oder Strom benötigt wird. Hyperscale Computing zeichnet sich durch Standardisierung, Automatisierung, Redundanz, High Performance Computing (HPC) und Hochverfügbarkeit (HA) aus. Der Begriff wird oft mit Cloud Computing und den sehr großen Rechenzentren von Facebook, Google, Amazon und Netflix in Verbindung gebracht.
Während ein Unternehmensrechenzentrum vielleicht Hunderte von physischen Servern und Tausende von virtuellen Maschinen (VM) unterstützt, muss ein Hyperscale-Rechenzentrum Tausende von physischen Servern und Millionen von virtuellen Maschinen verarbeiten. Um dieser Nachfrage gerecht zu werden, haben Cloud-Anbieter wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) neue Infrastrukturen entwickelt, die die Hardwaredichte maximieren und gleichzeitig die Kosten für Kühlung und Verwaltungsaufwand minimieren.
Das Interesse an Hyperscale Computing ist groß. Die Open-Source-Software und die architektonischen Änderungen, die für Hyperscale-Rechenzentren entwickelt wurden, lassen sich auch auf kleinere Rechenzentren übertragen werden und ihnen helfen, den physischen Raum effizienter zu nutzen, weniger Strom zu verbrauchen und schneller auf die Bedürfnisse der Benutzer zu reagieren. Zu den Hyperscale-Innovationen, die von kleineren Unternehmen übernommen werden, gehören Software-defined Networking (SDN), konvergente Infrastruktur und Mikrosegmentierung.