mars58 - Fotolia
Mit Hyperkonvergenz den Ressourcenhunger beherrschen
Hyperkonvergente Infrastrukturen (HCI) sind stark und zukunftsfähig. Mit Quality of Service (QoS) sind sie in der Lage, das Noisy-Neighbor-Syndrom in die Schranken zu verweisen.
Dedizierte Workloads konsolidieren auf einer einfach zu managen Plattform – diesen Ansatz verfolgen die neuen hyperkonvergenten Systeme, indem ihre Speichersysteme eine Quality of Service durchsetzen. Das Lastverhalten lässt sich dabei konkret über zwei Wege regeln. Zum hochautomatisierten Betrieb tragen noch andere neue Features der Alles-in-einer-Box-Lösung bei.
Kaum eine Infrastruktur ist bisher vor dem Noisy-Neighbour-Syndrom gefeit. Dieses Phänomen besagt: Welche Anwendung am lautesten nach höheren I/Os und mehr Bandbreite schreit, erhält die gewünschten Ressourcen. Die anderen Applikationen müssen mit dem Rest klarkommen. Ihre Performance sinkt, in der Folge wird der Betrieb gestört.
Mit dieser Einschränkung hatten auch Anwender bis vor kurzem zu kämpfen, wenn sie hyperkonvergente Infrastruktur (HCI) einsetzten und mehrere Workloads auf einem System laufen ließen. Die nächste HCI-Generation, die bereits auf dem Markt ist, hebt diese Limitierung auf.
Die verbesserte HCI basiert auf Standardhardware. Auf dieser setzen Speicherbetriebssystem sowie Hypervisor auf, die in der Minimalkonfiguration vier Storage und zwei Compute Nodes steuern. Integriert sind verschiedene Datenservices wie Hochverfügbarkeit, Replikation, Datensicherung, Reduktion sowie Backup und Recovery. Schnittstellen stehen zur Verfügung, um beispielsweise Amazon Web Services, Commvault, Intel, MongoDB Enterprise, Veeam und VMware einzubinden.
Speicher mit QoS-Funktionalität?
Das Ziel, Störungen und Performance-Einbußen im IT-Betrieb zu verhindern, lässt sich über eine garantierte Quality of Service (QoS) erreichen. Das bedeutet: Ein IT-Verantwortlicher weist jeder Applikation einen Minimalwert, einen Maximalwert und einen Burst-Wert an IOPS zu.
Soweit nichts Neues, denn im Netzwerk wird die Technologie schon seit vielen Jahren angewendet. Auf die Weise gelingt es, VoIP-Pakete zu priorisieren und verschiedene Klassen anzubieten. Doch bei Speichersystemen trifft man QoS – wenn überhaupt – nur selten an. Storage liefert allerdings die Grundlage, damit Applikationen hochperformant laufen.
Unter diesen Gegebenheiten passiert es schnell, dass latenzkritische Workloads in Silos landen. Datenbanken, Virtual Desktop Infrastructure (VDI) und Applikationen werden hierbei genauso isoliert wie Entwicklungs- und Testumgebung.
Die neuen HCI-Lösungen beenden Silobildung im Rechenzentrum, wenn in ihrem Speicherbetriebssystem QoS integriert ist. In dem Fall können auf einem dieser integrierten Systeme viele unterschiedliche Applikationen im Parallelbetrieb laufen – und zwar stabil.
Selbst bei einer Kombination von VDI mit der Produktionsdatenbank fällt die Leistung nicht ab. Wie viel Bandbreite eine Anwendung genau beansprucht, hängt von vielen Faktoren ab. So kann es allein innerhalb einer Applikation unterschiedliche Anforderungen geben. Über Reportings lässt sich gut ermitteln, was eine Applikation benötigt.
VM zusammen oder getrennt administrieren
Es gibt nun zwei Wege, die Performance von Applikationen zu garantieren. Bei der ersten Variante wird QoS direkt in VMware, OpenStack oder CloudStack integriert. Das hat zur Folge, dass Unternehmen das Lastverhalten über Policies realisieren können, ohne jede einzelne virtuelle Maschine (VM) administrieren zu müssen. Die Alternative soll genau das Gegenteil herbeiführen – die Trennung pro VM. Für diese zweite Option bietet sich eine vVOL-Integration an.
Generell erleichtert ein zentrales Dashbord Administratoren, alle Komponenten zu managen. Eine zusätzlich eingebaute Deployment Engine vereinfacht und beschleunigt die Installation der HCI-Lösung. Da die meisten Schritte automatisiert ablaufen, dauert es beispielsweise bei der HCI von NetApp nur eine knappe Stunde, das System in Betrieb zu nehmen. Auch Standard-IT-Aufgaben wie das Aufsetzen und Provisionieren einer VM oder von Backups sind automatisiert.
Wachsen in zwei Richtungen
Soll auf einer HCI, auf der bereits mehrere Workloads laufen, noch zusätzlich eine weitere anspruchsvolle Anwendung performen, kann diese Anforderung zu einem Kapazitätsengpass führen. Es droht jedoch kein kostspieliges Upgrade. Denn eine neue HCI lässt sich horizontal skalieren.
„Die neuen hyperkonvergenten Systeme sind darauf ausgelegt, dedizierte Workloads wie VDI oder große SQL- und NoSQL-Datenbanken zu konsolidieren.“
Johannes Wagmüller, NetApp
Bei Bedarf erweitert ein Unternehmen bloß den Speicher, es muss nicht in neue CPU investieren. Das komponentenunabhängige Skalieren funktioniert auch anders herum. Das Wachstum ist dadurch nicht mehr an feste Blöcke gebunden. Unternehmen bleibt die sonst übliche Überprovisionierung erspart.
Wegen ihrer flexibler Skalierung und QoS-Funktionalität sind die neuen hyperkonvergenten Systeme für den automatisierten Betrieb großer SQL- und NoSQL-Datenbanken prädestiniert.
Darüber hinaus können HCI den Betrieb an Remote-Standorten, in der agilen Softwareentwicklung und für DevOps sowie im Edge Computing und bei IoT-Anwendungen automatisieren und effizienter machen. Mit solchen hochintegrierten Systemen gelingt es, die Cloud-Vorteile über RESTful API in der firmeneigenen IT zu nutzen. Unternehmen benötigen dazu jedoch zusätzlich eine zentrale Daten-Management-Plattform wie die NetApp Data Fabric, um Daten direkt in die Cloud zu übertragen und zurückzuholen.
Kleines Abbild der Zukunftsfähigkeit
Die neuen hyperkonvergenten Systeme sind darauf ausgelegt, dedizierte Workloads wie VDI oder große SQL und NoSQL-Datenbanken zu konsolidieren. Denn die Alles-in-einer Box-Lösung bieten ein flexibles und unabhängiges Skalieren von Compute und Storage sowie eine garantierte Performance über eine integrierte QoS-Funktionalität.
Diese Mikrorechenzentren automatisieren letztendlich Infrastrukturen, wodurch sie im Kleinen bereits abbilden, woran sich ein komplettes Next-Generation Data Center in Zukunft messen lassen muss: Inwieweit gelingt es der internen IT, sofort, einfach und kostengünstig Ressourcen bereitzustellen. Applikation erhalten dann genau das, was sie für ihren Betrieb benötigen. „Laut schreien“ muss dann keine Anwendung mehr.
Über den Autor:
Johannes Wagmüller ist Director Systems Engineering bei NetApp.
Folgen Sie SearchStorage.de auch auf Twitter, Google+, Xing und Facebook!