ink drop - stock.adobe.com
So werden Sie mit HCI selbst zum Cloud-Anbieter
Systemhäuser und Hosting-Provider können auf hyperkonvergente Infrastruktur zurückgreifen, um ohne größeren eigenen Mehraufwand ihren Kunden Cloud-Services am Standort anzubieten.
Laut einer Umfrage des Marktforschungsunternehmens True Global Intelligence rechnen die 250 in Deutschland befragten Unternehmen bis zum Jahr 2025 mit einem 4,5-fachen Anstieg der Datenmenge. Das stellt nicht nur IT-Abteilungen vor Herausforderungen, sondern auch Rechenzentrumsbetreiber. Hyperkonvergente Infrastrukturen im White-Label-Modell bieten eine Möglichkeit, um auf flexible Cloud-Ressourcen zurückzugreifen.
Virtualisierung mit Hyperkonvergenz
Um eine unkomplizierte Pflege und einen fehlerfreien Betrieb der IT-Systeme zu erreichen, müssen IT-Experten die zentrale Rolle der optimalen Abstimmung zwischen den verschiedenen Ressourcen berücksichtigen.
In der Praxis bildet sich durch die gemeinsame Erfahrung des Teams über Jahre hinweg diese Konvergenz. Dadurch können Unternehmen einerseits die steigenden Erwartungen an die IT erfüllen und andererseits die Infrastruktur so einfach wie möglich halten. Das reduziert jedoch nicht zwingend den Aufwand bei der Verwaltung und Konfiguration. Die Mehrheit der unabhängigen IT-Ressourcen bleibt nämlich genau das: unabhängig voneinander.
Der nächste logische Schritt in der Evolution abstrahierter IT-Ressourcen ist die hyperkonvergente Infrastruktur (HCI, Hyperconverged Infrastructure). Der Unterschied zur Konvergenz: Eine HCI vereint alle Infrastrukturkomponenten zu einer einzigen umfassenden Appliance. Dabei entsteht durch eine übergreifende Softwareschicht eine virtualisierte Cloud-Infrastruktur. Die Management-Software verwaltet dann alle Ressourcen je nach Bedarf automatisch und erreicht damit im Idealfall eine besonders hohe Skalierbarkeit und Ausfallsicherheit auch bei enormen Datenmengen.
Rechenzentrumsbetrieb mit White-Label-Lösungen
Hyperkonvergente Infrastrukturen bieten also die Chance, ein Rechenzentrum zu virtualisieren und alle Ressourcen gemeinsam zu verwalten. Das macht sie für Systemhäuser und Hosting Provider besonders interessant, da diese einer Vielzahl von Kunden Leistungen aus ihren Rechenzentren anbieten. Nicht nur IT-Abteilungen von Unternehmen müssen sich wechselnden Anforderungen und steigenden Datenmengen stellen, sondern auch IT-Dienstleister. Schließlich wird die Zahl der Unternehmen, die sich digitalisieren, in Zukunft eher zu- als abnehmen.
Um Kunden schnell und einfach eine solche HCI-Appliance zur Verfügung stellen zu können, haben sich White-Label-Lösungen in der Praxis als gute Wahl für Systemhäuser und Service-Provider erwiesen. Es gibt verschiedene Möglichkeiten, ein solches Angebot umzusetzen.
Steht dem Anbieter kein eigenes Rechenzentrum zur Verfügung, kann er die Kapazitäten und Data Center des Cloud-Anbieters nutzen, um seinen Kunden Ressourcen unter der eigenen Marke anzubieten. In einem zweiten Schritt lassen sich über geeignete HCI-Technologien der Cloud-Anbieter auch die Rechenzentren der Systemhäuser und Service-Provider entsprechend aufrüsten und um eine virtuelle Cloud-Infrastruktur erweitern.
IT-Dienstleister sind so in der Lage, auch auf der Basis eigener Rechenzentrumsressourcen schnell einen attraktiven Public-Cloud-Service oder sogar hybride Cloud-Szenarien für ihre Kunden umzusetzen. Aus Sicht von Systemhäusern und Rechenzentrumsanbietern liegt der wohl größte Vorteil dabei im Outsourcing des eigentlichen Managements und der laufenden Wartung der Plattform. Denn diese wird unabhängig von der geographischen Lage zum Beispiel des Systemhauses weiterhin vom IaaS-Anbieter (Infrastructure as a Service) übernommen, und zwar remote vom eigenen Standort aus. Die Partner können sich auf diese Weise ganz auf die Vermarktung ihrer neuen Cloud-Lösungen konzentrieren.
Der Einsatz von Cloud-Services und einer hyperkonvergenten Infrastruktur sind eine geeignete Lösung für die stetig steigenden Anforderungen an einen zukunftsgerichteten IT- und Rechenzentrumsbetrieb. Systemhäuser müssen sich nicht mehr ausschließlich auf ihre physischen Ressourcen verlassen, und sind durch die große Skalierbarkeit der Cloud wesentlich flexibler. So entstehen auch in Zeiten maximaler Zugriffslast auf die Kundensysteme keine Engpässe bei Rechenleistung und Storage-Kapazität. Anhand einer Reihe von Beispielszenarien lassen sich die Vorteile dieses Modells verdeutlichen:
Archivierungssoftware: Insbesondere die E-Mail-Archivierung wird angesichts steigender Mengen immer herausfordernder. Alle Verläufe müssen zuverlässig gespeichert und jederzeit abrufbar sein. Für Anbieter von Archivierungssoftware kann das bedeuten, dass beim Hinzugewinnen eines Neukunden die Datenmenge in kaum zu bewältigendem Maße ansteigt. Hier bietet eine einfachere Erweiterbarkeit eine gute Lösung.
eCommerce: Im Online-Handel gibt es immer wieder zu erwartende Zugriffsspitzen, wie an Weihnachten oder Cyber Monday. Dabei kann es zum Absturz von Servern kommen, so dass Onlineshops nicht mehr zu erreichen sind. Auf der Basis einer Cloud-Infrastruktur können zusätzliche Server bei Bedarf auch in Echtzeit automatisch bereitgestellt werden. Der Vorteil: Ist der Andrang vorüber, lassen sich Ressourcen problemlos wieder abmelden und verursachen keine weiteren Kosten mehr, denn diese berechnen sich nach dem Pay-as-you-go-Prinzip.
Vernetzte Städte: IoT (Internet of Things, Internet der Dinge) ist auf dem Vormarsch und auch die Städte werden immer digitaler. Die fortschreitende Ausstattung mit Sensoren bedeutet aber auch ein rasant wachsendes Datenaufkommen, das je nach Aktivität in der Stadt fluktuieren kann. Von den Schulferien bis zum Feierabendverkehr kann es je nach Tageszeit erhebliche Unterschiede geben. Auch in diesem Fall sind die dynamischen Rechenressourcen der Cloud wahrscheinlich die beste Lösung, um damit umzugehen. Die Ressourcen können bei größeren Unterschieden beliebig hinzukommen oder fahren sich bei Inaktivität herunter.
Ein Beispiel: Datenschutz bei einem IT-Anbieter in der Schweiz
Nehmen wir folgendes Beispiel: ein Schweizer Hosting-Anbieter stellt seinen Kunden mit dem Hybrid-Cloud-Stack eines deutschen Anbieters sowohl Infrastructure- als auch Platform as a Service (PaaS, Plattform als Service) aus seinem eigenen Rechenzentren im Kanton Luzern bereit.
„Hyperkonvergente Infrastrukturen bieten die Chance, ein Rechenzentrum zu virtualisieren und alle Ressourcen gemeinsam zu verwalten. Das macht sie für Systemhäuser und Hosting Provider besonders interessant, da diese einer Vielzahl von Kunden Leistungen aus ihren Rechenzentren anbieten.“
Henrik Hasenkamp, gridscale
Was es bei der Nutzung von Cloud-Services immer zu beachten gilt ist, dass durch Standorte in verschiedenen Regionen in Europa Nutzer und Anbieter an strenge Datenschutzregulierungen gebunden sind. So muss auch in der Public Cloud die Einhaltung der Datenschutz-Grundverordnung (DSGVO) stets gewährleistet sein. Würde beispielsweise ein Systemhaus mit Sitz in der EU die White-Label-Lösung eines Partners in den USA nutzen, könnte das zu Konflikten führen.
Hier bewähren sich Cloud Provider, die ihr Angebot genau an die erforderlichen Regelungen angepasst haben und hinsichtlich dessen auch kompetent beraten können. Das verschafft dem Schweizer Hosting-Anbieter aus unserem Beispiel bei seinen europäischen Kunden einen nicht zu unterschätzenden Vorteil gegenüber der Konkurrenz.
Umfangreicher Nutzen mit wenig Aufwand
Die Vorteile hyperkonvergenter Infrastruktur sind bekannt: hohe Skalierbarkeit, automatische Ressourcenplanung und große Flexibilität. Was für IT-Unternehmen bereits geläufig ist, bahnt sich nun auch seinen Weg in die Systemhäuser und zu den Rechenzentrumsbetreibern.
Zu den Herausforderungen gehören wachsende Anforderungen und immer größer werdende Workloads im digitalen Raum bei zeitgleich steigendem Konkurrenzdruck. Der Zugang zur Public Cloud mit HCI-Systemen kann dabei helfen, diesen Aufgaben gerecht zu werden. Whitelabel-Angebote sind dazu ganz besonders geeignet und verlangen Rechenzentrumsbetreibern kein umfangreiches Cloud-Know-how ab, da Betrieb und Wartung oftmals weiterhin vom IaaS-Anbieter selbst übernommen werden.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.