everythingpossible - stock.adobe
Wie AWS-Speicher die Rechenzentren verändert
Amazon Storage hat immer mehr Einfluss auf die S3-API für Objektsysteme, die Preise, die Haltbarkeit von Daten sowie die Planung und Entscheidungsfindung bei der IT-Infrastruktur.
Die Auswirkungen von AWS-Speicher auf die IT-Welt gehen über die Server und Laufwerke hinaus, die Exabytes an Daten auf Nachfrage für mehr als 2,2 Millionen Kunden speichern. AWS beeinflusst auch IT-Fachleute darin, anders über Storage zu denken und ihr Vorgehen zu verändern.
Seit Amazon im März 2006 Simple Storage Service (S3) einführte, haben IT-Professionelle die Art und Weise, wie sie Speicher kaufen, verteilen und verwalten, einer erneuten Überprüfung unterzogen. Und die Anbieter von Infrastruktur haben das Design und die Preise ihrer Produkte angepasst. Der erste Speicher-Service von AWS löste auch eine Ausrichtung von Technologieunternehmen auf die Public Cloud aus – allen voran Microsoft und Google.
„IT-Abteilungen mussten sich nun selbst als einen weiteren Service-Provider für ihren internen Geschäftskunden verstehen“, erläutert Doug Knight, der die Speicher- und Server-Services bei Capital BlueCross in Pennsylvania leitet. „Wenn wir nicht die gleichen guten Angebote bei Customer Service, Performance, Verfügbarkeit und anderen Dingen machen würden, die man heute von AWS erwartet, dann würden die Kunden nicht mehr zu uns kommen.“
„Das waren die echten Auswirkungen der Cloud“, berichtet Knight. „Sie zwang die IT-Abteilungen, sich zu verändern und weiterzuentwickeln.“
Die IT-Abteilung von Capital BlueCross verstand laut Knight besser, wie man Daten auf den „richtigen“ und besonders kosteneffektiven Systemen speichert, um das jeweils günstigste Performance-Niveau für die Anforderungen der Unternehmen zu liefern. Mit der Alternative von AWS erhalten die Anwender zu verschiedenen Preisen eine Unzahl von Angeboten, einschließlich Block-, File- und Scale-out Object-Speicher, schnellen Flash- und langsameren Festplatten sowie Glacier-Archivierung.
„Wir denken heute mehr in Kategorien der geschäftlichen Probleme, im Gegensatz zu bloßen Daten und Nummern“, erklärt Knight. „Wie viele Gigabytes es sein müssen, das ist nicht länger relevant.“
Capital BlueCross ist bis jetzt nur mit einem begrenzten Ansatz in der Public Cloud vertreten: Er betrifft etwa 100 Terabyte für ein Scale-out Backup Repository in Azure Blob Storage von Microsoft, und die Daten werden über eine Anwendung auf Basis von Software as a Service (SaaS) erzeugt.
Knight geht davon aus, dass der Kunde – eine Versicherungsgesellschaft – „nie in nur einer Cloud sein wird“, und er erwartet irgendwann Workloads bei AWS. Laut den Beobachtungen von Knight haben seine On-Premises-Storage-Anbieter bereits ihre Cloud-Optionen erweitert.
IBM, der hauptsächliche Lieferant von Capital BlueCross, verfügt sogar schon über eine eigene Public Cloud, sie wird aber noch nicht von Capital BlueCross eingesetzt.
Erweiterung der Preise auf Basis des tatsächlichen Verbrauchs
Angesichts fallender Einnahmen haben größere Hersteller wie Dell EMC, Hewlett Packard Enterprise und NetApp AWS-ähnliche, auf Verbrauch gestützte Preise eingeführt, um den Kunden die Möglichkeit zu geben, nur für den Speicherplatz zu bezahlen, den sie wirklich benutzen. Das traditionelle, kapitalaufwendige Modell (CAPEX) führt oft dazu, dass Unternehmen zu viel Speicher kaufen, da sie ihre Kapazitätsansprüche über einen drei- bis fünfjährigen Zeitraum hinweg zu planen versuchen.
Während die Mainstream-Hersteller AWS-ähnliche Lösungen aufgreifen, bessert Amazon weiter sein Storage-Portfolio mit Enterprise-Fähigkeiten auf, die sich auf Block-basierte SAN- und file-basierte NAS-Systeme aus der On-Premises-Welt stützen. AWS fügte im August 2008 Elastic Block Store (EBS) für Anwendungen hinzu, die auf EC2-Instanzen (Elastic Cloud Compute) laufen. Bei File Storage dauerte es länger: Elastic File System (EFS) tauchte 2016 auf und FSx for Lustre und Windows File Server dann 2018.
AWS wagte sich 2015 auf das Gebiet der On-Premises-Hardware mit einer Snowball-Appliance vor, die Unternehmen dabei helfen sollte, Daten in die Cloud zu transportieren. Gegen Ende 2019 brachte Amazon dann die Outposts-Hardware heraus, mit der Kunden Storage-, Compute- und Datenbank-Ressourcen erhalten, um lokale Anwendungen zu schaffen, die die gleichen AWS-Tools und -Services wie in der Cloud verwenden – womit ihre Rechenzentren zu „Außenposten“ der AWS-Cloud umfunktioniert werden.
Die Auswirkungen von Amazon S3 API
Inmitten der sich weiter vergrößernden Menge an Angeboten kann man sich kaum vorstellen, dass irgendein Storage-Angebot von AWS die Popularität und den Einfluss des ersten erreichen könnte. Simple Storage Service, besser bekannt als S3, speichert Objekte auf günstigen Commodity-Servern, die in scheinbar grenzenloser Art und Weise erweitert werden können. Amazon hat zwar nicht Object Storage erfunden, aber sein S3 Application Programming Interface (API) hat sich zum De-facto-Industriestandard entwickelt.
„S3 hat die IT-Abteilungen gezwungen, das Design ihrer Anwendungen zu ändern“, erklärt Julia Palmer, Research Vice President bei Gartner.
Palmer berichtet, dass GoDaddy, der Service Provider für die Registrierung von Internet-Domänen, vor einiger Zeit die Entwicklung eines eigenen Object-Storage-Ansatzes versucht hatte, um sich mit verschiedenen APIs zu verbinden. Aber die Mitarbeiter erkannten allmählich, dass sie sich auf die S3-Schnittstelle konzentrieren mussten, die alle anderen Firmen immer mehr benutzten.
Jeder wichtige Storage-Hersteller unterstützt nun das S3 API, um den Zugang zu Object Storage zu erleichtern. Palmer weist darauf hin, dass Object-Systeme zwar bisher lokal nicht den gleichen Erfolg wie in der Cloud erreicht haben, andererseits aber allein die Vorstellung, dass Speicher auf Commodity-Hardware flexibel, unendlich skalierbar und weniger kostspielig sein kann, einen dramatischen Einfluss auf die IT-Industrie gehabt habe.
Die Anwendungsfälle für Object Storage nehmen zu
Wegen der höheren Performance von Storage in der Cloud und On-premises erweitert sich Object Storage über die ursprünglichen Anwendungsfälle von Backup und Archivierung hinaus in Richtung Workloads wie zum Beispiel Big Data Analytics. Zum Beispiel verkaufen Pure Storage und NetApp All-Flash-Hardware für Object Storage, und der Object-Software-Pionier SwiftStack verbessert den Durchsatz mit parallelen I/O-Systemen.
Enrico Signoretti, Senior Data Storage Analyst bei GigaOm, berichtet, dass er jeden Tag Anrufe von IT-Professionellen bekommt, die Object Storage für mehr Anwendungsfälle einsetzen wollen.
„Alle arbeiten daran, Object Storage schneller zu machen“, sagt Signoretti. „Dieser Ansatz wächst extrem.“
Das IT-Team der Major League Baseball (MLB) versucht, ihre Entwickler zu überzeugen, von Files Abstand zu nehmen und die Daten in S3-Buckets zu schreiben. Man plant dort einen Object Storage Cluster auf Basis der Open-Source-Lösung Ceph mit zehn bis 20 Petabyte.
Truman Boyes, Senior Vice President Infrastruktur bei MLB, erläutert, dass die Entwickler so lange mit Files gearbeitet haben, weshalb es einige Zeit dauern wird, bis sie von den Vorteilen des Object-Ansatzes überzeugt sein werden.
„Aus der Sicht eines Anwendungsentwicklers muss man sich keine Gedanken mehr über ausreichenden Speicherplatz machen. Man muss sich nicht mehr darum kümmern, ob man seine Daten oder Anwendung an die richtigen Stellen kopiert und alle Mechanismen für die Datenintegrität berücksichtigt hat“, erklärt Boyes. „Es passiert einfach. Man verbindet sich mit einer API, und die API übernimmt den Ablauf.“
Ken Rothenberger, ein Enterprise Architect bei General Mills, berichtet, dass S3 Object Storage von Amazon deutlich sein Denken über die Haltbarkeit von Daten beeinflusst hat. Laut Rothenberger verlangen die Unternehmen oft null Datenverluste, und traditioneller Block-Speicher zwingt die IT-Abteilung, Backups und mehrere Datenkopien vorrätig zu halten.
Storage-Wettbewerber von AWS
Im Gegensatz dazu verteilen AWS S3 und Glacier die Daten über mindestens drei Anlagen, die zehn bis 60 km voneinander entfernt sind und eine Lebensdauer von 99,999999999 Prozent zur Verfügung stellen. Bill Vass, Technology Vice President bei Amazon, erläutert, dass die Distanz von zehn Kilometer einem Wirbelsturm der Stärke F5 und einer Ausdehnung von 5 km gewachsen ist und dass die 60 km der Latenz von Lichtgeschwindigkeit entsprechen.
Das Start-up Wasabi Technologies beansprucht ebenfalls eine Lebensdauer von 99,999999999 Prozent für die Daten, allerdings mit einem unterschiedlichen technologischen Ansatz, und greift den Amazon S3-Standard bei Preisen und Performance an. Wasabi hat die Ausgangsgebühren (Egress) für Daten eliminiert und kommt damit einer der hauptsächlichen Klagen von AWS Speicherkunden entgegen.
Vass entgegnet dem, dass die Ausgangsgebühren den Ausgaben für die Netzwerkausrüstung geschuldet sind, die man für einen Netzzugang für S3 mit 8,8 Terabits pro Sekunde braucht. Er gibt auch zu bedenken, dass AWS laufend die Speicherpreise senkt, so wie es auch bei allen übrigen Services gemacht wird.
Und Vass fügt hinzu: „Man erhält in der Regel nicht solche aggressiven Preissenkungen bei den On-Premises-Alternativen, und das zusammen mit den elf Neunen bei der automatisch über drei Orte verteilten Lebensdauer der Daten.“
Amazons Defizite bei Block- und File-Storage haben laut Marc Staimer, President von Dragon Slayer Consulting, einen neuen Markt von „Cloud-benachbarten“ Storage-Providern begünstigt. Staimer verweist darauf, dass Dell EMC, HPE, Infinidat und andere ihre Speichersysteme in Standorten unterbringen, die sich sehr nahe an den Compute-Knoten von AWS befinden. Damit wollen sie „schnellere, skalierbarere und sichere Speicheralternativen“ zu AWS liefern, ergänzt Staimer.
Doch die wirklich ernsthaften Herausforderer von AW Storage bleiben Microsoft Azure und Google Cloud. AWS sieht sich auch einer On-Premises-Konkurrenz von traditionellen Herstellern gegenüber, die die Infrastruktur für die Rechenzentren liefern, in denen viele Unternehmen weiterhin die meisten ihrer Daten speichern.
Cloud- versus On-Premises-Kosten
Jevin Jensen, Vice President der weltweiten Infrastruktur bei Mohawk Industries, berichtet, dass er die Preise der größeren Cloud Provider verfolgt und offen für neue Lösungen ist. Aber zum gegenwärtigen Zeitpunkt sei sein Unternehmen noch in der Lage, die Gesamtkosten von On-Premises-Storage für SAP, Gehaltsabrechnung, Warehouse-Management und andere geschäftskritische Anwendungen um 20 Prozent niedriger zu halten.
Laut Jensen lag der Unterschied bei den Kosten zwischen der Cloud und dem Rechenzentrum von Mohawk anfangs sogar bei 50 Prozent. Er fragte sich damals: „Warum denken wir überhaupt über die Cloud nach?“ Inzwischen fiel die Differenz auf 20 bis 30 Prozent, weil AWS und die anderen Cloud Provider ihre Preise reduzierten.
Wie viele andere Unternehmen auch setzt Mohawk die Public Cloud für seine SaaS-Anwendungen und Kreditkartenprozesse ein. Der in Georgia ansässige globale Hersteller von Bodenbelägen benutzt auch Azure für E-Commerce-Systeme. Jensen berichtet, dass die bloße Ankündigung, mehr Workloads und Daten in die Cloud zu verschieben, zu besseren Rabatten bei seinen Infrastrukturlieferanten geführt hat.