pressmaster - stock.adobe.com
Entscheidungshilfe für die Auswahl des passenden Servers
Nicht immer fällt die Entscheidung zwischen kleinen, günstigen Rechnern und großen, aber teuren Servern leicht. Welche Aspekte und Faktoren eine Neuanschaffung beeinflussen.
Es ist nicht immer eine einfache Aufgabe, die richtige Größe für einen neuen Server zu bestimmen, der heutzutage meist in einem virtuellen Cluster eingesetzt werden soll. Zur Wahl stehen einerseits einige wenige, große und besonders performante Maschinen und andererseits viele kleine, einzeln weniger leistungsstarke, aber dafür deutlich günstigere Server. Administratoren sollten die jeweiligen Vorteile in Anbetracht ihrer spezifischen Bedürfnisse genauestens miteinander vergleichen.
Die Entscheidung zwischen großen oder kleinen Maschinen führt auch zu der Frage, ob es besser ist, mit Hilfe eines Clusters und der Nutzung effizienter großer Server nach oben zu skalieren oder sich mit Hilfe der Cloud und vieler kleiner Server nach außen zu orientieren.
Wie so oft, gibt es auf diese Frage leider keine einfache Antwort. Zu viel hängt von verschiedenen Faktoren ab, die jeweils eine Rolle spielen und die in die Überlegungen mit einbezogen werden müssen. Vorhandene Legacy-Anwendungen und monolithischer Code tendieren in Richtung eines nach oben skalierbaren Modells. Anwendungen, die sich nicht auf mehrere Maschinen aufteilen lassen, können auch nicht nach außen skaliert werden. Das gleiche gilt für Software, die nicht für Multi-Kern-Prozessoren geschrieben wurde und die deswegen nicht vom Hinzufügen weiterer Kerne profitiert.
Die richtige Server-Größe hängt von vielen Faktoren ab
Die kompakten Server funktionieren am besten mit Anwendungen, die bereits an hoch skalierbare Cloud-Infrastrukturen angepasst wurden. Allein durch das Hinzufügen weiterer Maschinen lässt sich so die Rechenleistung erhöhen. Genau das ist die Essenz von Cloud Computing: Wachstum durch Klonen.
Aber auch das Portfolio eines beliebigen Cloud-Anbieters zeigt schnell, dass die Cloud sowohl kleine als auch große Instanzen benötigt. Die kompakten Einheiten kommen beispielsweise schnell an ihre Grenzen, wenn mehr als das ihnen zur Verfügung stehende RAM verlangt wird.
Große Server sind aber nur auf den ersten Blick eine passende Antwort für dieses Problem – auch wenn sie theoretisch eine Fragmentierung bis auf dieselben kleinen Instanzen erlauben, die mit kompakten Servern möglich sind. Der Grund für diese Unterscheidung sind die jeweiligen Anwendungsfälle. So erfordert zum Beispiel das Ausliefern von Webseiten nur vergleichsweise wenig Festplattenzugriffe und wenig RAM. Deswegen können hier auch billige Server, die nur eine einzige Höheneinheit in einem Rack belegen (1 Unit beziehungsweise 1U), ohne Probleme mit nur einer einzigen SATA-Festplatte viele Webserver-Instanzen bereitstellen.
Auch ein einzelner großer Server kann das natürlich leisten. Er erfordert jedoch meist mehrere teure SSDs, um umfangreiche Instanzen bereitstellen zu können. Dazu kommt sein weit höherer Bedarf an RAM pro Kern. Die Kosten pro Instanz sind deshalb bei kleinen Servern weit niedriger. Der Trend zu komplett mit SSDs ausgestatteten Servern statt magnetischer Festplatten kann diesen Aspekt jedoch auf Dauer ändern.
Am anderen Ende des Spektrums gibt es große In-Memory-Datenbanken, die man am besten auf einem großen Server installiert. Der Einsatz einiger weniger Maschinen reduziert hier erheblich die Wartezeiten im Netz und die erforderliche Bandbreite zur Kommunikation mehrerer Boxen miteinander. Sobald weniger Server eingesetzt werden, können auch schnellere Netzwerktechnologien wie 100-Gigabit-Ethernet anstelle von nur 10 GbE zu niedrigeren Kosten genutzt werden. Auch dadurch steigt die Gesamtleistung des gesamten Clusters.
Vergleich der Kosten und der Performance
Größe und Performance hängen nicht linear zusammen. Kompakte Server mit 10-Gigabit-Ethernet auf dem Mainboard sind besonders kostengünstig. Diese Einheiten lassen sich billig herstellen und leicht in größeren Mengen verkaufen. Außerdem existieren in diesem Bereich zahlreiche unterschiedliche Hersteller, die um die günstigsten Preise konkurrieren.
Ein großer Server wird dagegen häufig nur für einen speziellen Einsatz ausgelegt. Das erhöht natürlich die Kosten. Der hohe Bedarf an besonders viel Arbeitsspeicher und schnellen SSDs erfordert meist zudem die Installation der derzeit aktuellsten und deswegen meist teuersten Bauteile.
Dazu kommen höhere Belastungen für den Rest der Infrastruktur. Die kompakten Einheiten lassen sich vergleichsweise leicht mit Standardsystemen mit Strom versorgen. Große Maschinen erfordern dagegen spezielle und teure Lösungen, um sie mit ausreichend Energie zu versorgen. Außerdem liegen die Preise für CPUs der kompakten Server bei rund 100 US-Dollar, während sich die Kosten für die derzeit schnellsten 22-Kern-Prozessoren auf 2.000 US-Dollar und mehr belaufen.
Die zunehmende Verbreitung von Data Analytics hat darüber hinaus dazu geführt, dass GPUs (Graphics Processing Unit) immer wichtiger werden. Ursprünglich wurden sie zur Darstellung von Grafiken und schnellen Bildern entwickelt, aber auch in der Berechnung komplexer Zahlen wird ihre Bedeutung immer größer. Unternehmen, die einen neuen Server anschaffen wollen, müssen sich deswegen vorher darüber im Klaren sein, wie viele GPUs und wie viel Arbeitsspeicher sie benötigen. Interessanterweise sind hier große Server nicht immer überlegen. Einige Hersteller haben beispielsweise günstige 1U-Server mit vier GPUs im Programm. Sie lassen sich gut mit Lowend- oder Mittelklasse-Grafikkarten betreiben. Nur mit Highend-Karten gibt es bei ihnen gelegentlich Probleme.
Diese Systeme sind aber eine ernst zu nehmende Lösung, wenn die gewünschte Anwendung mit der angebotenen Speichergröße dieser GPUs umgehen kann, so dass nicht notwendigerweise große Mengen an RAM eingesetzt werden müssen. Wenn mehr Performance benötigt wird, gibt es alternativ auch etwas größere Maschinen, die mit acht aktuellen Spitzen-GPUs laufen können.
Effiziente Stromversorgungen und Belastbarkeit der Systeme
Kompakte Server gehen schnell in einen Strom sparenden Modus, wenn sie nicht im Einsatz sind. Große Maschinen laufen dagegen häufig mit einem signifikanten Prozentsatz der Leistung weiter. Das ist weniger effizient als bei den kleineren Rechnern.
Allerdings kann die Kühlung der kleinen Server ein ernst zu nehmendes Problem darstellen. Das liegt daran, dass sie eng nebeneinander sitzen und schnell heiß werden können. Das reduziert außerdem ihre Verlässlichkeit. Hier sind wiederum die großen Server im Vorteil, da sie mehr Platz für kühlende Luftströme und große Lüfter bieten. Viele Cloud-Anbieter fahren zudem defekte oder überlastete Einheiten herunter und verteilen ihre Arbeitsbelastung auf andere Instanzen. Das ist weniger einfach, wenn es nur einige wenige große Maschinen gibt. In diesem Fall müssen Reparaturen in der Regel also deutlich schneller durchgeführt werden.
Der typische Rechenbedarf eines Unternehmens besteht aus mehreren Sub-Clustern mit kompakten Einheiten und großen Servern, die je nach Anwendungsfall eingesetzt werden. Wenn ein Kunde allerdings vergeblich versucht herauszufinden, wie groß der benötigte Server sein muss und der Anbieter keine geeignete heterogene Umgebung bereitstellen kann oder will, dann ist es an der Zeit, sich nach einem anderen Provider umzusehen. Gerade bei hyperkonvergenten Systemen kann dies auftreten, da es hier meist nicht gerne gesehen wird, wenn verschiedene Plattformen gemischt werden sollen.
Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!