Nomad_Soul - Fotolia

Zwei Formeln zur Berechnung der optimalen Kühlung für hyperkonvergente IT

Hyperkonvergente IT erleichtert das IT-Management, sorgt aber mitunter für hohe Wärmelasten. Mit diesen Tipps lässt sich die Kühlung optimieren.

Trotz der offensichtlichen Vorteile hyperkonvergenter IT-Lösungen (Hyper-Converged Infrastructure, HCI), etwa beim einfachen IT-Management, bringen diese Systeme durchaus auch neue Herausforderungen für Data-Center-Admins mit sich. Ein großes Problem entsteht dabei sehr oft bei der Data-Center-Kühlung.

Wenn mehrere hyperkonvergente Appliances in ein Server-Rack montiert werden, entstehen dadurch in dicht gepackten Umgebungen sehr hohe Wärmelasten. Es ist natürlich wichtig, die Wege der Kühlluft nicht zu blockieren, trotzdem ist es enorm schwierig, ausreichend Kühlluft in der richtigen Temperatur an die Appliances zu bekommen, um die Abwärme effizient abzuführen.

Dabei gelten natürlich auch hier die gleichen Grundsätze der Data-Center-Kühlung wie mit anderer IT-Hardware auch. Allerdings sorgt die kompakte Bauweise hyperkonvergenter IT und die Einfachheit, mit der eine große Zahl entsprechender Appliances in ein Rack montiert werden können, zu besonderen Herausforderungen für die Kühlung. Viele Rechenzentren sind auf diese große IT-Last hyperkonvergenter Infrastrukturen und den damit einhergehenden Anforderungen an die Kühlsysteme nicht vorbereitet. Mit dem richtigen Vorgehen lassen sich aber auch bestehende Kühlungen an die gestiegene Wärmelast anpassen.

Die Energieaufnahme hyperkonvergenter Appliances wird oft jenseits von 1.000 Watt angesetzt, was entsprechend zu einer großen Wärmeentwicklung führt. Ein ganzes Server-Rack voll mit 2U-Appliances könnte so leicht auf 25-30 kW kommen, während typische 1U-Server eher bei 350 – 500 Watt pro Server liegen. Selbst wenn man alle gängigen Maßnahmen ergreift, um den Luftstrom der Kühlluft von der warmen Abluft zu trennen, dürfte man trotz Kaltgang-/Warmgang-Aufbau, Einhausungen und Einbau von Blenden in nicht vollständig gefüllten Racks trotzdem eine zu geringe Kühlleistung erreichen. Selbst wenn man theoretisch ausreichend Kühlkapazitäten zur Verfügung stellt.

Optimale Kühlung für hyper-konvergente Infrastruktur

Für eine möglichst effiziente Data-Center-Kühlung sollte ein Rechenzentrum nahe an den ASHRAE-Richtlinien betrieben werden, die derzeit eine Zuluft-Temperatur von 27 Grad Celsius (80,6 Grad Fahrenheit) empfiehlt, was nicht nur zu Kosteneinsparungen führt, sondern gleichzeitig auch die Kühlkapazität erhöht.  Eine höhere Temperatur der Zuluft führt natürlich auch zu einer entsprechend höheren Temperatur der Abluft, die gekühlt werden muss.

Eine typische, 20-Tonnen-Kühlanlage (Computer Room Air Conditioning, CRAC) mit 84 kW Kühlkapazität bei einer Rücklufttemperatur von etwa 24 Grad Celsius (75 Grad Fahrenheit) kann bei einer auf etwa 32 Grad Celsius (90 Grad Fahrenheit) erhöhten Temperatur der Rückluft ganze 137 kW an Kühlleistung zur Verfügung stellen. Damit lässt sich also durchaus eine enorme zusätzliche Kühlkapazität erreichen. Allerdings garantiert das noch lange nicht, dass die Kühlleistung auch da ankommt, wo sie benötigt wird.

Eine effektive Data-Center-Kühlung für hyper-konvergente IT muss also sowohl Kapazität als auch den Luftstrom berücksichtigen. Wenn nicht genügend Kühlluft zur Verfügung gestellt wird, dann ziehen die Server-Lüfter Luft an, von woher auch immer sie sie bekommen können, also auch durch unverblendete Lücken im Server-Rack, von benachbarten Server-Schränken oder aus Lücken zwischen Server-Schrank und Boden.

Damit entstehen zwei Probleme: Erstens drehen sich die Lüfter am Server damit schneller und verbrauchen damit mehr Energie. Zweitens wird natürlich die Luft, die auf diese Weise anderswo abgezogen wird, wärmer sein, als die von der Data-Center-Kühlung bereitgestellte Kühlluft.

Wer im Rechenzentrum aber sowieso bereits mit höheren Zulufttemperaturen arbeitet, bei dem dürften die teuren HCI-Appliances deutlich heißer laufen als geplant. Dadurch könnten mindestens Datenfehler entstehen, gleichzeitig dürfte sich so aber auch die Lebenszeit der Hardware verkürzen.

Wie viel Kühlluft wird für HCI-Systeme benötigt?

Mit der folgenden Formel lässt sich leicht herausfinden, ob es überhaupt möglich ist, die nötige Menge an Kühlluft bereitzustellen:

Dabei steht CFM für Cubic Feet per Minute, also Kubikfuß pro Minute. BTU wäre dann die Wärmelast ausgedrückt in British Themal Units, wobei 1 BTU 3,414 Watt entsprechen. 1,08 wiederum ist eine Konstante unter Normal Null. In höher gelegenen Gebieten müsste diese Konstante also angepasst werden. TD ist die Abkürzung für Temperatur-Differential, oft auch als Delta T oder Δ T ausgedrückt.

Ein kurzes Rechenbeispiel: Nehmen wir an, die Angaben zur Energieaufnahme eines IT-Gerätes entsprächen der IT-Last der Hardware bei voller Auslastung. Damit wäre ein Gerät mit 1.600 Watt gleichzusetzen mit etwa 5.460 BTU. Nimmt man nun ein Delta T von 25 Grad Fahrenheit an, werden 202 Kubikfuß an Luft benötigt, um die IT-Hardware zu kühlen. An sich ist das kein großes Problem.

Wenn man allerdings ein ganzes Rack mit hyperkonvergenten Appliances bestückt, kann man leicht auf mehr als 4.000 CFM an Kühlluft kommen. Ein klassisches Kühlgerät liefert in etwa 12.000 CFM an Kühlluft, wodurch sich damit lediglich drei Server-Racks vernünftig kühlen lassen. Selbst wenn man nur eine Auslastung der IT-Systeme von 75 Prozent annimmt, würde man immer noch mehr als 3.000 CFM pro Server-Schrank benötigen.

Aber was wäre, wenn man diese Menge an Kühlluft nicht bereitstellen kann? Die oben genannte Formel lässt sich natürlich auch nach Delta T auflösen:

Vier Serverschränke mit 75 Prozent Auslastung würde 12.000 CFM an Kühlluft benötigen. Wenn aber andere Schränke in dieser Rack-Reihe zusammen auf weitere 6.000 Watt kommen, würde dies zusammen das Äquivalent von sechs reinen HCI-Schränken mit einer Anforderung an die Kühlluft von mindestens 18.000 CFM ergeben.

Die Data-Center-Kühlung kann allerdings lediglich 12.000 CFM liefern. Selbst wenn die Serverlüfter auf volle Kraft laufen, können sie keine zusätzliche Kühlluft mehr anziehen, wodurch das Delta T auf knapp 12 Grad Celsius (53 Grad Fahrenheit) ansteigt. IT-Hardware kann mit einem so hohen Temperaturanstieg allerdings nicht umgehen und wird sich entweder als Selbstschutz abschalten oder schlicht ausfallen.

Weitere Faktoren bei der HCI-Kühlung

Wenn mehrere Kühlgeräte vorhanden sind, können auch mehrere Kühlluft zu einer speziellen Rack-Reihe befördern. Wenn die Kühlluft aber über einen Unterboden befördert wird, können selbst über großzügig ausgesparte Kacheln im Doppelboden mit über 50 Prozent Luftdurchlass nur um die 900 bis 1.600 CFM geliefert werden, je nach Luftdruck im Unterboden. Selbst unter Idealbedingungen erreicht man hiermit also höchstens eine Kühlleistung von 5 bis 9 kW.

Als Reaktion hierauf werden oft zu viele luftdurchlässige Kacheln verbaut, oder selbst ventilatorgestützte Kacheln. Dadurch geht man aber nur das Risiko ein, den Luftdruck im Unterboden über Gebühr abzusenken, was die Kühlung für andere Serverschränke und Rack-Reihen beeinträchtigt. Wenn die Kühlluft stattdessen über den Racks angeliefert wird, begrenzt wiederum der Rohrdurchmesser die Luftzufuhr. Selbst wenn die gesamte Kühlleistung also rechnerisch ausreicht, stellt sich immer noch die Frage, ob überhaupt ausreichend Kühlluft an die IT-Geräte herangebracht werden kann.

Wenn man mehr als 7.500 bis 10.000 Watt an Leistungsaufnahme pro Serverschrank plant, wird man an zusätzlichen Kühlsystemen im Data Center nicht umhin kommen. Für solche äußerst verdichteten Serverlandschaften gibt es spezielle Kühloptionen, beispielsweise In-Row-Kühlgeräte, Rear-Door-Wärmetauscher oder auch Flüssigkühlungssysteme. Auch die direkte Flüssigkühlung dürfte in diesem Bereich zunehmend interessant werden.

Weitere Artikel zur Data-Center-Planung:

Größenverhältnis zwischen Data Center und RZ-Fläche

Was bringt die Ionisierung von Luft im Rechenzentrum?

Server-Räume in bestehende Gebäude integrieren

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Erfahren Sie mehr über Data-Center-Infrastruktur