luchschen_shutter - Fotolia

High Performance Computing: Nachhaltig in die Zukunft

High Performance Computing hilft, komplexe Probleme zu lösen: von der Forschung und Entwicklung bis hin zur Luft- und Raumfahrt. Doch das geht auf die Kosten der Nachhaltigkeit.

Moderne Workloads wie große KI-Anwendungen erfordern mehr Rechenleistung denn je. Herkömmliche Server oder Cloud-Umgebungen sind nicht die richtige Wahl, sind sie dafür doch schlicht nicht leistungsstark genug. So schlägt einmal mehr die Stunde des High Performance Computing (HPC), das schon in so vielen Bereichen seine Stärken unter Beweis gestellt hat. Allerdings sind die Supercomputer, die in diesem Zusammenhang zum Einsatz kommen, noch mit einem großen Makel behaftet: Sie sind extrem leistungs- und damit energiehungrig, weshalb ihre Nachhaltigkeit zu wünschen übriglässt. In der Vergangenheit wurde das billigend in Kauf genommen, doch in Zeiten steigender Energiekosten spielt dieser Umstand in vielen Unternehmen plötzlich auch wirtschaftlich eine eminente Rolle – und zwingt sie deshalb zum Umdenken.

Doch nicht nur ökonomische Aspekte setzen Unternehmen zunehmend unter Druck: Die Auswirkungen des Klimawandels führen der Menschheit immer deutlicher vor Augen, wie wichtig nachhaltiges Handeln und Planen ist. Entsprechend groß ist auch der Druck der Kunden, die umweltbewusste Produkte bevorzugen und mit Unternehmen, die Nachhaltigkeit leben, eher zusammenarbeiten. Und auch aus der Politik kommen immer deutlichere Impulse zur Steigerung der Nachhaltigkeit von Hochleistungsrechnern und HPC-Systemen – beispielweise durch neue Regularien. Hersteller haben daher eine Reihe von Ansätzen entwickelt, um die Energieeffizienz von Supercomputern zu steigern, ohne dass deren Leistung darunter leidet.

Cool bleiben!

Eine der größten Herausforderungen in Bezug auf den Energieverbrauch ist die Kühlung von HPC-Servern. Die Tech-Branche hat sich hier einem wirtschaftlicheren Ansatz als bisher verschrieben und erkannt, dass One size fits all-Lösungen speziell für die Kühlung dieser Systeme nicht die optimalen Ergebnisse liefern können. Um die Energieeffizienz nachhaltig zu steigern und Server sinnvoll zu kühlen, sollten Unternehmen auf die Expertise von Technologieanbietern zurückgreifen. Die Systeme mancher Provider verfügen zum Beispiel über eingebettete Analysemethoden, die Energieverbrauchsmuster aufzeigen und es den Anbietern ermöglichen, Unternehmen einen auf ihre individuellen Bedürfnisse zugeschnittenen Energieeffizienzplan zu erstellen.

Peter Dümig, Dell Technologies Deutschland

"Ob aus Solar-, Wind- oder Wasserenergie – nachhaltige Energieerzeugung kann eine entscheidende Rolle beim Erreichen von CO2-Neutralität in Serverfarmen spielen".

Peter Dümig, Dell Technologies Deutschland

Die Voraussetzung dafür sind softwareseitige Innovationen wie intelligentes Workload-Management und Optimierungsalgorithmen, die die Verteilung von Rechenprozessen effizienter gestalten. Dadurch wird zum einen der Energieverbrauch reduziert und zum anderen die Lebensdauer der Hardware verlängert – zwei Effekte, die die Nachhaltigkeit von Supercomputern deutlich verbessern. Ein weiterer Baustein in diesem Zusammenhang ist die Konsolidierung und leistungsoptimierte Konfiguration der Infrastruktur. Die richtige Planung und Konfiguration der benötigten IT-Komponenten kann den Stromverbrauch sowie die benötigte Kühlleistung und damit den CO2-Verbrauch (CO2) jährlich um etliche Tonnen reduzieren.

Wichtig ist auch die richtige Kühllösung. Die Technologiebranche forscht ständig an neuen Konzepten, um die von HPC-Maschinen erzeugte Wärme zu reduzieren. Flüssigkeitskühlung gewinnt dabei aufgrund ihrer Fähigkeit, Wärme effizienter abzuleiten als Luftkühlsysteme, zunehmend an Bedeutung. Einem Bericht des Markforschungsunternehmens Allied Market Research zufolge wird der Markt für Flüssigkeitskühlungssysteme im Jahr 2027 die Marke von sechs Milliarden US-Dollar überschreiten. Allein das zeigt die enorme Relevanz solcher Systeme für die Zukunft des High Performance Computing. Bis sich die Flüssigkeitskühlung flächendeckend durchgesetzt hat, können Rechenzentrumsbetreiber die Leistung ihrer Luftkühlsysteme optimieren. Dabei helfen Temperaturmessungen, die sie entlang der Server-Racks durchführen sollten: Auf diese Weise spüren sie Hot Spots und Cold Spots auf und können ihre HPC-Systeme so anordnen, dass der Großteil der kühlenden Luftströme auf besonders heiße Racks ausgerichtet ist.

Alles ist ein Kreislauf

Wenn es darum geht, HPC energieeffizienter zu machen, ist die Nutzung erneuerbarer Energien ein logischer Schritt. Ob aus Solar-, Wind- oder Wasserenergie – nachhaltige Energieerzeugung kann eine entscheidende Rolle beim Erreichen von CO2-Neutralität in Serverfarmen spielen. Die Wiederverwendung von Hardwarekomponenten (Refurbishing) und das Recycling veralteter, nicht mehr nutzbarer Geräte ist ein weiterer Aspekt, der in Verbindung mit HPC-Systemen immer mehr an Bedeutung gewinnt: HPC-Systeme sind nämlich grundsätzlich nicht auf eine sehr lange Lebensdauer ausgelegt. Zwar entspricht ihr Leistungsprofil bei Inbetriebnahme dem neuesten Stand der Technik, doch werden sehr oft spätestens nach ein bis zwei Jahren die Systeme komplett oder deren einzelne Komponenten ausgetauscht. Hinzu kommt, dass es nur schwer vorhersehbar ist, wie sich die Tech-Branche jedoch weiterentwickelt. Bahnbrechende Technologien können die aktuelle Hardware schon morgen überflüssig machen.

Da in einem solchen Fall neue Hardwarekomponenten die Leistung eines HPC-Systems vervielfachen können, konzipieren auf Nachhaltigkeit bedachte Hersteller ihre Serverlösungen modular. Darüber hinaus hat die Industrie eine Reihe von Standards etabliert, die den Austausch einzelner Hardwarekomponenten und deren Wiederverwendung in anderen Systemen problemlos ermöglichen.

Individuelle Systeme sparen Energie und Kosten

Unternehmen, die von HPC profitieren wollen, sollten schon bei der Planung darauf achten, nicht über das Leistungsziel hinauszuschießen. Gerade kleinen und mittelständischen Unternehmen fällt es oft schwer, die benötigte Reichenleistung richtig einzuschätzen. Auch hier hilft der modulare Aufbau von Systemen nachhaltig agierender Hersteller, denn so ist ein Nachrüsten bei Bedarf jederzeit möglich und der Einstieg ins High Performance Computing nicht nur energie-, sondern auch kosteneffizient.

Ebenso ist es auch möglich, sich von externen Anbietern HPC-Systeme zusammenstellen zu lassen, konfiguriert nach den eigenen Anforderungen.

Energieeffizienz durch umweltbewusste Softwareentwicklung und KI

Die so gewonnene Zeit können Unternehmen in ihre eigenen Anwendungen investieren und auch in dieser Hinsicht ihre Nachhaltigkeit verbessern. Ältere Software ist nämlich oft nicht besonders energieeffizient: Legacy-Systeme, für die sie einst geschrieben wurde, verfügen beispielsweise nicht über die Fähigkeit, Multithreading zu nutzen oder manche Befehle moderner Programmiersprachen auszuführen. Wenn die gleiche Software auf modernen HPC-Infrastrukturen laufen soll, kann ein Redesign der Software oder ein komplettes Rewriting zu einer schnelleren und nachhaltigeren Ausführung des Codes führen. In der Realität ist das leider noch viel zu selten der Fall, weshalb Unternehmen umdenken müssen, auch wenn es zunächst vermeintlich einfacher erscheint, leistungsstärkere Hardware einzusetzen, als die Software anzufassen.

Das gilt vor allem im Zusammenhang mit hochmodernen KI-Anwendungen, die auf Large Language Models wie GPT-3 basieren. Auch an dieser Stelle ist weniger die Optimierung der Hardware als die der Trainings sinnvoll. Standardtrainings, die bisher im Machine-Learning-Bereich verwendet wurden, sind laut Forschern von Google und der Universität Berkeley weniger effizient. Es ergibt im HPC-Umfeld also wenig Sinn, einfach mehr Leistung einzukaufen, um ineffiziente Software auszuführen, denn das ist unnötig teuer und verursacht zudem hohe CO2-Emissionen, die sich leicht vermeiden ließen. Das haben auch die Entwickler großer Sprachmodelle und Forscher erkannt. Daher arbeiten sie immer häufiger an Technologien zur Modellkomprimierung, die den Rechenbedarf von KI-Modellen reduzieren, ohne ihre Leistungsfähigkeit und Genauigkeit zu beeinträchtigen.

Über den Autor:
Peter Dümig ist Senior Server Product Manager bei Dell Technologies Deutschland.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Data-Center-Betrieb

ComputerWeekly.de
Close