pressmaster - stock.adobe.com

So installieren Sie Server-GPUs richtig

GPUs im Rechenzentrum zu installieren, erfordert Tests und Recherchen. Für ein Optimum an Leistung müssen Kühlressourcen aktuell und Softwarekompatibilität gegeben sein.

Es gibt drei wichtige Dinge zu beachten, wenn Administratoren zusätzliche Graphics Processing Units (GPUs) in ihren Servern installieren wollen: Anwendungseignung, Installationsanforderungen und Serverausstattung.

Überlegen Sie als erstes, warum Sie GPU-Hardware installieren und wo Sie sie verwenden werden. Selbst mit vereinheitlichten Computerarchitekturen wie CUDA oder OpenCL profitiert eine Anwendung nur dann von Server-GPU-Karten, wenn sie für die Nutzung der GPU und deren parallelen Verarbeitungsmöglichkeiten ausgelegt ist. Solche Anwendungsfälle sind Virtualisierung, maschinelles Lernen (Machine Learning) und Big-Data-Verarbeitung. Für eine effiziente Rechenzentrumskonfiguration sollten Sie möglicherweise Workloads, die die GPU nicht nutzen, auf Nicht-GPU-Server migrieren.

Die GPU muss das zugrunde liegende Betriebssystem und alle GPU-Treiber unterstützen. Sie sollten vor jeder Installation überprüfen, ob die Anwendung und ihr Betriebssystem vollständig GPU-kompatibel sind. Wenn die von Ihnen verwendete Software nicht für die GPU-Nutzung programmiert ist, haben Sie keinen Nutzen aus der Installation eines GPU-basierten Servers.

Zweitens, wenn Sie Server-GPU-Karten als Aftermarket-Erweiterungsgerät installieren, beachten Sie die Hardwareanforderungen der GPUs. Eine GPU der Enterprise-Klasse kann bis zu vier GPU-Chips aufnehmen - jeder mit Hunderten von Cores. Dies kann Tausende von Watt zusätzliche Last auf die Stromversorgung des Servers übertragen. Herkömmliche White Box Server unterstützen möglicherweise keine GPU-Add-ons der Enterprise-Klasse ohne ein größeres Upgrade der Stromversorgung.

Eine so hohe Last bedeutet, dass der Erweiterungsbus den Grafikprozessor allein nicht ausreichend mit Strom versorgen kann. Der Server muss über genügend Strom verfügen und benötigt ein oder zwei zusätzliche Anschlüsse über das Netzteil, um den Grafikprozessor direkt zu betreiben.

Die erhöhte Leistungsaufnahme bedeutet zudem, dass die Kühlung der GPUs entscheidend ist. Die GPU-Karte verfügt über eigene Kühlgeräte, aber IT-Verantwortliche müssen sicherstellen, dass genügend freier physischer Raum und Luftstrom für die GPU-Hardware vorhanden ist. Die zusätzliche Wärme, die durch den Grafikprozessor belüftet wird, landet ebenfalls im Server-Rack, was sich auf den Serverabstand, die Rackkühlung und sogar die Rackstromversorgung auswirken kann – insbesondere, wenn Sie mehrere GPU-basierte Server in unmittelbarer Nähe zueinander einsetzen.

Drittens, denken Sie an den Einfluss der Bereitstellung von Server-GPU-Karten auf die Workload-Auslastung. GPUs der Enterprise-Klasse sind teuer, so dass auf absehbare Zeit nicht jeder Enterprise-Server einen GPU enthält. Dies kann die Fähigkeit von IT-Administratoren beeinträchtigen, Cluster einzurichten, Workloads zu migrieren oder neu zu starten und die Workload-Verfügbarkeit zu verwalten. Wenn der Workload auf Server-GPU-Karten basiert und es nur wenige GPU-basierte Server gibt, die den Workload ausführen, dann schränkt dies die Bereitstellungs- und Migrationsoptionen ein.

Nächste Schritte

Die wichtigsten GPU-Spezifikationen auf einen Blick

Der Einsatz von GPUs kann in VDI-Umgebungen sinnvoll sein

Mit GPUs und FPGAs die Performance von SDDC erhöhen

Erfahren Sie mehr über Serverhardware