Vasyl - stock.adobe.com
Data Processing Units – der nächste Trend im Data Center?
Data Processing Units sind spezialisierte Prozessoren, die Big-Data-Anwendungen unterstützen sollen. Erfahren Sie in diesem Artikel, was DPUs können und wann sie sich lohnen.
Eine Datenverarbeitungseinheit (Data Processing Unit, DPU) ist ein Hardwarebeschleuniger, der speziell auf Datenverarbeitung und datenzentriertes Rechnen ausgerichtet ist. Sie unterscheidet sich von anderen Hardwarebeschleunigern wie der CPU und der GPU durch einen höheren Grad an paralleler Verarbeitung und eine MIMD-Architektur (Multiple Instruction Multiple Data).
DPUs sind besonders wichtig für Supercomputing-Aufgaben wie KI (künstliche Intelligenz) und Big Data. Um zu entscheiden, ob Sie eine DPU in Ihrem Rechenzentrum benötigen, sollten Sie die Anwendungsfälle für diese Geräte und deren Herausforderungen kennen.
Was macht eine DPU?
Eine DPU entlastet die CPU von Netzwerk- und Kommunikationsaufgaben, so dass die CPU stattdessen anwendungsunterstützende Aufgaben übernehmen kann. Sie konzentriert sich auf datenzentrierte Workloads wie Datenübertragung, Datenreduzierung, Datensicherheit und Analysen.
Der Chip verfügt über ein spezielles Design, das Prozessorkerne mit Hardware-Beschleunigerblöcken kombiniert. Dieses Design macht die DPU zu einem vielseitigeren, universell einsetzbaren Chip als die GPU (Graphics Processing Unit, Grafikprozessor). Die DPU verfügt über ein eigenes dediziertes Betriebssystem, was bedeutet, dass Sie seine Ressourcen mit den Ressourcen Ihres primären Betriebssystems kombinieren und dann Funktionen wie Verschlüsselung, Erasure Coding sowie Komprimierung oder Dekomprimierung ausführen können
Cloud-Anbieter waren die ersten, die diese Technologie eingeführt haben. Anbieter wie VMware haben jedoch damit begonnen, Unterstützung für DPUs in ihre Angebote aufzunehmen, was sie auch für Unternehmen außerhalb der Cloud-Branche attraktiv macht.
Unterstützung von Storage mit einer DPU
Aufgrund der Vielseitigkeit von DPUs als Verarbeitungseinheit können Sie DPUs den Storage in Ihrem Rechenzentrum unterstützen lassen. Sie beschleunigen beispielsweise den Zugriff auf NVMe-Speichergeräte, indem Sie sie an den PCIe-Bus der DPU anschließen.
Die DPU ermöglicht Ihnen zudem einen besseren Zugriff auf Remote-Speichergeräte, die auf NVMe-oF basieren. Sie stellt diese Remote-Speichergeräte dem System als Standard-NVMe-Geräte zur Verfügung. Das verbessert die Verbindung mit dem Remote-Speicher, da Sie keine speziellen Treiber mehr benötigen, um sich mit diesen Remote-Speichergeräten zu verbinden.
DPUs und datenzentrische Architektur
Die DPU ist nur ein Baustein für eine datenzentrierten Architektur. Dieses Paradigma erfordert, dass Sie die Infrastruktur um die Datenanforderungen herum aufbauen, statt Ihre Datenstrategie an eine vorhandene Infrastruktur anzupassen. Die Daten stehen bei der Anwendungsentwicklung, bei Geschäftsentscheidungen und bei der Bereitstellung der Infrastruktur im Vordergrund. Eine datenzentrierte Organisation behandelt Daten als ihr zentrales Gut, beseitigt Silos und verringert die Gefahr einer unkontrollierten Ausbreitung von Daten, indem sie eine Datenstrategie über verschiedene Anwendungen hinweg durchsetzt.
Datenzentrierte Hardware – wie die DPU – vereinfacht den Transport und das Bereitstellen von Daten. Sie sollte eine hohe Verfügbarkeit und Zuverlässigkeit bieten und es dem gesamten Unternehmen erlauben, in Echtzeit auf gemeinsam genutzte Daten zuzugreifen. Ihre Leistung, Kapazität, Skalierbarkeit und Sicherheit sollte sich an neue Arbeitsanforderungen sowie neue Technologien anpassen können.
Eingerahmt von einer datenzentrierten Architektur erhöht die DPU die Effizienz von Serverknoten bei datenzentrierten Berechnungen und beschleunigt die Übertragung oder gemeinsame Nutzung von Daten zwischen Serverknoten.
Die zunehmende Popularität der DPU
Im Jahr 2020 veröffentlichte das Start-up Fungible die erste DPU. Es bietet zwei separate Versionen der Verarbeitungseinheit an: eine für die Speicher und eine für Netzwerk. Beide Versionen enthalten Memory und On-Chip-Verarbeitung für Aufgaben wie Storage, Sicherheit, Vernetzung und Virtualisierung. Fungible hat sie so konzipiert, dass sie die Vorteile einer hyperkonvergenten Infrastruktur bieten, jedoch mit mehr gemeinsamer Nutzung von Speicher- und Netzwerkressourcen.
Seit der Veröffentlichung der DPU von Fungible haben Anbieter wie Nvidia und Intel nachgezogen und ihre eigenen Versionen dieser Technologie herausgebracht. Im Juni 2021 veröffentlichte Intel seinen Infrastruktur-Verarbeitungseinheitschip, der die gleiche Aufgabe wie eine DPU erfüllt. Im Juli 2021 stellte Nvidia seine eigene DPU vor. Diese Prozessoren – sowie die von weiteren Wettbewerbern wie Marvell und AWS – übernehmen bestimmte Rechenaufgaben, um die CPU zu entlasten sowie Datenverarbeitungsprozesse zu beschleunigen und zu rationalisieren. Nvidia geht davon aus, dass Telekommunikationsunternehmen und Cloud-Anbieter die Technologie zuerst übernehmen werden, aber der Boom der DPU-Angebote der großen Anbieter bedeutet, dass man sie bald auch in anderen Rechenzentren sehen könnte.