archy13 - stock.adobe.com
Wie funktioniert eine Data Processing Unit (DPU)?
Eine Data Processing Unit kann die Leistungsfähigkeit im Rechenzentrum erhöhen. Erfahren Sie hier, wie eine DPU funktioniert und wie man sie optimal einsetzen kann.
Eine Data Processing Unit (DPU) ist ein spezialisierter Hardwarebeschleuniger, der für die effiziente Verarbeitung von Daten und datenzentriertes Rechnen konzipiert wurde. Im Vergleich zu anderen Hardwarebeschleunigern wie CPUs und GPUs zeichnet sich die DPU durch einen höheren Grad an Parallelität aus. Zudem basiert sie auf einer MIMD-Architektur (Multiple Instruction Multiple Data), was sie für bestimmte Aufgaben besonders leistungsfähig macht.
Viele Unternehmen setzen DPUs für anspruchsvolle Rechenaufgaben im Bereich Supercomputing ein, insbesondere für Anwendungen in der künstlichen Intelligenz und der Verarbeitung von Big Data. Wenn Sie erwägen, eine DPU in Ihrem Unternehmensrechenzentrum zu implementieren, ist es wichtig, sich mit den spezifischen Anwendungsfällen vertraut zu machen. Gleichzeitig sollten Sie auch die möglichen Nachteile sorgfältig abwägen, um eine fundierte Entscheidung treffen zu können.
Die Funktionsweise einer Data Processing Unit
Eine DPU entlastet die CPU von Netzwerk- und Kommunikationsaufgaben, sodass sie stattdessen anwendungsunterstützende Aufgaben übernehmen kann. Sie konzentriert sich auf datenzentrierte Arbeitslasten wie Datentransfer, Datenreduzierung, Datensicherheit und Analysen. Der Chip verfügt über ein spezielles Design, das Prozessorkerne mit Hardware-Beschleunigerblöcken kombiniert.
Dieses Design macht die DPU zu einem vielseitigeren, universell einsetzbaren Chip als die GPU. Die DPU verfügt über ein eigenes dediziertes Betriebssystem, was bedeutet, dass Sie seine Ressourcen mit denen Ihres primären Betriebssystems kombinieren können, und sie ist in der Lage, Funktionen wie Verschlüsselung, Erasure Coding sowie Komprimierung oder Dekomprimierung durchführen.
Cloud- und Hyperscale-Anbieter waren die ersten, die diese Technologie einsetzten. Anbieter wie VMware haben jedoch damit begonnen, Unterstützung für DPUs in ihre Angebote aufzunehmen, was sie für andere Unternehmen attraktiver macht.
Storage mit DPUs optimieren
Aufgrund ihrer Vielseitigkeit als Verarbeitungseinheit können Sie DPUs zur Storage-Unterstützung in Ihrem Rechenzentrum einsetzen. So lässt sich beispielsweise der Zugriff auf NVMe-Storage-Geräte beschleunigen, indem diese an den PCIe-Bus der DPU angeschlossen werden.
Die DPU ermöglicht Ihnen auch einen besseren Zugriff auf Remote Storage, das auf NVMe-oF basiert. Die DPU stellt diese Remote-Storage-Geräte dem System als Standard-NVMe-Geräte zur Verfügung. Dies optimiert die Konnektivität mit dem Remote-Storage, da Sie keine speziellen Treiber mehr benötigen, um sich mit diesen entfernten Speichergeräten zu verbinden.
DPUs in datenzentrischen Architekturen
Die DPU ist nur ein Teil einer datenzentrierten Architektur. Dieses Paradigma erfordert, dass Sie die Infrastruktur um die Datenanforderungen herum aufbauen, anstatt die Daten zu zwingen, sich der Infrastruktur anzupassen. Die Daten stehen bei der Anwendungsentwicklung, bei Geschäftsentscheidungen und bei der Bereitstellung der Infrastruktur im Vordergrund. Ein datenzentriertes Unternehmen betrachtet Daten als sein zentrales Gut, beseitigt Silos und verhindert die Ausbreitung von Daten durch die Implementierung einer einzigen Datenstrategie für mehrere Anwendungen.
Datenzentrierte Hardware – wie die DPU – vereinfacht die Bewegung und Bereitstellung von Daten. Sie sollte eine hohe Verfügbarkeit und Zuverlässigkeit bieten und es dem gesamten Unternehmen ermöglichen, auf diese gemeinsamen Daten in Echtzeit zuzugreifen. Ihre Leistung, Kapazität, Skalierbarkeit und Sicherheit sollte sich ändern, um neue Arbeitsanforderungen zu erfüllen und sich an neue Technologien anzupassen.
Im Rahmen einer datenzentrierten Architektur adressiert die DPU die Ineffizienz von Serverknoten bei datenzentrierten Berechnungen sowie die langsame oder ineffiziente Übertragung oder gemeinsame Nutzung von Daten zwischen Serverknoten.
Der Trend zur DPU
Im Jahr 2020 veröffentlichte das Startup-Unternehmen Fungible die erste Version der DPU. Es entwickelte zwei separate Versionen der Verarbeitungseinheit: eine für die Speicherung und eine für die Vernetzung. Beide Versionen der Fungible-DPU enthielten Speicher und On-Chip-Verarbeitung für Aufgaben wie Storage, Sicherheit, Networking und Virtualisierung. Fungible hat sie so konzipiert, dass sie die Vorteile einer hyperkonvergenten Infrastruktur bieten, jedoch mit einer größeren gemeinsamen Nutzung von Speicher- und Netzwerkressourcen.
Seit der Veröffentlichung der DPU von Fungible haben Anbieter wie Nvidia und Intel ihre eigenen Versionen dieser Technologie herausgebracht. Im Juni 2021 veröffentlichte Intel seinen Infrastructure Processing Unit Chip, der die gleiche Aufgabe wie eine DPU erfüllt. Nach Intel stellte auch Nvidia im Juli 2021 seine eigene DPU vor. Diese Verarbeitungseinheiten, sowie die von weiteren Wettbewerbern wie Marvell und AWS, entlasten den Host-Prozessor von Aufgaben, um Datenverarbeitungsprozesse zu beschleunigen und zu rationalisieren. Nvidia geht davon aus, dass Telekommunikationsunternehmen und Cloud-Anbieter seine Technologie zuerst übernehmen werden, aber der Boom der DPU-Angebote der großen Anbieter bedeutet, dass man sie bald auch in anderen Rechenzentren sehen könnte.