Laurent - stock.adobe.com
Worauf es bei der Infrastruktur für KI-Workloads ankommt
Künstliche Intelligenz stellt spezifische Ansprüche an die Hardware, auf der sie läuft. Wir erklären, welche Hardware Sie im Datacenter brauchen, um KI-Workloads zu unterstützten.
Wenn Sie KI in Ihrem Rechenzentrum einsetzen möchten, sollten Sie sorgfältig abwägen, in welche Hardware und Infrastruktur Sie zuerst investieren wollen.
KI (künstliche Intelligenz) umfasst eine Reihe von Techniken, zum Beispiel maschinelles Lernen und Deep Learning sowie ein breites Spektrum an Geschäftsanwendungen, von Analysen zur Vorhersage künftiger Leistungen bis hin zu Empfehlungssystemen und Bilderkennung.
Da immer mehr große Unternehmen künstliche Intelligenz als Teil ihrer Bemühungen um die digitale Transformation einsetzen, benötigen sie auch immer häufiger die zugehörige Hardware. Doch um eine informierte Entscheidung zu treffen, welche Geräte Sie anschaffen sollten, müssen Sie eine genaue Vorstellung davon haben, wie Sie in Zukunft mit künstlicher Intelligenz arbeiten möchten.
Server mit GPUs
Die Ausstattung von Servern mit Grafikprozessoren ist zu einem der gängigsten Infrastrukturansätze für KI geworden. Die hochgradig parallele Architektur eines GPU-Chips beschleunigt die umfangreichen Gleitkommaoperationen bei der Verarbeitung von KI-Modellen.
GPUs verfügen in der Regel auch über ausgereifte Softwareökosysteme. So hat Nvidia beispielsweise das CUDA-Toolkit entwickelt, damit Entwickler diese GPUs für viele verschiedene Szenarien verwenden können, darunter Deep Learning und Analysen. GPUs unterstützen bestimmte Deep-Learning-Aufgaben und neuronale Netzwerk, eignen sie sich jedoch nicht unbedingt für alle KI-Workloads.
Bevor Sie Ihr Rechenzentrum auf KI ausrichten, sollten Sie zunächst Ihre Beweggründe für den Einsatz der Technologie prüfen, um zu entscheiden, ob GPUs Ihren Anforderungen entsprechen. Dann sollten Sie sich von einem Spezialisten beraten lassen, welches Modell am besten zu den Plänen Ihres Unternehmens passt, um zu verstehen, welche sonstige Infrastruktur Sie benötigen.
Andere Hardware-Beschleuniger
Feldprogrammierbare Gate-Arrays (FPGAs) sind im Wesentlichen Chips, deren Logikblöcke Sie nach Bedarf konfigurieren und umkonfigurieren können, um verschiedene Funktionen auszuführen. ASICs (Application-Specific Integrated Circuit) haben logische Funktionen, die während der Herstellung in das Silizium eingebaut werden. Beide beschleunigen die Leistung der Hardware. ASICs sind sinnvoller für Unternehmen mit einer großen Anzahl genau definierter Workloads, während FPGAs eine komplexere Programmierung erfordern.
Google bietet TPU – einen ASIC, der speziell für Deep Learning entwickelt wurde – über seine Google Cloud Platform an. Graphcore hat seine IPUs speziell für KI-Workloads entwickelt und außerdem Prozessorchips, die mit einem für Deep Learning optimierten Befehlssatz ausgestattet sind. Intel stellt seit der Übernahme von Habana Labs programmierbare Beschleuniger als separate Chips für die Trainings- und Inferenzteile des Deep Learning unter den Namen Gaudi und Goya her.
Obwohl GPUs und ähnliche Arten von Hardwareakzeleratoren die meiste Aufmerksamkeit erhalten, wenn es um KI geht, bleiben CPUs für viele Bereiche der KI und des maschinellen Lernens relevant. So hat Intel beispielsweise seine Server-CPUs mit neuen Funktionen ausgestattet, um KI-Workloads zu beschleunigen. Die neueste Xeon Scalable-Familie ist mit dem Intel Deep Learning Boost ausgestattet, der neue Befehle zur Beschleunigung von Berechnungen im Zusammenhang mit Inferenzverfahren enthält. Das bedeutet, dass diese CPUs bestimmte KI-Workloads beschleunigen können, ohne dass zusätzliche Hardware erforderlich ist.
Datenspeicher für KI
Unternehmen sollten bei der Infrastruktur für KI den Speicher nicht außer Acht lassen. Das Training eines Modells erfordert eine große Menge an Datenproben, und die Systeme müssen so schnell wie möglich mit diesen Informationen versorgt werden, um die Leistung aufrechtzuerhalten.
Der Trainingsprozess selbst ist auf Rückkopplungsschleifen angewiesen. Entwickler speichern das Modell in jeder Phase, verarbeiten währenddessen eine Aktualisierung und rufen es gleichzeitig kontinuierlich ab. Die meisten Unternehmen, die eine Infrastruktur für Training und Inferencing aufbauen, haben einen massiven Bedarf an zusätzlichem Speicherplatz.
Bestehende HPC-Infrastruktur (High-Performance Computing) hat meist schon eine schnelle Flash-Speicherschicht, die durch eine viel größere Kapazitätsschicht ergänzt wird. Für die meisten Unternehmen bedeutet das, dass sie NVMe-SSDs mit möglichst geringer Latenz hinzufügen müssen, unterstützt durch weniger kostspieligen Speicher für mehr Kapazität.
Spezialisierte KI-Systeme
Mehrere spezialisierte Systeme bieten eine höhere Leistung für KI-Workloads. Die DGX-Server von Nvidia basieren auf Grafikprozessoren und verfügen über eine Architektur, die dafür optimiert sind, diese Grafikprozessoren mit Daten zu versorgen. Einige Speicheranbieter haben sich mit Nvidia zusammengetan, um validierte Referenzarchitekturen bereitzustellen, die hochleistungsfähige Speicher-Arrays mit Nvidia DGX-Systemen kombinieren. DDN hat beispielsweise sein Accelerated Any-Scale AI-Portfolio für die Zugriffsmuster und Datenlayouts optimiert, die beim Training von KI-Modellen verwendet werden, und Anbieter wie NetApp und Pure Storage haben ähnliche Storage-Architekturen in ihrem Portfolio.
Das OpenVINO-Toolkit von Intel dient als Inferencing-Engine zur Optimierung und für das Ausführen von vorab trainierten Modellen an. Es verfügt über eine Plug-in-Architektur, die es ermöglicht, Modelle auf vielen verschiedenen Hardwarevarianten auszuführen, zum Beispiel CPUs, GPUs, FPGAs oder einer Mischung aus allen drei, was Unternehmen eine größere Flexibilität bei der Bereitstellung bietet.
Daneben steht es Ihnen immer frei, Ihre KI-Modelle in der Cloud zu trainieren und dabei On-Demand-Ressourcen zu nutzen, die Sie nach Abschluss des Trainings nicht mehr weiter pflegen müssen.