sdecoret - stock.adobe.com
Top 8 Unternehmen für KI-Hardware
Aufgrund der rasanten Entwicklung von KI-Hardware bringen Unternehmen jedes Jahr Produkte auf den Markt, um mit der Konkurrenz mithalten zu können. Das neue Produkt ist der KI-Chip.
Mit der zunehmenden Beliebtheit und Weiterentwicklung von KI-Hardware ist der Markt hart umkämpft. KI-Hardwareunternehmen müssen ihre Produkte schnell weiterentwickeln, um über die neuesten und effektivsten Produkte auf dem Markt zu verfügen.
Obwohl sich diese acht KI-Hardware-Unternehmen auf CPUs und Rechenzentrumstechnologien konzentrieren, haben sich ihre Spezialisierungen mit der Ausweitung des Marktes langsam erweitert. Jetzt konkurrieren diese Unternehmen darum, den leistungsfähigsten und effizientesten KI-Chip auf dem Markt zu entwickeln.
1. Nvidia
Nvidia wurde zu einem starken Konkurrenten auf dem KI-Hardwaremarkt, als seine Bewertung Anfang 2023 die Marke von 1 Billion Dollar überstieg. Zu den aktuellen Arbeiten des Unternehmens gehören der 10.000-Dollar-Chip A100 und die Volta-GPU für Rechenzentren. Beide Produkte sind wichtige Technologien für ressourcenintensive Modelle. Nvidia bietet auch KI-gestützte Hardware für den Spielesektor an.
Im August 2023 kündigte Nvidia mit dem weltweit ersten HBM3e-Prozessor einen technologischen Durchbruch an. Das Unternehmen stellte die Grace-Hopper-Plattform vor, einen Superchip mit dreifacher Speicherkapazität im Vergleich zur aktuellen Generation der Technologie. Sein Design ist auf erhöhte Skalierbarkeit und Leistung im Zeitalter der beschleunigten KI ausgerichtet.
Die NVLink-Technologie des Unternehmens kann den Grace-Hopper-Superchip mit anderen Superchips verbinden. NVLink ermöglicht die Kommunikation zwischen mehreren GPUs über eine Hochgeschwindigkeitsverbindung.
2. Intel
Intel hat sich mit seinen KI-Produkten auf dem CPU-Markt einen Namen gemacht. Obwohl es Nvidia bei den GPUs nicht überholen konnte, ist es in seiner Nische führend. Mit der Einführung seiner überarbeiteten Xeon-Prozessorgeneration im Jahr 2022 hob sich das Unternehmen beispielsweise von seinen Konkurrenten ab.
Die Xeon-Platinum-Serie von Intel ist eine CPU mit integrierter Beschleunigung. Die Serie hat fast dreimal so viel Speicherkapazität und knapp zweimal so viel Bandbreite wie die vorherige Generation.
In letzter Zeit hat Intel versucht, sich auf dem breiteren Markt für KI-Hardware einen Vorteil zu verschaffen. Während Intels CPUs weltweit 70 Prozent des Data Center Inferencing ausführen, möchte das Unternehmen weiter expandieren.
3. Alphabet
Alphabet, die Muttergesellschaft von Google, hat verschiedene Produkte für mobile Geräte, Datenspeicherung und Cloud-Infrastruktur. Cloud TPU v5e wurde speziell für große Sprachmodelle und generative KI entwickelt und kostet nur halb so viel wie die vorherige Generation. Modelle verarbeiten Daten fünfmal schneller, wenn sie auf Cloud TPU v5e laufen.
Alphabet hat sich auf die Produktion leistungsstarker KI-Chips konzentriert, um die Nachfrage nach Großprojekten zu befriedigen. Das Unternehmen hat außerdem Multislice, eine Technologie zur Leistungsskalierung, vorgestellt. Während Hardwarebeschränkungen normalerweise die Skalierung von Software einschränken, zeigen Durchläufe eine Auslastung von fast 60 Prozent der Gleitkommaeinheiten pro Sekunde bei Modellen mit mehreren Milliarden Parametern auf der TPU v4.
Mit dem Cloud TPU v5p hat das Unternehmen Ende 2023 noch einmal nachgelegt. Diese Version soll große LLM-Modelle fast dreimal so schnell trainieren als sein Vorgänger. Auch die Skalierbarkeit ist im Vergleich zum TPU v4 noch einmal gesteigert worden mit viermal mehr möglichen Floating-Point Operations per Second (FLOPS). Das Memory ist auf 95 GB gesteigert, die Bandbreite auf 2.765 GB/s.
4. Apple
Apples Neural Engine, spezialisierte Kerne auf Basis von Apple-Chips, hat das Design und die Leistung der KI-Hardware des Unternehmens vorangebracht. Die Neural Engine führte zum M1-Chip für MacBooks. Im Vergleich zur vorherigen Generation sind MacBooks mit M1-Chip 3,5 Mal schneller in der allgemeinen Leistung und fünf Mal schneller in der Grafikleistung.
Nach dem Erfolg des M1-Chips kündigte Apple die nächste Generation an. Die Firma brachte Produkte mit M2-Chip auf den Markt, die sich durch eine bessere Akkulaufzeit und Leistung auszeichnen als Geräte mit der vorherigen Iteration. Apple plant, den M3 bereits im Jahr 2024 auf den Markt zu bringen.
5. IBM
Nach dem Erfolg seines ersten spezialisierten KI-Chips, Telum, machte sich IBM daran, einen leistungsfähigen Nachfolger zu entwickeln, um mit seinen Konkurrenten mithalten zu können.
Im Jahr 2022 gründete IBM die Artificial Intelligence Unit. Der KI-Chip wurde speziell für diesen Zweck entwickelt und ist leistungsfähiger als ein durchschnittlicher Allzweck-CPU. Er hat über 23 Milliarden Transistoren und verfügt über 32 Rechenkerne. Er ist effizienter und weit weniger speicherintensiv als frühere Generationen.
6. Qualcomm
Obwohl Qualcomm im Vergleich zu seinen Konkurrenten relativ neu auf dem Markt für KI-Hardware ist, ist das Unternehmen aufgrund seiner Erfahrung in der Telekommunikations- und Mobilfunkbranche ein vielversprechender Konkurrent.
Der Chip Cloud AI 100 von Qualcomm schlug den Nvidia H100 in einer Reihe von Tests. Ein Test bestand darin, die Anzahl der Serverabfragen in Rechenzentren zu ermitteln, die jeder Chip pro Watt durchführen kann. Der Cloud-AI-100-Chip von Qualcomm schaffte 227 Serveranfragen pro Watt, während der Nvidia H100 auf 108 kam. Der Cloud AI-100-Chip schaffte außerdem 3,8 Abfragen pro Watt, während der Nvidia H100 bei der Objekterkennung nur 2,4 Abfragen schaffte.
7. Amazon
AWS hat seinen Schwerpunkt von der Cloud-Infrastruktur auf Chips verlagert. Seine Elastic Compute Cloud Trn1s sind speziell für Deep Learning und groß angelegte generative Modelle ausgelegt. Sie verwenden AWS-Trainium-Chips, KI-Beschleuniger, um zu funktionieren.
Trn1.2xlarge war die erste Iteration. Sie hatte nur einen Trainium-Beschleuniger, 32 GB Instance-Speicher und 12,5 GBit/s Netzwerkbandbreite. Jetzt bietet Amazon die Instanz trn1.32xlarge an, die über 16 Beschleuniger, 521 GB Memory und 1.600 GBit/s Bandbreite verfügt.
8. AMD
AMD hat die nächste Generation der Epyc-Prozessoren entwickelt. Das Unternehmen hat sein Zen-4-CPU im Jahr 2022 veröffentlicht.
Das Unternehmen hat seinen MI300-AI-Chip Ende 2023 vorgestellt. Gedacht ist dieser Beschleuniger nicht nur für die Arbeit mit generativer KI, sondern auch für HPC-Anwendungen. Der MI300 von AMD und der H100 von Nvidia konkurrieren in Bezug auf Speicherkapazität und -bandbreite. Im Vergleich zum H100 SMM5 von Nvidia mit 80 GB Speicher soll der MI300X-Beschleuniger 192 GB Speicher bieten, und eine Bandbreite von 5,3 TB/s. Der H100 SXM5 hat nur 3,4 TB/s Bandbreite. Auch die KI- und HPC-Leistung soll im Vergleich zum Konkurrenzprodukt deutlich besser sein.