Auf der GTC 2025-Konferenz in San Jose (USA) kündigte Asus eine aktualisierte Version des AI POD-Serversystems an. Durch die Integration der Nvidia GB300 NVL72-Plattform ist das System mit 72 Blackwell Ultra-GPUs und 36 Grace-CPUs ausgestattet und bietet eine höhere Leistung bei Anwendungen der künstlichen Intelligenz (KI).
Asus präsentiert auf der GTC 2025 ein AI-POD-System der nächsten Generation mit Nvidia Blackwell GPU und Flüssigkeitskühlungstechnologie
Der neue AI POD ist als Rack-Scale-Modell konzipiert, ermöglicht eine flexible Erweiterung und unterstützt bis zu 40 TB Hochgeschwindigkeitsspeicher pro Rack. Darüber hinaus integriert das System die NVIDIA Quantum-X800 InfiniBand- und Spectrum-X Ethernet-Netzwerktechnologie und trägt so zur Verbesserung der Datenübertragungsgeschwindigkeit zwischen Serverclustern bei. Außerdem wird Flüssigkeitskühlung eingesetzt, um einen stabilen Betrieb sicherzustellen, insbesondere bei rechenintensiven Aufgaben wie dem Training großer Sprachmodelle (LLM).
Zusätzlich zum AI POD hat Asus auch mehrere neue AI-Serverlinien in den Blackwell- und HGX-Ökosystemen auf den Markt gebracht, darunter die Modelle XA NB3I-E12, ESC NB8-E11 und ESC N8-E11V. Diese Produkte unterstützen ein breites Spektrum an Bereichen wie Datenwissenschaft, Finanzen, Gesundheitswesen und allgemeine KI. Laut Asus bietet die Erweiterung des KI-Serverportfolios Unternehmen mehr Optionen, um ihren spezifischen Anforderungen gerecht zu werden.
Laut Asus kann die neue Generation des AI POD die Anforderungen großer Rechenzentren und KI-Forschungsorganisationen erfüllen. Die enge Zusammenarbeit mit Nvidia bei diesem Projekt trägt dazu bei, die KI-Entwicklung und den KI-Betrieb im großen Maßstab zu optimieren.
[Anzeige_2]
Quelle: https://thanhnien.vn/asus-ra-mat-ai-pod-su-dung-chip-blackwell-gb300-tai-gtc-2025-18525031920230298.htm
Kommentar (0)