
SuperX發佈最新XN9160-B300 AI伺服器,Blackwell Ultra 比 Blackwell計算能力增加了 50%
![]() |
新加坡2025年10月3日 /美通社/ -- Super X AI Technology Limited(納斯達克代碼:SUPX)(簡稱「公司」或「SuperX」)今日宣佈,正式推出其最新旗艦產品——SuperX XN9160-B300 AI伺服器。該伺服器搭載NVIDIA Blackwell GPU(B300),旨在滿足AI訓練、機器學習(ML)和高性能計算(HPC)等工作負載對可擴展、高性能計算日益增長的需求。系統專為極致性能而設計,集成了先進的網路功能、可擴展的架構和高能效設計,為關鍵任務型數據中心環境提供有力支援。
SuperX XN9160-B300 AI伺服器專為加速大規模分散式AI訓練和AI推理工作負載而打造,為高強度、高需求的應用提供極致的GPU性能。它針對GPU密集型任務進行了優化,在基礎模型訓練與推理,包括強化學習(RL)、蒸餾技術和多模態AI模型等領域表現卓越,同時也能為氣候建模、藥物發現、地震分析和保險風險建模等HPC工作負載提供超高性能。
XN9160-B300專為企業級AI和HPC環境設計,將超級電腦級別的性能與高能效、可擴展的架構相結合,以緊湊的、數據中心就緒的形態,提供關鍵任務所需的能力。
SuperX XN9160-B300 AI伺服器的發佈,是SuperX AI基礎設施路線圖上的一個重要里程碑,它將以強大的GPU實例和計算能力,加速全球AI創新。
圖 1. SuperX XN9160-B300 AI 伺服器, Blackwell Ultra架構
XN9160-B300 AI伺服器
SuperX XN9160-B300 AI伺服器在8U主機殼內釋放極致的AI計算性能,配備英特爾®至強®6處理器、8顆NVIDIA Blackwell B300 GPU、高達32個DDR5 DIMM插槽,並通過多達8個800Gb/s InfiniBand埠提供高速網路連接。
極高的GPU算力與顯存
XN9160-B300被構建為一個高度可擴展的AI節點,其核心是搭載8顆NVIDIA Blackwell B300 GPU的NVIDIA HGX B300模組。這一配置為下一代AI工作負載提供了Blackwell架構的峰值性能。
至關重要的是,該伺服器通過其8顆GPU提供了高達2,304GB的統一HBM3E顯存(每顆GPU 288GB)。這個龐大的顯存池對於消除記憶體卸載、支援更大模型的駐留、以及管理高併發、長上下文的生成式AI和大型語言模型所需的海量鍵/值緩存至關重要。
極致的推理與訓練輸送量
該系統利用B300卓越的FP4/NVFP4精度和第二代Transformer引擎,實現了性能的巨大飛躍。據 NVIDIA 稱Blackwell Ultra 比 Blackwell 有了決定性的飛躍,每塊晶片的 NVFP4 計算能力增加了 50%,HBM 容量增加了 50%,從而能夠在不影響效率的情況下實現更大的模型和更快的輸送量。[1]
得益於8個用於InfiniBand的800Gb/s OSFP埠或雙400Gb/s乙太網,系統擴展輕而易舉。這些埠提供了將伺服器連接成大型AI工廠和SuperPOD集群所需的高速、低延遲通信。第五代NVLink互連技術進一步確保了板載的8顆GPU無縫通信,如同一個單一、強大的加速器。
強大的CPU與電源基礎
GPU計算集群由一個強大的主機平臺支援,該平臺配備雙路英特爾®至強®6處理器,為加速器提供所需的資料吞吐效率和頻寬。記憶體子系統同樣強大,採用32個DDR5 DIMM插槽,支援高達8000MT/s的速度(MRDIMM),確保主機平臺永遠不會成為GPU處理的瓶頸。
為保證關鍵任務的可靠性和持續性能,XN9160-B300配備了12個3000W 80 PLUS Titanium的冗餘電源,確保在持續峰值負載下實現極高的能源效率和穩定性。系統還包括多個高速PCIe Gen5 x16插槽和全面的存儲選項,包括8個2.5英寸Gen5 NVMe熱插拔硬碟位元。
技術規格:
組件 規格 CPU 2 x Intel® Xeon 6th Gen P-Core處理器,功率高達350W(SP)/500W(AP) GPU 8 x NVIDIA Blackwell B300 記憶體 32個96GB DDR5 5600 RDIMM 系統磁片 2個1920GB SSD 存儲盤 8個3.84TB NVMe U.2 網路 模組上CX8提供的8個OSFP (800G)埠 尺寸 8U 447mm(高) x 351mm(寬) x 923mm(深) 市場定位 XN9160-B300專為那些致力於突破AI邊界的組織而設計,滿足其對最大規模、下一代模型和超低延遲的嚴苛要求:
|