产品发布与规格 - 超微电脑公司宣布推出并开始供货两款采用NVIDIA Blackwell架构的新型液冷系统:4U和2-OU(OCP)规格的NVIDIA HGX B300系统 [1] - 2-OU系统基于21英寸OCP Open Rack V3规格构建,单个机柜最高可支持144个GPU,实现最大GPU密度 [2] - 4U系统采用传统19英寸EIA机柜规格,为大规模AI工厂部署提供相同计算性能 [3] - 2-OU系统采用盲插式歧管连接、模块化GPU/CPU托盘架构和先进组件液冷解决方案 [2] - 4U系统利用公司的DLC-2技术,通过液冷捕获系统产生的高达98%的热量 [3] 性能与效率 - 新系统每台配备2.1TB HBM3e GPU内存,以处理系统级更大的模型规模 [4] - 通过与NVIDIA Quantum-X800 InfiniBand或NVIDIA Spectrum-4以太网配合使用,集成NVIDIA ConnectX-8 SuperNICs可将计算结构网络吞吐量提升至800Gb/s,实现翻倍 [4] - 2-OU系统配备八个NVIDIA Blackwell Ultra GPU,每个TDP高达1,100W,同时显著减少机柜占地面积和功耗 [2] - 采用DLC-2技术栈的数据中心可实现高达40%的电力节省,并通过45°C温水运行减少耗水量,无需冷冻水和压缩机 [6] - 系统旨在加速繁重的AI工作负载,如智能体AI应用、基础模型训练和AI工厂中的多模态大规模推理 [4] 解决方案与集成 - 新系统是超微数据中心构建块解决方案的关键部分,为超大规模数据中心和AI工厂部署提供前所未有的GPU密度和能效 [1] - 八个NVIDIA HGX B300计算机柜、三个NVIDIA Quantum-X800 InfiniBand网络机柜和两个超微行内冷却液分配单元共同构成一个可扩展的SuperCluster单元,总计1,152个GPU [2] - 超微DCBBS在发货前将新系统作为完全经过验证和测试的L11和L12解决方案机柜交付,加速超大规模、企业和联邦客户的上线时间 [6] - 这些系统与NVIDIA网络和NVIDIA AI软件(包括NVIDIA AI Enterprise和NVIDIA Run:ai)一起,为客户提供从单个节点到全栈AI工厂的灵活扩展能力 [7] - 新系统扩展了公司广泛的NVIDIA Blackwell平台组合,包括NVIDIA GB300 NVL72、NVIDIA HGX B200和NVIDIA RTX PRO 6000 Blackwell服务器版 [7] 市场定位与客户价值 - 新产品旨在满足客户对总拥有成本、可维护性和效率的关键需求 [6] - 公司提供业界最紧凑的NVIDIA HGX B300解决方案,同时通过成熟的直接液冷技术降低功耗和冷却成本 [2] - 通过DCBBS,公司使客户能够大规模部署AI:缩短上市时间、实现每瓦特最大性能以及从设计到部署的端到端集成 [2] - 2-OU系统为需要节省空间且不影响可维护性的超大规模和云提供商设计 [2] - 4U系统为密集训练和推理集群提供更低的噪音和更高的可维护性 [3]
Supermicro Expands NVIDIA Blackwell Portfolio with New 4U and 2-OU (OCP) Liquid-Cooled NVIDIA HGX B300 Solutions Ready for High-Volume Shipment