Llama Nemotron

搜索文档
5 tech executive insights on the future of cloud
Yahoo Finance· 2025-09-12 07:00
“We're driving resources of this company to address the specific needs from, to be honest, a very narrow group of customers,” he said Tuesday, at the Goldman Sachs conference, according to a Seeking Alpha transcript . “What we're seeing for the next three years is accelerating demand for that compute capacity.”The company’s hardware division remains focused primarily on supplying cloud providers with the infrastructure needed to train LLMs, according to CEO Hock Tan.While the acquisition of VMware made Broa ...
英伟达(纪要):Blackwell 贡献数据中心计算收入的 70%
海豚投研· 2025-05-29 16:00
英伟达FY26Q1财报核心信息回顾 - 总营收达450亿美元,同比增长93.6%,超出市场预期1.6% [1] - 数据中心业务收入占比达88.8%,同比增长36.8%,贡献主要增长动力 [1] - GAAP毛利率71.8%,环比提升0.28个百分点,Blackwell产品推动盈利能力改善 [1][12] - 运营利润率61.19%,净利润率58.4%,保持行业领先水平 [1] - 库存同比增长90.8%至113.33亿美元,主要受H20出口管制影响 [1] 高管陈述核心信息 出口管制影响 - H20产品确认收入46亿美元,但计提45亿美元库存及采购义务冲销费用 [2] - Q2中国数据中心收入预计"大幅下降",损失市场规模近500亿美元 [2][15] - 无法交付25亿美元H20订单,Hopper架构在中国市场面临终结 [2][15] 数据中心业务进展 - Blackwell架构贡献数据中心计算收入70%,成为推广最快产品 [2] - GB200 NVL机架已交付企业和主权客户,推理成本显著降低 [3] - GB300本月开始采样,HBM增加50%,FP4推理性能提升50% [3] - 超大规模企业每周部署近1000个NVL72机架(7.2万个GPU) [4] - NVIDIA Dynamo提升推理吞吐量30倍,客户延迟降低5倍 [5] 技术创新与生态 - 近100个AI工厂在建(同比+2倍),平均GPU数量翻倍 [6] - Llama Nemotron模型提升AI平台准确性20%,推理速度+5倍 [7] - NVLink 72单机架带宽达130TB/s,Q1出货量超10亿美元 [8] - Spectrum-X交换机年收入超80亿美元,能效提升3.5倍 [10] 财务指引与股东回报 - Q2收入指引450亿美元(±2%),数据中心增长与中国市场下滑抵消 [11] - 全年运营费用增长目标30%左右,保持研发投入强度 [13] - Q1向股东返还143亿美元(分红+回购),强化资本回报 [14] 行业竞争格局 - 中国AI加速器市场封闭将刺激本土芯片厂商创新,规模达500亿美元 [15] - 全球AI基础设施竞赛加剧,超大规模企业加速GPU集群部署 [4][6] - 全栈架构获AT&T、比亚迪等企业采用,生态优势持续扩大 [6][9]
一文读懂英伟达GTC:有关Blackwell全家桶、硅光芯片和黄仁勋的“新故事”
投中网· 2025-03-19 06:44
英伟达GTC 2025大会核心要点 硬件产品线更新 - 推出Blackwell Ultra GPU,采用台积电N4P工艺,搭配HBM3e内存显存提升至288GB,FP4精度算力达15PetaFLOPS,推理速度比Hopper架构提升2.5倍 [8][11] - 发布Blackwell Ultra NVL72机柜,含72颗GPU+36颗Grace CPU,显存20TB,总带宽576TB/s,推理性能比H100提升50倍,6710亿参数模型推理速度达每秒1000 tokens [13][14][16] - 预告2026年Rubin架构GPU及Vera Rubin NVL144机柜,FP4精度算力3.6ExaFLOPS,性能是Blackwell Ultra的3.3倍 [16][17] - 推出DGX Super POD超算工厂,含576颗Blackwell Ultra GPU,FP4算力11.5ExaFLOPS,支持生成式AI全流程 [18][22] 软件生态布局 - 推出开源推理加速软件Nvidia Dynamo,可使Llama模型性能翻倍,DeepSeek推理模型token生成提升30倍,支持千级GPU集群扩展 [36][38][41][46] - 发布48B参数Llama Nemotron模型,token吞吐量达Llama 3 70B的5倍,但训练效率低于DeepSeek V3 [47][49][51] - 推出AI Agent开发平台NVIDIA AIQ,集成RAG系统与多Agent工作流,支持企业数据智能分析 [53][54][59][60] 具身智能战略 - 发布世界基础模型Cosmos,含Transfer/Predict/Reason三模块,支持物理世界模拟与行为预测 [64][65][67] - 推出人形机器人基础模型Isaac GR00T N1,采用双系统架构,已应用于1X等头部机器人公司 [68][71] - 构建DGX训练计算机+AGX边缘计算机+Omniverse数据生成计算机的三位一体算力体系 [75][77] 市场数据与趋势 - 2024年美国四大云厂商采购130万颗Hopper芯片,2025年Blackwell GPU采购量预计达360万颗 [6] - 云厂商AWS/Google Cloud/Azure及服务器厂商Dell/HPE等15家制造商将成为Blackwell产品首批客户 [16] - 光电共封模块(CPO)交换机性能提升3.5倍,部署效率提升1.3倍,扩展弹性超10倍 [29][32]
老黄发布新核弹B300,英伟达:B200已破DeepSeek-R1推理世界纪录
量子位· 2025-03-18 22:20
文章核心观点 英伟达在GTC大会上发布多款新硬件、软件,涉足以太网领域,还在自动驾驶和具身智能方面取得新进展,同时大会设有“量子日”活动引发关注 [1][18][29][43][56] 新硬件发布 AI芯片 - GB300推理性能是GB200的1.5倍,将于今年下半年出货 [1][2] - 预览下一代AI超级芯片Vera Rubin,2026年下半年发货,整体性能是GB300的3.3倍 [3][6] - 2027年下半年推出的Rubin Ultra性能是GB300的14倍 [6] - 之后的下一代GPU将命名为Feynman [11] 个人AI超级计算机 - DGX Spark售价3000美元,采用GB10芯片,能提供每秒1000万亿次AI运算,官网已开启预定 [20][21][23] - DGX Station采用GB300芯片,将于今年晚些时候从多家厂商推出 [24][26] 以太网网络平台 - 推出全球首个面向AI的以太网网络平台Spectrum - X,可将AI网络性能提升1.6倍 [29][31] - 推出基于硅光学的Spectrum - X Photonics和Quantum - X Photonics网络交换平台,端口数据传输速度提至1.6Tb/s,总传输速度达400Tb/s [32][33] 软件开源 分布式推理服务库 - 发布NVIDIA Dyamo,可让DeepSeek - R1吞吐量提升30倍,已完全开源 [35][37][38] AI推理模型 - 开源新的AI推理模型Llama Nemotron,49B参数量性能远超其他对比模型 [39][41] 自动驾驶与具身智能进展 自动驾驶 - 与通用汽车合作,通用将在自动驾驶上使用英伟达AI技术 [44] - 发布端到端自动驾驶汽车全栈综合安全系统NVIDIA Halos,在三个层面提供支持 [45][47] 具身智能 - 与Google DeepMind和Disney Research合作开发下一代开源仿真物理模型Newton [50] - 推出全球首个开源的、完全可定制的人形机器人基础模型Isaac GR00T N1 [51] 大会其他亮点 - 今年GTC大会首次设立“量子日”活动,老黄将与多家量子计算企业高管讨论行业发展 [56]