Workflow
AlphaMayo
icon
搜索文档
计算机行业周报:英伟达Rubin架构重塑算力未来,MiroMind团队发布MiroThinker1.5-20260113
华鑫证券· 2026-01-13 09:11
报告行业投资评级 - 行业评级为“推荐”(维持) [2] 报告核心观点 - 报告认为,MiniMax的成功上市是AI应用板块迈向商业化验证的重要信号,其成熟的商业闭环与全球化布局强化了AI应用板块的商业可信度,印证了AI应用赛道的高景气度,凸显了技术落地能力的核心价值,龙头企业的资本化进程将加速资源集聚与行业整合,维持对AI应用板块的长期看好态度 [7][9][57] - 英伟达发布的Vera Rubin架构是面向AI工业化生产时代的系统性宣言,其性能的跨越式进展将重塑算力未来,并预示着下一代主流大模型将很可能运行在此架构之上 [5][34][39] 根据相关目录分别总结 1. 算力动态 - **Tokens跟踪**:2026年1月5日至1月11日,周度token调用量为6.43T,环比增长15.44% [18]。在tokens规模前五名中,Anthropic的Claude Sonnet 4.5以531B tokens位居榜首,xAI的Grok Code Fast 1以413B位列第二 [18]。从市场份额看,Google以232B tokens占据23.3%的份额,稳居首位;Anthropic以136B tokens占比13.7%,位列第二 [19] - **算力租赁价格**:上周算力租赁价格平稳,例如配置A100-40G的腾讯云实例价格为28.64元/时,阿里云实例价格为31.58元/时,价格环比上周均无变化 [23][26] - **产业动态**:MiroMind团队于2026年1月5日发布旗舰搜索智能体模型MiroThinker1.5,提供30B和235B两种参数变体 [4][23]。235B版本在网页检索基准测试BrowseComp中以69.8%的得分刷新纪录,中文适配版本BrowseComp-ZH得分达71.5% [24]。30B版本在BrowseComp-ZH测试中较1T参数的Kimi-K2-Thinking实现4.5%的性能提升,单条调用成本仅为0.07美元,是后者的1/20 [24]。模型采用创新的“主动求证-多轮校验-过滤捷径”交互机制和时序敏感训练沙盒,以杜绝推理错误与幻觉 [4][27][28] 2. AI应用动态 - **周流量跟踪**:在2026年1月1日至1月7日期间,AI相关网站周平均访问量前三为ChatGPT(1215.0M)、Bing(772.3M)和Gemini(424.0M)[32]。访问量环比增速第一为NotionAI,增长25.06%;平均停留时长环比增速第一也为NotionAI,增长1.67% [32] - **产业动态**:英伟达在CES 2026上发布新一代超算架构Vera Rubin [5][34]。与上一代Blackwell架构相比,其在AI推理任务上的性能提升高达五倍,训练性能提升三点五倍,单位Token的推理成本大幅降低十倍 [5][34]。该架构首次将CPU、GPU、网络、存储及安全组件作为整体协同优化 [5]。其中,Rubin GPU可提供高达50 PFLOPS的NVFP4精度算力,全新的Vera CPU采用自研88个Olympus核心 [35]。NVLink 6技术使单个GPU提供3.6TB/s带宽,由72个GPU组成的Rubin NVL72机架总带宽达260TB/s,将大规模推理成本降至原先的七分之一 [35]。在训练方面,其运行速度是Blackwell的3.5倍,HBM4内存带宽提升至22TB/s,在超大规模MoE训练中所需GPU数量可减少至Blackwell平台的四分之一 [36]。该平台计划于2026年下半年进入大规模商用阶段 [39]。英伟达同时发布了端到端自动驾驶AI系统“AlphaMayo”,并宣布其DRIVE AV软件将首次搭载于全新梅赛德斯-奔驰CLA车型 [40]。在具身智能领域,英伟达开源了包括Cosmos、Isaac等系列模型及框架,并推出了边缘计算模组Jetson T4000,其算力达上一代的四倍,功耗仅70瓦 [44] 3. AI融资动向 - **MiniMax上市港交所**:2026年1月9日,MiniMax(稀宇科技,0100.HK)登陆港交所,早盘高开超50%,午间收盘市值达898亿港元 [6][45]。本次IPO以165港元上限定价,募资55.4亿港元,公开发售获1837倍超额认购,引入14位基石投资者 [6][45]。上市前四年完成7轮融资,累计获30家机构投资15亿美元 [6][47] - **公司业绩与运营**:MiniMax营收持续跨越式提升,2023年、2024年、2025前三季度营业收入分别为0.35千万美元、3.05千万美元及5.34千万美元 [7][57]。逾70%收入来源于海外市场,产品覆盖全球200多个国家及地区,累计用户规模超2.12亿 [9][57]。毛利率显著改善,从2023年的-24.7%升至2024年的12.2%,并进一步提升至2025前三季度的23.3% [9][57]。2023年、2024年及2025前三季度研发开支分别为7.00千万美元、18.90千万美元及18.03千万美元 [9][57]。公司底层架构达成80%的资源复用率,其M2.1系列模型登顶开源模型榜首,Hailuo02模型在视频领域位居全球第二,Speech02模型在语音领域综合性能排名全球第一 [9]。公司现有员工385人,平均年龄29岁,内部研发中超80%的代码由AI自动生成 [9][57] 4. 行情复盘 - **指数表现**:上周(2026年1月5日至1月9日),AI应用指数日涨幅最大值为3.95%,AI算力指数日涨幅最大值为3.31% [51] - **个股表现**:AI算力指数内部,润泽科技录得最大涨幅+31.06%,新易盛录得最大跌幅-7.58% [51]。AI应用指数内部,蓝色光标录得最大涨幅+49.13%,沪电股份录得最大跌幅-4.20% [51] 5. 投资建议 - **中长期关注公司**:报告建议中长期关注四家公司 [10][58]: 1. 迈信林(688685.SH):加快扩张算力业务的精密零部件龙头 [10][58] 2. 唯科科技(301196.SZ):新能源业务高增并供货科尔摩根等全球电机巨头 [10][58] 3. 合合信息(688615.SH):AI智能文字识别与商业大数据领域巨头 [10][58] 4. 能科科技(603859.SH):深耕工业AI与软件并长期服务高端装备等领域头部客户 [10][58] - **重点关注公司盈利预测**:报告列出了四家公司的盈利预测与评级,均为“买入”评级 [12][59][60]
黄仁勋喊话“中国英伟达”:期待竞争,你们世界顶尖,但必须努力
36氪· 2026-01-07 04:13
公司战略与市场展望 - 公司正式发布了由六颗全新芯片组成的Rubin平台,并宣布将在2026年下半年向合作伙伴供货 [1] - 公司掌门人表示,自去年10月后的新进展应会提高对5000亿美元数据中心销售额的预期 [1][3] - 公司认为世界正在经历一场10万亿美元的计算现代化升级,而劳动力产业更是高达100万亿美元的市场 [1][9] - 公司投资的两种主要方式是:构建世界不能或不会构建的技术(如NVLink、Grace CPU),以及投资其上下游生态系统 [11][12][13][14] - 公司通过投资跨越AI蛋糕的五层(基础设施、芯片、系统、模型、应用)来培育和加速AI发展 [15] - 公司认为其首要责任是构建最好的技术以推动AI规模化,其次是确保丰富的生态系统能从这场工业革命中受益 [16] 产品与技术路线图 - 新发布的Rubin平台包含六颗全新芯片:Grace CPU、Vera GPU、Rubin、CX-9 NVLink交换机、带有CoPackage光学器件的Spectrum X,以及Bluefield 4 [23] - Rubin平台引入了可插拔NVLink交换机,允许在系统运行时更换或更新,提升数据中心运行效率 [24][25] - Rubin平台具备功率平滑功能,可避免电力尖峰,让数据中心能以100%功率持续运行 [25] - Rubin平台实现了首个端到端保密计算系统,可在同一AI工厂中安全运行不同模型制造商的知识产权 [26] - 新平台的组装时间从过去的两个小时大幅压缩到五分钟,并且采用100%风液冷却 [26] - 公司发布了代号“Alpamayo”的自动驾驶AI软件,并将其称为“机器人技术的ChatGPT时刻” [1] - 公司认为自动驾驶的安全哲学是“最好永远不要有人车交接”,即使不承诺L4,也应具备L4的能力 [2][28][29] 市场竞争与行业格局 - 开源模型的成功是2025年的重大惊喜,现在每四个生成的AI token中就有一个来自开源模型,这极大地推动了公司和公有云的需求 [3] - 关于中国市场,公司已启动H200芯片的供应链,正在完成与美国政府的许可细节,并期待通过采购订单来了解市场需求 [4][5] - 公司承认H200在市场上仍有竞争力,但不会永远有竞争力,因此需要持续发布新产品以保持市场地位 [6] - 公司认可中国竞争对手的实力,称中国的企业家、工程师和AI研究人员是“世界上最好的之一”,并期待他们的竞争 [1][6][10] - 公司认为其护城河在于:以无人能及的规模创新AI、构建从CPU到存储的完整技术栈、与全球几乎每家AI公司合作,以及在多个行业有深入参与 [7][8][9] 新兴领域:机器人、自动驾驶与物理AI - 公司认为具有人类水平能力的机器人将在今年(2026年)出现,并预计移动能力将最先被解决,其次是粗大关节和抓取,最后是精细运动技能 [2][37] - 公司不认为机器人会取代人类工作,反而认为拥有机器人将创造就业机会,以应对全球劳动力短缺和人口下降问题 [2][40] - 在自动驾驶领域,公司为行业提供完整的堆栈和技术,而非自己制造汽车,其目标是让“一切移动的东西都应该是自主的” [33][34][36] - 公司将其自动驾驶软件Alpamayo与特斯拉FSD进行了对比,指出特斯拉FSD是端到端训练的世界级产品,而公司的差异点在于作为技术平台提供商,为整个汽车行业服务 [30][32][35] - 公司认为AI模型具有“多重体现”的能力,训练用于人形机器人的模型也可能成为完美的自动驾驶汽车操纵器 [38] 供应链与制造 - 公司已与台积电合作超过25年,规划团队紧密协作,以确保六颗新芯片的稳定产能和及时交付,2026年将是业务合作的大年 [29][30] - 新平台Vera Rubin采用了最新的工艺技术,并首次使用了名为CoPackage的新硅光子技术 [30] 公司定位与未来愿景 - 公司预言其可能会成为“世界上最大的CPU制造商之一”和“最大的存储公司之一” [1][21] - 公司认为AI不仅是一次技术转变,更是一次平台转变,正在重新发明整个计算堆栈,包括网络和存储系统 [20] - 在网络领域,通过对Mellanox的收购和Spectrum X的推出,公司已成为“世界上最大的网络公司” [20] - 在存储领域,公司认为AI工作负载将推动存储系统革命,其Bluefield 4技术是重新发明存储的开始 [20][21] - 公司强调其创新速度前所未有,是世界上唯一一家能以当前规模和速度整合六颗全新芯片的公司 [23][24]
今夜无显卡,老黄引爆Rubin时代,6颗芯狂飙5倍算力
36氪· 2026-01-06 09:40
英伟达Vera Rubin AI超算平台发布 - 在CES 2026上,英伟达正式发布并宣布其下一代AI芯片架构Vera Rubin已全面投产,预计2026年下半年面世[1][3] - 该平台旨在解决AI算力规模化难题,目标是将算力变得像电力一样廉价,推动AI大爆发[8][10] Vera Rubin平台架构与性能 - 平台采用系统性设计,首次将CPU、GPU、网络、存储和安全作为一个整体来设计,核心思路是将整个数据中心变成一台AI超算[13] - 平台由六大关键组件构成:Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet[14] - Rubin GPU搭载第三代Transformer引擎,提供50 PFLOPS的NVFP4推理算力,性能达到上一代Blackwell GPU的5倍[16][27] - 引入专为智能体推理设计的Vera CPU,采用88个自研Olympus核心,I/O带宽和能效比直接翻倍[18] - NVLink 6提供单芯片400Gb/s交换能力,单GPU带宽3.6TB/s,Rubin NVL72机架带宽达260TB/s,超过整个互联网[22] - 集成计算单元(托盘)包含2颗Vera CPU、4颗Rubin GPU、1颗BlueField-4 DPU和8颗ConnectX-9网卡,算力达100 PetaFLOPS[24] 性能提升与成本降低 - 训练性能:Rubin架构训练模型速度达Blackwell架构的3.5倍(35 petaflops)[27] - 推理性能:推理任务速度达Blackwell的5倍(最高50 petaflops),单位token推理效率提升最高可达10倍,算力成本可降至原来的1/10[1][3][32] - 内存与带宽:HBM4内存带宽提升至22 TB/s,是上一代的2.8倍;单GPU NVLink互连带宽翻倍至3.6 TB/s[27] - 规模化训练:在超大规模MoE模型训练中,所需GPU数量相比Blackwell可减少至1/4,整体能耗显著下降[3][28] - 性能提升归因于NVLink 6提升互联带宽、Vera CPU与GPU协同调度减少空转、ConnectX-9与Spectrum-6深度协同突破集群规模限制[29] DGX SuperPOD与规模化部署 - 推出新一代DGX SuperPOD,连接多个Rubin NVL72机架形成更大AI计算集群,示例配置包含8个机架共576个GPU[37][39] - Rubin NVL72系统集成72块Rubin GPU、36块Vera CPU等组件,提供统一、安全的系统,可处理数千个Agentic AI智能体及数百万token上下文[41] - 该平台旨在提供开箱即用的AI基础设施,一次性解决数百个GPU互联与管理存储的问题[41] 安全与商用计划 - Rubin是首个支持第三代机密计算(Confidential Computing)的AI超算平台,实现模型参数、推理数据、用户请求的全链路加密[46] - 平台将由AWS、Microsoft Azure、Google Cloud、Meta、OpenAI等头部厂商首批部署,2026年下半年进入大规模商用阶段,下一代主流大模型预计将运行于此架构上[47] 自动驾驶与物理AI进展 - 发布端到端自动驾驶AI系统AlphaMayo,具备显式推理能力,能从摄像头输入到车辆动作执行全流程由模型完成,演示中实现全程0接管[51][53][55] - 宣布NVIDIA DRIVE AV软件首次搭载于全新梅赛德斯-奔驰CLA,提供L2级端到端驾驶[57] - 推出针对物理AI(Physical AI)的开源全家桶,包括模型、框架及基础设施,旨在加速机器人等具身智能发展[62] - 开源模型包括:世界模型Cosmos Transfer/Predict 2.5、推理模型Cosmos Reason 2、人形机器人模型Isaac GR00T N1.6,均已上线Hugging Face[64] - 发布开源框架Isaac Lab-Arena和统一调度平台NVIDIA OSMO,以缩短机器人开发周期[64][65] 边缘计算与硬件更新 - 推出全新Jetson T4000模组,将Blackwell架构带到边缘端,算力达1200 FP4 TFLOPS,是上一代的4倍,1000台起订单价1999美元,功耗70瓦[67][68][69] - 宣布Hugging Face上的开源机器人Reachy 2和Reachy Mini已完美适配英伟达Jetson平台[67] 产业观点与未来展望 - 公司认为计算产业正同时经历从传统计算走向AI以及整个软硬件栈底层重塑两次平台级转变,AI正成为全新的应用底座[72] - 指出智能体AI(Agentic AI)之后的下一个前沿是物理AI(Physical AI)[74] - 强调仿真模拟是物理AI体系的核心,AI需要在可控的数字环境中反复尝试以建立对世界的理解[85] - 提及像Perplexity这样同时调用多个顶尖模型的“多云协同”应用,代表了未来AI应用的基本形态[83] 其他产品信息 - 宣布DGX Station台式AI超算将于2026年春季上线,搭载GB300 Grace Blackwell Ultra芯片,拥有Petaflop级算力,支持在本地运行高达1万亿参数模型,LLM预训练速度达250,000 Token/秒[87][89] - 明确CES 2026没有消费级新GPU发布,连续五年在CES发布新硬件的传统终结,传闻中的RTX 50 Super系列或因GDDR7显存产能问题已取消[6][7]