老黄超200亿美元的推理闭环成型了
英伟达英伟达(US:NVDA) 量子位·2026-01-01 06:15

文章核心观点 - 英伟达在7天内接连收购Groq和AI21 Labs,加上此前收购的Enfabrica,总投入超过200亿美元,旨在通过获取顶尖人才和关键技术,构建从硬件、网络到架构的完整闭环,以巩固并扩大其在AI推理市场的竞争力,应对来自谷歌、博通等公司的挑战 [1][2][3][27] 收购事件与战略布局 - 英伟达近期完成了一系列战略性收购:以约200亿美元收购Groq及其团队,以20-30亿美元收购AI21 Labs及其团队,此前还以9亿美元收购了Enfabrica [1][2][3] - 通过这三重收购组合拳,公司成功构建了覆盖“硬件-网络-架构”的AI推理市场完整技术闭环 [3][26] - 此举是对谷歌TPU等竞争对手的明确回应,旨在守住并扩大在AI推理市场的优势,而不仅仅是依赖GPU [18][27] 收购目标分析:Groq - 收购Groq使英伟达获得了其LPU(语言处理单元)推理芯片技术以及由“TPU之父”Jonathan Ross领衔的核心团队,该公司90%的员工(约500名员工人均套现500万美元)被并入英伟达 [2][6][23][24] - Groq的LPU使用SRAM而非HBM,速度极快但内存受限,在处理长上下文时面临挑战 [14][15] - 此次收购旨在强化英伟达在AI推理硬件领域的实力,应对定制ASIC芯片(已占37%部署份额)的竞争 [4][22] 收购目标分析:AI21 Labs - 收购AI21 Labs使英伟达获得了约200名顶尖AI博士及其核心的Jamba混合架构技术 [2][12] - AI21 Labs是一家估值14亿美元的以色列初创公司,其创始团队背景显赫,包括Mobileye创始人、斯坦福荣誉退休教授等业界顶流 [7][8][10][11] - Jamba架构采用Mamba-Transformer混合设计,能有效解决Groq LPU等内存受限芯片在处理长文本时的KV缓存爆炸问题,其长文本处理速度比同类模型快2.5倍,效率比DeepSeek、Llama、谷歌等模型提升2-5倍,能在256K上下文长度内轻松处理4GB的KV缓存 [16] - 此次收购弥补了英伟达在推理模型架构上的短板,旨在将算力转化为可落地的商业解决方案 [17][25] 行业竞争格局 - 在AI训练市场,英伟达占据超过90%的份额,但在AI推理市场,格局更为分散,定制ASIC芯片已抢占37%的部署份额,谷歌、博通等巨头构成竞争威胁 [4] - 谷歌的TPU已经证明GPU并非AI推理的唯一解决方案 [27] - 英伟达通过收购进行人才和技术的双重布局,以对抗竞争对手,其收购背后是能够将推理效率提升数倍的技术 [5][28]