Workflow
英伟达(NVDA)
icon
搜索文档
老黄200亿“钞能力”回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:27
文章核心观点 - 英伟达计划以200亿美元收购Groq,旨在通过获取其LPU技术来强化在AI推理市场的竞争力,以应对包括谷歌TPU在内的新芯片范式带来的威胁,并弥补自身GPU在低延迟推理场景的短板 [1][13][15] 英伟达的战略布局与动机 - 英伟达此次收购被视作面向AI新时代的一次重大布局,旨在通过“钞能力”拉拢关键的“铲子”供应商,以巩固其市场地位 [1] - 收购反映出英伟达对谷歌TPU等新芯片范式崛起的担忧,希望通过引入Groq的新技术来帮助公司摆脱“创新者窘境” [1][13] - 此次收购标志着英伟达在称霸AI模型训练(预训练)市场后,正式大举进入竞争激烈的AI推理市场 [15] Groq LPU的技术优势与特点 - Groq的LPU在AI推理速度上远超GPU、TPU及大多数ASIC,其采用片上SRAM,无需从外部读取数据,速度比GPU快100倍 [2][9] - 在处理单个用户请求时,LPU能保持满负荷运转,生成速度可达每秒300–500个token [9] - LPU架构解决了GPU在推理decode阶段的根本瓶颈:GPU的数据主要存放在HBM(高带宽内存)中,每次生成token都需要从内存读取数据,导致大部分算力闲置,无法满足低延迟需求 [3][7][8] GPU在AI推理中的局限性 - GPU架构最初为图形并行处理设计,擅长AI推理的prefill(预填充)阶段,该阶段可并行处理所有输入token [7] - 但在decode(解码)阶段,任务变为串行生成token,且用户能感知每个token的生成延迟,此时GPU因需频繁从HBM读取数据而导致延迟高、算力利用率低,用户体验差 [7][8] - 即便如英伟达H200这样的高端GPU拥有高达141GB的HBM3e显存,在decode阶段也无法充分发挥其FLOPs(浮点运算能力) [8][11] LPU的技术代价与挑战 - LPU的片上SRAM内存容量远小于GPU的HBM,单颗Groq LPU芯片的SRAM仅为230MB [11] - 因此,运行大型AI模型需要连接成百上千颗LPU芯片,例如运行Llama-3 70B模型需要数百颗LPU,其硬件占地面积和整体投资将远大于仅需2-4张GPU的方案 [11][12] - 有观点指出,LPU所采用的SRAM可能无法胜任生成长下文的任务,但可通过与GPU等产品“混搭”的方式解决 [4] AI推理市场的需求与商业模式演变 - 市场已经证明,“速度”是AI推理场景真实存在且高速成长的巨大需求,用户愿意为此付费 [13] - 随着基础模型进展放缓,AI竞争重点正从训练层转向应用层,在应用市场中,推理速度对用户体验至关重要 [14] - 推理芯片被视为一项高销量、低利润的业务,这与训练所用GPU的高利润率(毛利率达70-80%)形成鲜明对比 [15] 行业竞争格局变化 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,有效控制了训练和推理成本,证明了GPU并非AI时代的唯一解决方案 [14] - TPU的崛起为其他竞争者打开了突破口,AI芯片领域正根据技术发展的不同阶段进行调整,新玩家可能颠覆现有格局 [13][14]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:21
文章核心观点 - 英伟达计划投资200亿美元以收购或深度合作的方式拉拢芯片公司Groq 此举被视为应对谷歌TPU等新芯片范式威胁 并弥补自身在AI推理市场短板的关键战略布局 [1][2][3][18] 英伟达的战略动机与行业背景 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖 削减了AI训练和推理成本 证明了GPU并非唯一解决方案 给英伟达带来了竞争压力 [17] - 随着基础模型进展放缓 AI竞争重点从训练转向应用层 应用市场对推理速度的要求变得至关重要 [17] - 此次对Groq的布局 标志着英伟达在巩固训练市场霸主地位的同时 正式大举进入推理芯片这一新兴且竞争激烈的市场 [18][19] Groq LPU的技术优势与市场定位 - Groq的LPU在AI推理的decode(解码)阶段速度极快 远超GPU、TPU及大多数ASIC 其采用片上SRAM 速度比使用HBM的GPU快100倍 处理单个用户时能保持每秒300–500个token的速度 [6][13] - LPU的片上SRAM容量较小 单颗芯片仅230MB 而英伟达H200 GPU的HBM3e显存高达141GB 因此运行大模型需要连接成百上千颗LPU芯片 硬件规模和投资可能非常巨大 [14][15][16] - 市场验证表明 用户愿意为“速度”付费 Groq的业绩证明低延迟推理是一个真实存在且高速成长的需求 [16] GPU在AI推理中的架构性挑战 - GPU架构在推理过程的decode阶段存在短板 decode是串行任务 需要逐个生成token 对延迟极其敏感 但GPU数据主要存放在片外HBM 每次生成token都需从内存读取数据 导致算力闲置 FLOPs利用率低 [12] - 相比之下 推理的prefill(预填充)阶段是并行计算 GPU擅长处理 对延迟不敏感 [12] - 有观点指出 GPU架构难以满足推理市场对低延迟的需求 HBM显存速度是瓶颈 [7] 交易对英伟达的意义与潜在影响 - 此次交易被视为英伟达为自身注射的一剂“疫苗” 旨在通过引入Groq的人才与技术 补齐在低延迟推理场景的短板 抵御竞争对手 避免在AI时代被新玩家颠覆 [16] - 推理芯片市场可能与训练芯片市场特性不同 被描述为一项高销量、低利润的苦活 与英伟达当前毛利率高达70-80%的GPU业务模式截然不同 [19]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
量子位· 2025-12-28 06:59
英伟达的战略收购与市场背景 - 英伟达计划以200亿美元收购AI芯片公司Groq,以应对来自谷歌TPU等新芯片范式的竞争威胁,标志着其在AI新时代的重大布局[1][2][3] - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,削减了训练和推理成本,并在服务大量免费用户时保持了健康的财务状况[28] - 谷歌Gemini 3 Pro的成功证明了GPU并非AI时代的唯一解决方案,芯片需要根据技术发展的不同阶段进行调整[29] Groq LPU的技术优势与市场定位 - Groq的LPU在推理任务,特别是解码阶段,其速度远超GPU、TPU及现有ASIC,比GPU快100倍,单用户处理速度可达每秒300-500个token[6][21] - LPU采用集成在芯片上的SRAM,避免了从片外HBM读取数据的延迟,从而能保持满负荷运转,解决了GPU在解码时因等待数据而导致算力闲置的问题[7][18][19][21] - 市场对低延迟推理存在巨大且高速成长的需求,Groq的业绩证明了“速度”是一个真实存在的付费市场[28] LPU的架构局限与成本挑战 - LPU的片上SRAM容量远小于GPU的HBM,单颗Groq LPU芯片仅有230MB SRAM,而英伟达H200 GPU配备了141GB HBM3e显存[24][25] - 由于单芯片内存容量小,运行大型模型需要大量LPU芯片集群,例如运行Llama-3 70B模型需要数百颗LPU,远多于GPU方案所需的2-4张卡,导致硬件占地面积和总投资巨大[26][27] - 推理芯片被认为是高销量、低利润的业务,与英伟达GPU高达70-80%的毛利率形成鲜明对比[34] AI推理市场的技术需求与竞争格局 - AI推理过程分为预填充和解码两个阶段,对芯片能力有不同要求:预填充阶段需要大上下文容量,适合GPU的并行计算;解码阶段是串行任务,对低延迟要求极高,GPU架构因依赖HBM而存在瓶颈[11][12][14][16][17] - 随着基础模型进展放缓,AI竞争重点从训练转向应用层,应用市场的用户体验对“速度”至关重要[30] - 通过收购Groq,英伟达旨在弥补其在低延迟推理场景的短板,防御潜在颠覆者,并进军竞争对手涌现的推理市场[28][31][32]
比英伟达更狂!靠锁定本拉登起家,这家关乎美国国运的公司啥来头
搜狐财经· 2025-12-28 06:40
最近,在美国股市中,有一家公司获得的关注甚至超越了AI巨头英伟达。它的股价飞速上涨,令许多投资者感到惊讶。更令人震惊的是,这家公司与美国 反恐事业紧密相关。正是凭借它的技术支持,美军才得以在多年后成功追踪到本·拉登的藏匿地点。 小李注意到,市场上有很多声音将它与美国的国运紧密联系在一起,认为它是美国军事工业和科技竞争力的支柱。那么,这家公司到底有什么过人之处,能 在竞争激烈的美股市场中脱颖而出?它又是凭借什么样的能力,获得了如此重要的地位?今天,我们就来探讨这家充满传奇色彩的公司。 2001年的911事件,让美国陷入了前所未有的恐慌。恐怖袭击带来的不仅是巨大的人员和财产损失,也暴露了美国情报体系的致命缺陷。当时,CIA和FBI等 多个情报机构手中掌握了大量的情报,但这些信息却分散在不同的系统中,像是一个个孤立的信息孤岛,没人能够把这些零散的线索联系起来。 即便恐怖分子的踪迹就在这些信息中,始终无法精准捕捉到。这种明明看得到却抓不住的困境,成了美国安防领域的难题。在这个背景下,硅谷的传奇人物 彼得·蒂尔看到了商机。彼得·蒂尔不仅是马斯克的好友,而且以敢于尝试新事物而著称。他认为,美国缺少的并不是情报,而是整合这 ...
消息称黄仁勋重组英伟达云团队:放弃死磕AWS、专注卖“铲子”
搜狐财经· 2025-12-28 06:21
公司战略调整 - 英伟达于上周低调重组了其云计算团队,这一动作被业界解读为公司正式退出了与亚马逊 AWS、微软 Azure 等云巨头的正面竞争 [1] - 公司曾于2023年推出超级计算机云租赁服务 DGX Cloud,试图构建独立的云生态,但面对资本密集型市场,最终选择了务实回调 [1] - 重组后的云团队不再背负激进的市场扩张 KPI,而是被整合进更广泛的工程职能中,其首要任务转变为服务内部需求 [3] 业务转型原因 - DGX Cloud 的初衷是让企业能以更低门槛访问其顶级 AI 算力,但作为一家硬件基因深厚的公司,英伟达在构建全球数据中心基础设施和软件生态方面遭遇了巨大阻力 [3] - 该服务高昂的定价和复杂的集成难度,使其难以从成熟的 AWS 手中抢夺客户 [3] - 转型后的 DGX Cloud 将扮演全新角色,成为英伟达内部芯片的顶级测试场,用于测试和优化自家的下一代 AI 芯片(如 Blackwell 系列) [3] 转型后的新策略 - 公司选择利用 DGX Cloud 平台在内部云环境中模拟高负载 AI 工作流,工程团队能更快发现硬件瓶颈,从而加速产品迭代 [3] - 这种"内循环"策略,避免了对外服务的运维压力,并直接反哺了核心硬件业务的竞争力 [3] - 华尔街对这一"做减法"的决策反应积极,分析师指出放弃云服务争夺战意味着英伟达无需再投入数百亿美元建设数据中心,从而能将宝贵资金集中于高利润的研发领域 [4] 市场影响与评价 - 在 AI 基础设施成本飙升的当下,英伟达选择避其锋芒、专注卖"铲子",被视为一种成熟的商业智慧 [4] - 此举有助于其维持目前接近 3 万亿美元的市值高位 [4]
This AI Stock Is Quietly Outperforming Nvidia in 2025
The Motley Fool· 2025-12-28 06:10
英伟达与Alphabet的AI市场表现对比 - 英伟达是过去几年市场关注的领先AI芯片设计商,其股价在过去五年飙升了1300% [1] - 2025年,英伟达营收创纪录且需求旺盛,股价实现两位数增长,但并非年度最大赢家 [2] - Alphabet在2025年股价涨幅预计超过65%,正悄然超越英伟达的表现 [4] Alphabet的核心业务与市场地位 - Alphabet旗下拥有全球市场份额超过90%的谷歌搜索,是公司数十亿美元营收和稳定增长的基础 [5] - 广告业务是Alphabet营收的主要来源,广告商聚集在谷歌平台以触达用户 [5] - Google Cloud是另一个重要且增长的收入来源,提供AI工具和平台 [6] - 在最近一个季度,受AI基础设施和生成式AI服务需求推动,Google Cloud营收增长了34% [6] Alphabet的财务里程碑与增长动力 - 广告业务的实力和Google Cloud的增长,帮助公司在最近一个季度首次实现了单季营收1000亿美元 [8] - 分析师预测AI市场规模可能在几年内达到数万亿美元 [8] - Alphabet通过Google Cloud满足客户多样化的AI需求,处于有利的受益地位 [8] - 公司基于其大型语言模型Gemini为客户提供服务,并利用Gemini改进自身业务(如优化广告体验)[6] 近期利好事件与估值分析 - 9月初,美国联邦法官在一起反垄断案件中排除了拆分谷歌(出售Chrome或Android操作系统)的最坏情况,消除了公司及其投资者的最大风险 [9] - Alphabet基于远期收益预估的市盈率为29倍,相比英伟达估值更为便宜 [10] - 公司不仅提供英伟达系统,还为客户提供多种替代方案,有望在AI市场增长中受益 [11] 投资吸引力与前景展望 - 公司主要的利润引擎——广告业务,无论AI支出环境如何,都可能持续带来营收增长,为投资者提供了安全感 [12] - 其合理的估值可能吸引寻求价格合理AI股票的买家 [11] - 有理由对Alphabet明年的表现持乐观态度,其甚至可能继续跑赢英伟达 [12]
计算机行业周观点第46期:英伟达部分收编Groq,或为补全推理芯片拼图-20251228
西部证券· 2025-12-28 05:46
报告行业投资评级 - 报告未明确给出计算机行业的整体投资评级 [1][3][4][5] 报告的核心观点 - 英伟达以约200亿美元现金收购AI芯片公司Groq的核心资产 这是一项非排他性授权协议 并非传统100%股权收购 [1] - 英伟达此举旨在补全其在AI推理芯片领域的拼图 以应对大模型推理需求的快速增长 并整合潜在技术对手 开辟不依赖HBM供应链的新战线 [1][3] - 报告推荐关注推理芯片及服务器领域的相关公司 [3] 根据相关目录分别进行总结 交易概况 - 交易于12月25日被报道 英伟达同意以约200亿美元现金收购成立9年的AI芯片公司Groq的核心资产 [1] - 交易为一项非排他性授权协议 主要内容包括:1)英伟达获得Groq所有资产与技术授权 但GroqCloud云端业务维持独立 2)Groq创始人Jonathan Ross 总裁Sunny Madra及团队其他成员将加入英伟达 3)Groq将继续作为独立公司运作 由原CFO出任新CEO [1] Groq公司及技术分析 - Groq成立于2016年 核心团队来自谷歌TPU工程团队 创始人Jonathan Ross是谷歌TPU项目核心研发人员 [2] - Groq专注于实现高吞吐量 低成本的AI推理芯片 而非训练 其采用“编译器优先”策略以提升推理效率 [2] - Groq提出“LPU(语言处理单元)”芯片概念 专门用于大语言模型推理任务 据称其速度比英伟达H100快10倍 成本仅为其十分之一 [2] - 在内存设计上 LPU架构摒弃外部HBM 直接采用片上SRAM Groq芯片的片上内存带宽高达80TB/s以上 而目前顶尖GPU采用的HBM带宽仅约为8TB/s [2] 行业背景与交易逻辑 - 大模型推理需求高速增长 例如火山引擎总裁谭待宣布 截至今年12月 豆包大模型日均token使用量突破50万亿 较去年同期增长超过10倍 [3] - 市场对专门处理推理工作负载的专用芯片需求不断增长 推理芯片技术路线呈现百花齐放态势 Cerebras Groq及各大云厂商自研芯片与英伟达在训练端的差距较小 [3] - 通过部分收编Groq 英伟达可整合潜在技术对手 规避反垄断风险 并有望在未来AI产能大战中 开辟一条不依赖HBM供应链 专门针对高频低延迟推理市场的新战线 [3] 投资建议 - 报告推荐关注两条主线:1)推理芯片:寒武纪 海光信息 2)服务器:中科曙光 浪潮信息 神州数码 华勤技术 [3]
通信行业研究:华为nova15系列发布,英伟达战略性整合Groq加强推理布局
国金证券· 2025-12-28 05:35
报告行业投资评级 * 报告未明确给出统一的行业投资评级,但对多个细分板块给出了景气度判断 [13] 报告核心观点 * 全球及国内AI产业持续高景气,从上游芯片、存储到下游应用及基础设施的需求均保持强劲,相关产业链公司有望受益 [1][2][4][13] * 海外科技巨头资本开支维持高增长,国内大厂亦计划大幅增加AI相关投入,将直接拉动服务器、光模块、IDC等硬件需求 [1][2][3][13] * AI商业模式(如广告)的探索与落地,有望提升算力投入的变现能力,进一步推动算力基础设施需求 [1][2][6][13] 细分赛道总结 * **服务器**:板块景气度“稳健向上” [13] 本周指数上涨3.00% [2][6] OpenAI算力利润率攀升至70%表明AI商业变现能力增强,将推升服务器需求 [1][2][6] * **光模块**:板块景气度“稳健向上” [13] 本周指数上涨5.17%,本月累计上涨20.27% [2][6] 英伟达整合Groq技术以强化AI推理芯片布局,利好英伟达产业链 [1][2][6] 2025年1-11月中国光模块出口金额累计同比下降18%,主要因国内厂商在海外建厂 [3][34] * **IDC(互联网数据中心)**:板块景气度“加速向上” [13] 本周指数上涨3.73%,本月累计上涨4.48% [2][7] 字节跳动计划2026年投入1600亿元人民币资本开支,其中850亿元用于AI处理器 [1][2][7][13] 字节跳动AI产品“豆包”日均活跃用户数突破1亿 [1][2][7] * **运营商**:板块景气度“稳健向上” [13] 2025年前11个月电信业务收入累计完成16096亿元,同比增长0.9% [3][14] 新兴业务(云计算、大数据等)增长迅速,2024年12月收入同比增长66.39% [14] * **液冷**:板块“高景气维持” [13] 因AI芯片功耗持续提升,液冷成为数据中心标配需求 [13] * **物联网**:板块景气度“加速向上” [13] 截至2025年11月末,中国蜂窝物联网终端用户数达29亿户,同比增长9.85% [40] 2025年第三季度全球物联网模组出货量同比增长10% [40] 核心数据更新 * **电信业务**:2025年前11个月,按不变价计算的电信业务总量同比增长9.1% [3] 截至11月末,5G移动电话用户数达11.93亿户,占比65.3% [16] 千兆宽带用户达2.39亿户,在固定宽带用户中占比34.3% [16] 前11个月移动互联网累计流量达3587亿GB,同比增长17% [19] * **海外云厂商资本开支**:2025年第三季度,微软、谷歌、Meta、亚马逊的资本支出分别为167亿美元、240亿美元、196亿美元、351亿美元,同比分别增长53%、83%、133%、55% [3] * **基础设施**:截至2025年11月末,中国5G基站总数达483万个 [30] 行业重要动态 * **英伟达**:与AI芯片公司Groq达成技术整合协议,支付约200亿美元现金以获得其技术许可并吸纳核心团队,旨在补强高能效AI推理能力 [1][55] 重组云服务团队(DGX Cloud),战略重心从对外提供公有云服务转向服务内部芯片开发需求 [1][56] * **存储**:三星电子、SK海力士等供应商已上调明年HBM3E价格,涨幅接近20%,主要因英伟达、谷歌、亚马逊等AI加速器企业上调订单 [1][55] * **OpenAI**:截至2024年10月,其算力利润率已从年初的35%攀升至70% [1][57] 内部正讨论在ChatGPT中引入广告业务模式,并已制作内部模型 [1][57] * **字节跳动**:初步计划2026年投入1600亿元人民币(约230亿美元)资本开支 [1][53] 计划明年在AI处理器上花费850亿元人民币,并计划订购约2万台英伟达H200芯片 [1][53] * **华为**:发布nova 15系列手机,其中Pro和Ultra版搭载麒麟9010S处理器,标准版搭载麒麟8020处理器,通过与鸿蒙系统协同实现整机性能提升62% [1][51] * **中芯国际**:已发布涨价通知,主要针对8英寸BCD工艺平台,涨价幅度约10%,原因包括手机和AI需求增长带动套片需求 [52] * **政策与会议**:全国工业和信息化工作会议指出,2025年全年电信业务总量和软件业务收入预计分别同比增长约9%和12%,人工智能核心产业规模超过万亿元 [50]
周末美国有点啥?
小熊跑的快· 2025-12-28 04:41
文章核心观点 - 英伟达收购Groq是一项标志性事件 标志着公司正式全面杀入ASIC领域 以应对从训练到推理的行业算力结构转变 [4][5] - 此次交易涉及金额达200亿美元 [2] 交易具体内容 - 英伟达收购了专注于推理的公司Groq [1] - 交易并非全面收购 而是一项包括Groq推理技术非独家授权的协议 [1] - Groq创始人Jonathan Ross(TPU之父)及总裁Sunny Madra等核心团队成员将加入英伟达 [1] 行业背景与交易意义 - 行业算力需求正从训练向推理演进 技术需求从高带宽、大显存、复杂并行向低延迟、高吞吐、低成本转变 [4] - 此次收购协议旨在补齐英伟达在推理时代的短板 [4] - 通过非独家协议获得技术授权和人才 有助于遏制其他潜在ASIC芯片公司的快速崛起 [5] - 该事件拉开了推理计算时代的大幕 [5]
深扒了学术界和工业界的「空间智能」,更多的还停留在表层......
自动驾驶之心· 2025-12-28 03:30
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近30个 方向 学习 路线 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 编辑 | 自动驾驶之心 "空间智能不仅是看清世界,更是理解世界是如何在三维空间中运作的。" —— 随着李飞飞(Fei-Fei Li)对 Spatial Intelligence 的定义深入人心,2025 年成为了自动驾 驶从"感知驱动"向"空间智能"全面转型的分水岭。 先回答第一个问题, 什么是空间智能? 广义上来说:空间智能是 对 空间信息 (位置、距离、方位、形状、运动、拓扑关系等)进行感知、表征、推理、决策与交互 的综合能力,是智能体(人类、机器人、自动驾驶系统)与物理世界交互的核心基础。其本质是将三维物理空间的复杂信息转化为可计算、可理解的模型,进而支撑 导航、避障、操作、场景理解等任务。 所以很多技术都可以和空间智能相结合,BEV感知、端到端、VLA、世界模型等等。 今天自动驾驶之心就和大家盘一下自驾领域内和空间智能相关的工作,主要分 为四大模块: 目前的空间智能还停留在表层,更多的是在做感知和表征层面的"智能" ,在深层次的推理决策和交互能力上仍 ...