Workflow
英伟达(NVDA)
icon
搜索文档
国金证券:一切仍然指向算力
新浪财经· 2025-12-28 09:41
文章核心观点 大模型技术竞赛持续白热化,Scaling Law依然有效,模型能力尚未触及瓶颈,2026年进展值得期待[1][23] AI应用落地正在加速,推理需求持续强化,预示着从训练到大规模推理的算力需求演进[1][2] “十五五”规划建议明确了支持战略性新兴产业和未来产业,并强调适度超前建设算力等新型基础设施,进一步强化了AI与算力的产业趋势[3][31] 一、大模型竞赛持续白热化,Scaling law依旧有效 - **全球顶尖模型持续迭代,能力实现跃迁式提升**:谷歌Gemini 3在基础推理与多模态能力上实现显著突破,例如在Humanity‘s Last Exam测试中,Gemini 3 Pro得分为37.5%(无工具)和45.8%(带工具),远超Gemini 2.5 Pro的21.6%和Claude Sonnet 4.5的13.7%[11] 在ARC-AGI-2测试中,Gemini 3 Pro得分为31.1%,而GPT-5.1为17.6%[11] 在多模态理解测试ScreenSpot-Pro中,Gemini 3得分72.7%,是Claude Sonnet 4.5的两倍,GPT-5.1的二十倍[12] - **模型面向专业与经济价值创造**:OpenAI发布的GPT-5.2面向专业知识型工作,在GDPval测试中,GPT-5.2 Thinking在70.7%的高难度知识型工作任务上表现优于或持平行业顶尖专家,完成任务速度约为专家的3倍,成本仅约1%[14] - **海外巨头持续加码布局**:Meta正积极开发两款重量级AI模型,分别是主攻图像与影片的“Mango”和强化编程能力的“Avocado”,预计2026年上半年问世,并已重组团队、挖角人才以加大投入[15] - **国产开源模型引领创新,接近国际先进水平**:DeepSeek-V3.2在推理性能上逼近顶尖闭源模型,其长思考增强版在主流推理基准测试上性能媲美Gemini-3.0-Pro,并在多项国际竞赛中斩获金牌[16] 模型创新包括采用DSA稀疏注意力机制、将后训练算力预算调整到超过预训练成本的10%、以及使用大规模合成数据提升泛化能力[17] 斯坦福大学报告指出,在能力与采用率方面,中国开放权重的大模型已接近甚至部分领先国际先进水平[18] 2024年8月至2025年8月,中国开源模型开发者占Hugging Face所有下载量的17.1%,略超美国的15.8%[18] 2025年9月,中国微调或衍生模型占Hugging Face上发布的所有新微调或衍生模型的63%[18] - **算力基座升级驱动模型进步**:大模型训练的硬件基础正从英伟达Hopper架构转向Blackwell架构,后者在单卡算力、显存带宽(HBM带宽从3.35 TB/s提升至8.0 TB/s)、显存容量(从80GB HBM3提升至192GB/288GB HBM3e)等方面大幅提升,有助于加速训练、降低成本并提升训练稳定性[24][25] 二、AI应用落地加速,推理需求持续强化 - **AI手机助手实现跨应用自主操作,重塑交互方式**:字节跳动于2025年12月发布豆包AI手机助手技术预览版,实现AI对手机的跨应用自主操作,能从理解指令升级为执行复杂任务(如跨平台比价、下单),标志着AI在C端从语音助手进化为会行动的助理[26] - **AI应用推理需求呈现爆发式增长**:豆包大模型的日均Tokens使用量从2025年5月底的超过16.4万亿,增长至2025年12月的突破50万亿,居中国第一、全球第三,较发布初期增长137倍,直观体现了推理算力需求的增长[28] - **英伟达前瞻布局推理算力,印证应用落地加速**:英伟达从推理芯片初创公司Groq获得关键技术授权并吸纳其核心高管,Groq专为推理设计的LPU芯片在运行主流大语言模型时,推理速度可达英伟达H100 GPU的5至18倍,首token响应时间仅0.2秒[29][30] Groq在2025年9月完成一轮7.5亿美元融资,投后估值达69亿美元[30] 此次合作反映了AI算力需求正由以训练为中心向训练与大规模推理并重演进[31] 三、“十五五”规划建议发布,新兴产业和未来产业布局愈发清晰 - **明确支持战略性新兴产业与未来产业发展**:“十五五”规划建议明确提出培育壮大新兴产业和未来产业,加快新能源、新材料、航空航天、低空经济等战略性新兴产业集群发展[31] 前瞻布局量子科技、生物制造、氢能和核聚变能、脑机接口、具身智能、第六代移动通信等未来产业[3][31] - **强调适度超前建设算力等新型基础设施**:规划提出适度超前建设新型基础设施,推进信息通信网络、全国一体化算力网、重大科技基础设施等建设和集约高效利用[3][31] 政策导向进一步强化了AI时代对算力基础设施的需求判断[3] 四、相关标的 - **算力**:列举了包括寒武纪、海光信息、中际旭创、中科曙光、浪潮信息等在内的超过40家上市公司[4][32] - **Agent(智能体)**:列举了包括谷歌、阿里巴巴、腾讯控股、科大讯飞、同花顺等在内的超过50家国内外公司[5][34] - **自动驾驶**:列举了包括江淮汽车、赛力斯、小鹏汽车、理想汽车、地平线等公司[5][34] - **军工AI**:列举了包括拓尔思、能科科技、普天科技、中科星图等公司[6][35]
美国“创世纪”决战打响!24科技巨头签下“卖身契”,中国如何应对?
商业洞察· 2025-12-28 09:28
美国“创世纪计划”的启动与目标 - 2025年末,美国能源部牵头启动“创世纪计划”,旨在整合国家科研体系与市场化AI能力,以提升基础科研效率[3] - 该计划联合了微软、谷歌、英伟达、OpenAI等24家科技巨头与美国17个国家实验室,目标直指核聚变、量子计算、新材料等基础科学领域[5] - 核心动机是利用大模型和算力技术缩短核聚变、材料、能源等“慢变量”领域的科研试错周期,解决研发周期拉长、成本攀升的问题[9][10] 参与方构成与协作模式 - 参与方具有“全栈特征”,覆盖AI产业关键节点:包括英伟达、AMD等算力提供者,微软、谷歌等云平台,以及OpenAI、xAI等模型公司[12] - 这是长期互为对手的科技巨头首次在国家意志引导下协同发力,例如谷歌承诺将新一代大模型用于核聚变等离子体模拟,OpenAI向白宫提交专项报告论述战略窗口[12] - 合作模式是阶段性重合:国家需要企业的AI能力,企业需要国家提供的场景、订单和长期需求,而非企业被收编[14] 计划主导方与战略资产 - 计划由美国能源部主导,因其掌控全球顶尖超级计算资源、横跨数十年的战略级科研数据,并长期承担核聚变、高能物理等重大国家科研任务[13] - 这些周期长、成本高、商业化难度大的基础科学领域,被认为是新一代计算技术最能发挥价值的战场[13][14] 对行业竞争格局的影响 - 该计划将AI竞赛从“企业级”提升至“国家级生态”维度,对其他国家形成体系化压力[16] - 计划由技术、数据、生态共同构筑的行业屏障正在形成,可能导致未来AI科技公司之间的差距越来越大[14] 中国面临的竞争叙事与自身路径 - 国际舆论中存在将中国芯片和光刻机发展称为“中国曼哈顿工程”的叙事,暗示其依赖“逆向工程”[17] - 真正的技术创新需要自主创新积累海量数据、调试经验和系统级Know-how,并构建获得全球产业链信任的商业化能力[17] - 中国需要一条基于开放创新、生态培育与长期主义的自主发展路径,未来竞争将更多聚焦于“科研生态与制度设计的适配性”[19] 中国的优势与结构性挑战 - 中国拥有集中力量办大事的制度优势以及全球最完整的产业链基础,在需要大规模资源整合与长期投入的战略领域具有独特攻坚能力[20] - 中国科技生态存在“应用强、基础弱”的格局,顶尖科技公司更多聚焦应用创新与商业模式,在瞄准长远的基础科学攻坚中可能后劲不足[21] - 核心命题是如何在发挥制度优势的同时,培育基础研究土壤并构建可持续的创新生态[21] 计划成功面临的主要挑战 - 首要挑战是协调长期在市场上竞争的科技巨头(如英伟达、AMD、微软、谷歌)实现真正协作,克服不同的技术路线、商业逻辑与企业文化[23] - 深层挑战在于构建安全、可信的数据共享与知识产权框架,以平衡国家实验室的核心数据安全与科技公司的AI模型命脉[23] - 资金耐心是重大考验,核聚变、量子计算等目标回报周期以十年计,但科技巨头需每季度面对华尔街审视,需要资本市场保持“战略耐心”[26] - 根本制约来自物理世界,算力指数级增长需要宏大的能源基础设施支撑,近期旧金山大规模停电事件警示了先进AI对老化电网的脆弱性[26] - 政治周期干扰是潜在风险,国家科研方向可能随政府更迭而摇摆,成功的计划需要超越选举周期的十年视野和高度科研连续性[27] 计划成败的关键决定因素 - 计划最终成败不取决于单项技术突破,而取决于美国能否克服其内部顽疾:科技巨头各自为政、资本市场短期逐利、政治周期摇摆干扰[27] - 如果成功,将探索出一条“国家主导、企业主演”的全新科技攻坚路径;如果失败,可能因内部消耗与官僚主义沦为耗资巨大的表演[27]
Nvidia stock: how Groq deal removes the last remaining bear case
Invezz· 2025-12-28 08:59
英伟达与Groq的交易 - Bernstein分析师Stacy Rasgon表示 英伟达近期与加州人工智能初创公司Groq达成的交易 消除了其股票最后剩余的看跌理由 [1] 分析师观点 - 该交易被视为对英伟达股票的积极催化剂 [1]
The Best Artificial Intelligence (AI) Stocks to Buy Ahead of 2026, According to Wall Street Analysts (Hint: Not Palantir)
The Motley Fool· 2025-12-28 08:55
文章核心观点 - 华尔街多数分析师认为英伟达和微软股价被低估,具有显著上涨空间 [1][2] - 晨星将英伟达和微软列为当前最佳人工智能股票的前两名 [2] - 英伟达凭借其全栈战略和CUDA软件平台,在数据中心GPU市场占据主导地位并拥有宽阔的护城河 [5][6] - 微软凭借其企业软件领导地位、与OpenAI的深度合作以及Azure云服务,已成为人工智能领域的领导者 [9][10] 英伟达 - 公司拥有宽阔的经济护城河,源于其在人工智能所需的GPU硬件、软件和网络工具领域的领导地位 [5] - 公司采用全栈战略,将顶级GPU与CPU、高速互连和网络平台相结合,实质上构建了整个数据中心 [5] - 公司花费近二十年打造的CUDA软件平台,包含无与伦比的代码库、预训练模型和应用框架,为开发者提供支持 [6] - 在69位分析师中,英伟达的股价中位数目标为250美元,较当前190美元的股价有31%的上涨空间 [7] - 公司在数据中心GPU市场占有超过90%的份额,该市场销售额预计到2033年将以每年36%的速度增长 [8] - 华尔街预计,截至2028年1月的财年,公司调整后收益将以每年48%的速度增长,这使得当前47倍的市盈率显得便宜 [8] - 公司当前市值为4.6万亿美元,毛利率为70.05% [9] 微软 - 公司是全球最大的企业软件公司,在商业智能、网络安全和企业资源规划等多个软件垂直领域占据强势地位 [9] - 公司在多个软件产品中加入了生成式AI助手,其月活跃用户在9月季度超过1.5亿,较6月季度的1亿有所增长 [10] - 超过90%的财富500强公司目前使用Microsoft 365 Copilot [10] - 微软Azure是基础设施和平台服务销售方面的第二大公共云 [10] - 公司持有OpenAI 27%的股权,并拥有该AI初创公司最先进模型(如GPT-4和GPT-5)的独家使用权 [10] - 根据协议,OpenAI将其收入的20%分给微软,这些支付额今年将超过10亿美元,去年约为5亿美元 [10] - 在63位分析师中,微软的股价中位数目标为631美元,较当前488美元的股价有29%的上涨空间 [7] - 华尔街预计,截至2027年6月的财年,公司调整后收益将以每年16%的速度增长 [11] - 在过去四个季度中,公司平均超出市场一致收益预期8%,这使得当前34倍的市盈率看起来更为合理 [11]
AI最烧钱的战场
投资界· 2025-12-28 08:47
文章核心观点 - 全球科技巨头正掀起一场以AI数据中心为核心的万亿级基建狂潮,以争夺未来AI和AGI的领先地位 [2][3] - 建设下一代AI数据中心成本极高,以OpenAI的Stargate项目为例,单座10GW数据中心的预估投资高达5000亿美元,且业内认为其最终野心可能是此数据的十倍 [2][3] - 尽管市场对AI投资泡沫存在质疑,但巨头们认为投资不足的风险远大于过度投资,因此资本仍在疯狂涌入 [27][30][31] AI数据中心的成本构成(基于美国银行模型) - 建设一个1GW的AI数据中心总成本约为516亿美元,其中IT设备占比最高,达到84% [3][11] - **IT类设备**:每GW支出431.5亿美元,是成本大头 [3][6] - **服务器**:每GW需375亿美元,包含CPU、GPU、内存等,主要由ODM(如工业富联)和OEM(如戴尔、超微)厂商供货 [4] - **网络设备**:每GW需37.5亿美元,主要玩家包括Arista、Cisco、华为、英伟达等 [4] - **存储设备**:每GW需19亿美元,主要玩家包括三星、SK、美光、希捷等 [6] - **冷却系统**:每GW支出14.75亿美元,占总成本约3%,但随着算力密度提升,液冷已成为必需品 [7][8] - 主要设备包括冷却塔、冷水机组、CDU和CRAH [8] - 主要供应商包括维谛、江森、世图兹、施耐德等 [8] - **供电设备**:每GW支出27亿美元,约为IT设备成本的1/13 [10] - 包括备用柴油发电机、开关设备、UPS和配电设备 [9][10] - 柴油发电机需考虑冗余,实际配置量可能达数据中心算力的两倍 [10] - 主要玩家:卡特彼勒、康明斯、罗尔斯·罗伊斯(发电机);施耐德、维谛、伊顿(电气设备)[10] - **工程建设**:每GW支出约42.8亿美元,包含建筑、安装及承包商费用 [11] 不同机构成本预测的分歧与原因 - 不同机构对AI数据中心(如Stargate)的预算估算差异巨大,可达2000亿美元 [11] - **主要分歧原因一:假设使用的芯片不同** [12][13] - 美国银行以英伟达2026年上市的Rubin架构芯片为计算对象,GPU成本为每GW 375亿美元 [13] - Bernstein和摩根士丹利以2024年发布的Blackwell架构为对象,Bernstein的GPU成本为每GW 136.5亿美元 [13] - 仅芯片成本一项,不同预测就相差超过200亿美元每GW [13] - 英伟达CEO黄仁勋提出的“黄氏数学”认为1GW数据中心总成本为600-800亿美元,其中计算成本(英伟达潜在收入)为400-500亿美元 [14][15] - **主要分歧原因二:计算范围不同** [16] - 美国银行计算的是数据中心建筑内部的成本 [16] - Bernstein的计算包括了整个数据中心园区的成本,如配电系统和涡轮发电机等 [16] - 综合来看,对于未来巨头建设的数据中心,美国银行的预算可能更接近真实情况 [16] 电力成为核心瓶颈与隐形支出 - 在美国,电力供应已成为建设数据中心的核心瓶颈 [10][17] - 为获取稳定电力,科技巨头不得不亲自下场投资建设发电厂等设施,这是一项巨大的隐形支出 [18] - 为一个10GW的数据中心配套发电厂,可能额外增加120-200亿美元成本 [18] - 例如,谷歌曾斥资30亿美元改造两座水力发电厂,以换取3000MW电力,相当于获取每GW电力花费10亿美元 [19] - 燃气轮机需求激增,GE的订单已排到三年后,分析师认为其有溢价能力,购买1GW发电机成本可能在20-25亿美元 [19][21] - 应急柴油发电机因设计用途和燃料成本高(发电成本是天然气的3-8倍),无法替代专用的天然气涡轮发电机进行7x24小时持续供电 [21][22] 创新的电力与冷却解决方案 - **太空数据中心**:被视为解决能源和散热问题的潜在方案 [22][24] - 在太空中,太阳能发电效率可达地球上的8倍,且能提供近乎无限的能源 [22] - 太空的真空环境可利用辐射散热,降低冷却需求 [22] - 谷歌、微软、亚马逊、SpaceX均已开始探索 [24] - 目前估算建设1GW太空数据中心(含发射费)的成本约为355亿美元 [24] 资本持续涌入的驱动逻辑 - **风险认知**:行业普遍认为,在AI竞赛中,投资不足的风险远大于过度投资的风险 [27] - 最先获得最佳AI模型或AGI的公司将占据巨大市场份额,其他公司的生存空间会迅速缩小 [27] - **资产处置**:过度投资的风险有上限,多余的算力、土地、电力等基础设施可用于内部降本增效、出租或出售给其他公司 [28] - **算力消化**:硅谷有“只要有基础设施和硬件,总会有办法被用掉”的理念,例如Meta已将大量GPU算力用于内容审核等内部工作 [29][30] - **资金来源**:支撑万亿投资的资金主要来自超大规云服务商的自有资金再投资、公开债券市场(投资级或高收益级)以及新兴的私募信贷等渠道 [30][31]
哈佛老徐:2026年是AI格局重排之年,英伟达很快会反超谷歌
老徐抓AI趋势· 2025-12-28 08:45
谷歌TPU与英伟达GPU的竞争格局 - 谷歌TPU凭借其TPU V6训练出Gemini 3,在过去半年取得阶段性领先,甚至吸引了Meta等公司的采购[4] - 英伟达的Blackwell架构(如GB200)相比前代H200是“断代式跨越”,性能暴涨导致部署面临重大挑战,包括需从风冷改为液冷、机架重量增至3倍、功率需求增至4倍,以及软件需改造,这些因素延长了其交付周期[6] - 真正的竞争格局反转预计将在Blackwell全面部署并启动大规模训练后发生,预测时间点为2026年第一季度[7] - 届时,率先有效利用Blackwell算力红利的公司(如马斯克的xAI,其已拥有约20万张GB200+H200等效规模算力集群)可能推出领先模型(如Grok5),从而拉开与同行的差距[7] 2026年第一季度:AI格局潜在转折点 - 2026年第一季度可能成为AI大模型格局改写的关键节点,届时应可观察到三个现象:Grok5表现超预期、OpenAI/Anthropic/Gemini相继推出更强模型、以及率先使用Blackwell的公司与同行拉开差距[8] - 当前AI模型质量提升已进入算力驱动阶段,而非算法驱动阶段,算力仍是瓶颈,例如DeepSeek v3.2论文指出20万张卡协同已接近极限,再堆叠H200意义不大[8] - Blackwell代表的算力增长是“阶跃式增长”,将推动模型能力发生质变,而非微调[10] AI的商业化应用与收益 - AI的商业价值正从“降本”转向“增收”,世界500强非科技公司已实现可量化的收益[11] - 以全球物流经纪公司CH Robinson为例,应用AI后,其报价响应时间从平均45分钟缩短至1分钟内,报价成功率从60%提升至100%,从而直接提升了营收,收回了原本流失的40%业务收入[12][14] - 未来,能否利用AI进行决策、调度和供需匹配,将成为公司能否突破增长天花板的关键,不能拥抱AI的公司将面临淘汰风险[16] 太空算力中心的未来趋势 - 从第一性原理分析,太空在能源、散热和传输速度方面相比地球建设算力中心具有显著优势[18] - 能源成本:太空可获稳定光照,太阳能效率提升30%以上,且无需建设大型电站和高压电网,成本几乎免费[19] - 散热成本:太空的真空和低温环境为天然散热方案,而地球上的液冷系统则制造维护复杂、成本高昂,例如Blackwell芯片已必须使用液冷[21] - 传输速度:太空中的激光传输在接近真空环境中传播更快[23] - 实现太空算力的主要障碍是巨大、便宜且能高频发射的火箭,目前只有SpaceX的星舰有望满足此条件[25] - 马斯克旗下的特斯拉(物理世界AI)、SpaceX(太空基础设施)和xAI(虚拟世界AI)构成相互咬合的闭环战略,为其带来巨大的未来现金流折现预期,其身价已达7000亿美金,并有望成为首位万亿富翁[27] 对AI与算力时代的宏观展望 - 行业正在经历一场百年级别的科技转折,GPU竞争仅是序章,算力将成为未来最重要的能源,AI是新经济的基础设施[28] - 未来五年关键趋势包括:Blackwell模型出现导致模型能力分化、AI商业化加速推动非科技行业大规模增收、以及算力基础设施逐步向太空迁移[28] - 未来二十年将是AI与算力文明的时代,抓住趋势至关重要[28]
老黄200亿“钞能力”回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:27
文章核心观点 - 英伟达计划以200亿美元收购Groq,旨在通过获取其LPU技术来强化在AI推理市场的竞争力,以应对包括谷歌TPU在内的新芯片范式带来的威胁,并弥补自身GPU在低延迟推理场景的短板 [1][13][15] 英伟达的战略布局与动机 - 英伟达此次收购被视作面向AI新时代的一次重大布局,旨在通过“钞能力”拉拢关键的“铲子”供应商,以巩固其市场地位 [1] - 收购反映出英伟达对谷歌TPU等新芯片范式崛起的担忧,希望通过引入Groq的新技术来帮助公司摆脱“创新者窘境” [1][13] - 此次收购标志着英伟达在称霸AI模型训练(预训练)市场后,正式大举进入竞争激烈的AI推理市场 [15] Groq LPU的技术优势与特点 - Groq的LPU在AI推理速度上远超GPU、TPU及大多数ASIC,其采用片上SRAM,无需从外部读取数据,速度比GPU快100倍 [2][9] - 在处理单个用户请求时,LPU能保持满负荷运转,生成速度可达每秒300–500个token [9] - LPU架构解决了GPU在推理decode阶段的根本瓶颈:GPU的数据主要存放在HBM(高带宽内存)中,每次生成token都需要从内存读取数据,导致大部分算力闲置,无法满足低延迟需求 [3][7][8] GPU在AI推理中的局限性 - GPU架构最初为图形并行处理设计,擅长AI推理的prefill(预填充)阶段,该阶段可并行处理所有输入token [7] - 但在decode(解码)阶段,任务变为串行生成token,且用户能感知每个token的生成延迟,此时GPU因需频繁从HBM读取数据而导致延迟高、算力利用率低,用户体验差 [7][8] - 即便如英伟达H200这样的高端GPU拥有高达141GB的HBM3e显存,在decode阶段也无法充分发挥其FLOPs(浮点运算能力) [8][11] LPU的技术代价与挑战 - LPU的片上SRAM内存容量远小于GPU的HBM,单颗Groq LPU芯片的SRAM仅为230MB [11] - 因此,运行大型AI模型需要连接成百上千颗LPU芯片,例如运行Llama-3 70B模型需要数百颗LPU,其硬件占地面积和整体投资将远大于仅需2-4张GPU的方案 [11][12] - 有观点指出,LPU所采用的SRAM可能无法胜任生成长下文的任务,但可通过与GPU等产品“混搭”的方式解决 [4] AI推理市场的需求与商业模式演变 - 市场已经证明,“速度”是AI推理场景真实存在且高速成长的巨大需求,用户愿意为此付费 [13] - 随着基础模型进展放缓,AI竞争重点正从训练层转向应用层,在应用市场中,推理速度对用户体验至关重要 [14] - 推理芯片被视为一项高销量、低利润的业务,这与训练所用GPU的高利润率(毛利率达70-80%)形成鲜明对比 [15] 行业竞争格局变化 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,有效控制了训练和推理成本,证明了GPU并非AI时代的唯一解决方案 [14] - TPU的崛起为其他竞争者打开了突破口,AI芯片领域正根据技术发展的不同阶段进行调整,新玩家可能颠覆现有格局 [13][14]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:21
文章核心观点 - 英伟达计划投资200亿美元以收购或深度合作的方式拉拢芯片公司Groq 此举被视为应对谷歌TPU等新芯片范式威胁 并弥补自身在AI推理市场短板的关键战略布局 [1][2][3][18] 英伟达的战略动机与行业背景 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖 削减了AI训练和推理成本 证明了GPU并非唯一解决方案 给英伟达带来了竞争压力 [17] - 随着基础模型进展放缓 AI竞争重点从训练转向应用层 应用市场对推理速度的要求变得至关重要 [17] - 此次对Groq的布局 标志着英伟达在巩固训练市场霸主地位的同时 正式大举进入推理芯片这一新兴且竞争激烈的市场 [18][19] Groq LPU的技术优势与市场定位 - Groq的LPU在AI推理的decode(解码)阶段速度极快 远超GPU、TPU及大多数ASIC 其采用片上SRAM 速度比使用HBM的GPU快100倍 处理单个用户时能保持每秒300–500个token的速度 [6][13] - LPU的片上SRAM容量较小 单颗芯片仅230MB 而英伟达H200 GPU的HBM3e显存高达141GB 因此运行大模型需要连接成百上千颗LPU芯片 硬件规模和投资可能非常巨大 [14][15][16] - 市场验证表明 用户愿意为“速度”付费 Groq的业绩证明低延迟推理是一个真实存在且高速成长的需求 [16] GPU在AI推理中的架构性挑战 - GPU架构在推理过程的decode阶段存在短板 decode是串行任务 需要逐个生成token 对延迟极其敏感 但GPU数据主要存放在片外HBM 每次生成token都需从内存读取数据 导致算力闲置 FLOPs利用率低 [12] - 相比之下 推理的prefill(预填充)阶段是并行计算 GPU擅长处理 对延迟不敏感 [12] - 有观点指出 GPU架构难以满足推理市场对低延迟的需求 HBM显存速度是瓶颈 [7] 交易对英伟达的意义与潜在影响 - 此次交易被视为英伟达为自身注射的一剂“疫苗” 旨在通过引入Groq的人才与技术 补齐在低延迟推理场景的短板 抵御竞争对手 避免在AI时代被新玩家颠覆 [16] - 推理芯片市场可能与训练芯片市场特性不同 被描述为一项高销量、低利润的苦活 与英伟达当前毛利率高达70-80%的GPU业务模式截然不同 [19]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
量子位· 2025-12-28 06:59
英伟达的战略收购与市场背景 - 英伟达计划以200亿美元收购AI芯片公司Groq,以应对来自谷歌TPU等新芯片范式的竞争威胁,标志着其在AI新时代的重大布局[1][2][3] - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,削减了训练和推理成本,并在服务大量免费用户时保持了健康的财务状况[28] - 谷歌Gemini 3 Pro的成功证明了GPU并非AI时代的唯一解决方案,芯片需要根据技术发展的不同阶段进行调整[29] Groq LPU的技术优势与市场定位 - Groq的LPU在推理任务,特别是解码阶段,其速度远超GPU、TPU及现有ASIC,比GPU快100倍,单用户处理速度可达每秒300-500个token[6][21] - LPU采用集成在芯片上的SRAM,避免了从片外HBM读取数据的延迟,从而能保持满负荷运转,解决了GPU在解码时因等待数据而导致算力闲置的问题[7][18][19][21] - 市场对低延迟推理存在巨大且高速成长的需求,Groq的业绩证明了“速度”是一个真实存在的付费市场[28] LPU的架构局限与成本挑战 - LPU的片上SRAM容量远小于GPU的HBM,单颗Groq LPU芯片仅有230MB SRAM,而英伟达H200 GPU配备了141GB HBM3e显存[24][25] - 由于单芯片内存容量小,运行大型模型需要大量LPU芯片集群,例如运行Llama-3 70B模型需要数百颗LPU,远多于GPU方案所需的2-4张卡,导致硬件占地面积和总投资巨大[26][27] - 推理芯片被认为是高销量、低利润的业务,与英伟达GPU高达70-80%的毛利率形成鲜明对比[34] AI推理市场的技术需求与竞争格局 - AI推理过程分为预填充和解码两个阶段,对芯片能力有不同要求:预填充阶段需要大上下文容量,适合GPU的并行计算;解码阶段是串行任务,对低延迟要求极高,GPU架构因依赖HBM而存在瓶颈[11][12][14][16][17] - 随着基础模型进展放缓,AI竞争重点从训练转向应用层,应用市场的用户体验对“速度”至关重要[30] - 通过收购Groq,英伟达旨在弥补其在低延迟推理场景的短板,防御潜在颠覆者,并进军竞争对手涌现的推理市场[28][31][32]
比英伟达更狂!靠锁定本拉登起家,这家关乎美国国运的公司啥来头
搜狐财经· 2025-12-28 06:40
最近,在美国股市中,有一家公司获得的关注甚至超越了AI巨头英伟达。它的股价飞速上涨,令许多投资者感到惊讶。更令人震惊的是,这家公司与美国 反恐事业紧密相关。正是凭借它的技术支持,美军才得以在多年后成功追踪到本·拉登的藏匿地点。 小李注意到,市场上有很多声音将它与美国的国运紧密联系在一起,认为它是美国军事工业和科技竞争力的支柱。那么,这家公司到底有什么过人之处,能 在竞争激烈的美股市场中脱颖而出?它又是凭借什么样的能力,获得了如此重要的地位?今天,我们就来探讨这家充满传奇色彩的公司。 2001年的911事件,让美国陷入了前所未有的恐慌。恐怖袭击带来的不仅是巨大的人员和财产损失,也暴露了美国情报体系的致命缺陷。当时,CIA和FBI等 多个情报机构手中掌握了大量的情报,但这些信息却分散在不同的系统中,像是一个个孤立的信息孤岛,没人能够把这些零散的线索联系起来。 即便恐怖分子的踪迹就在这些信息中,始终无法精准捕捉到。这种明明看得到却抓不住的困境,成了美国安防领域的难题。在这个背景下,硅谷的传奇人物 彼得·蒂尔看到了商机。彼得·蒂尔不仅是马斯克的好友,而且以敢于尝试新事物而著称。他认为,美国缺少的并不是情报,而是整合这 ...