Workflow
英伟达(NVDA)
icon
搜索文档
Banking giant picks 2026 top stocks to watch
Finbold· 2025-12-28 10:37
摩根士丹利2026年精选股票观点 - 摩根士丹利筛选出一组认为在迈向2026年时处于最佳位置的股票 这些股票具有强劲的基本面 有利的行业趋势和多个近期催化剂[1] - 核心投资主题涵盖人工智能 网络安全 数据存储和数字媒体领域[1] 英伟达 (NVDA) - 公司被视为摩根士丹利在人工智能主题上的核心标的 是AI交易的关键 其增长动力源于加速的收入增长和持续超过供给的需求[2] - 公司业绩持续超越自身指引 季度收入环比增加数十亿美元 同时AI基础设施支出的长期前景广阔 支撑其建设性展望[2] Spotify (SPOT) - 公司因兼具增长和盈利能力改善而受到关注 其人工智能的应用被视为竞争优势而非威胁 市场对音乐厂牌干扰的担忧已反映在估值中[3] - 预计公司将通过定价能力 用户平均收入提升和运营杠杆来抵消2026年更高的内容成本 从而支持利润率扩张[4] - 公司股价在2025年迄今上涨约30% 反映出市场对其商业模式的信心日益增强[4] Palo Alto Networks (PANW) - 公司被定位为网络安全领域平台化和AI采用的主要受益者 摩根士丹利近期上调了其目标价 理由是估值水平具有吸引力且增长前景稳固[6] - 对公司即将收购CyberArk持乐观态度 预计这将增强其产品供应和长期盈利能力[7] - 尽管2025年股价仅上涨约3.6% 但预计随着收购整合完成以及AI在2026年前成为更强的需求驱动力 股价将有显著上行空间[7] 西部数据 (WDC) - 公司作为与云资本支出增长相关的首选股入选 其驱动力包括硬盘市场需求改善 定价能力以及对公共云支出的强劲敞口[9] - 预计未来有几个催化剂可能进一步支撑股价 包括投资者活动和财报发布[10] - 公司是2025年表现突出的股票之一 股价上涨超过300% 但基本面依然支持其进入下一年的看涨前景[10]
“杭州六小龙”云深处启动IPO;英伟达准备向中国客户交付H200芯片丨Going Global
创业邦· 2025-12-28 10:29
出海四小龙动态 - Temu与荷兰邮政集团PostNL签署谅解备忘录,深化欧洲物流合作,重点围绕本地卖家履约能力建设及泛欧跨境配送网络展开[3] - Temu将接入PostNL旗下的自动化包裹自提柜网络及广泛的零售取件与寄件网点,以提升消费者端的取件灵活性与配送体验[4] - PostNL将为Temu的本地卖家提供系统化物流解决方案,使卖家在荷兰境内通过PostNL发货,并借助其子公司Spring GDS实现欧洲范围内的跨境配送[4] - TikTok Shop面向跨境自运营商家上线“一商卖全球”项目,商家可通过一个跨区域工作台实现全球多店绑定、极速互通开店、全球统一看数、跨国销评互通、客户消息聚合五大核心功能[5] - 该项目旨在帮助商家从单店运营走向全球布局,一站式统筹全球多个店铺,并计划于2026年2月上线更多功能,包括同账号绑定多企业资质的全球店铺等[5] 机器人及人工智能公司进展 - 杭州云深处科技股份有限公司(云深处)向浙江证监局提交IPO辅导备案,公司专注于四足机器人、人形机器人研发[7] - 云深处是继群核科技、宇树科技之后,“杭州六小龙”中第三家启动上市辅导的企业,宇树科技已于11月10日完成境内上市辅导,辅导周期仅历时4个月[7] - 云深处在12月初宣布完成超5亿元人民币的C轮融资,由招银国际和华夏基金联合领投,中国电信、中国联通旗下基金等参与战略投资[7] - 本轮融资前,云深处累计完成8轮融资,总金额超10亿元人民币[8] - 公司控股股东及实际控制人为朱秋国,其与一致行动人合计控制公司32.60%的股份[10] - 上海稀宇科技(MiniMax)已通过中国证监会境外上市备案,并于近期通过港交所上市聆讯,有望成为全球首家以通用人工智能(AGI)为核心业务的上市公司[15] - 全球人工智能市场规模预计将从2023年的1890亿美元增长至2033年的4.8万亿美元[17] - MiniMax业务已覆盖全球超过200个国家和地区,累计拥有超过2.12亿用户,并服务超过100个国家和地区的企业客户与开发者[17] - 市场消息称,MiniMax计划于2026年1月正式在港交所挂牌上市[17] 科技公司产品与市场动态 - 大疆创新对美国联邦通信委员会(FCC)将所有非美国制造的无人机列入“受管制清单”的决定表示遗憾,称此举限制了美国消费者与商业用户的选择自由[11] - 被列入清单的外国无人机企业,将无法获得FCC的批准在美国销售新的无人机型号[12] - 中国制造的无人机产品占据了全球商用无人机市场70%至80%的份额,并且在传感器、速度控制器等关键零部件的生产上掌握主导权[13] - 联想计划发布首款面向全球市场的“AI超级智能体”,旨在通过系统级的AI应用重塑硬件交互体验,能够无缝跨越摩托罗拉手机、联想PC、平板电脑及可穿戴设备[14] - 百度旗下无人驾驶出行服务平台萝卜快跑宣布,将于2026年在英国伦敦开启无人驾驶测试及出行服务,这是中国无人驾驶首次驶入英国伦敦[18] - 萝卜快跑目前已落地全球22城,累计出行服务次数已超1700万次[18] - 谷歌Waymo在全美部署超过2500台无人车,周订单量突破45万[18] 海外大公司与行业事件 - 英伟达已告知中国客户,计划于2025年2月中旬交付其AI芯片H200,预计发货总量为5000至10000套芯片模组,相当于约4万至8万颗H200芯片[24] - H200芯片在拜登政府时期被禁止对华出口,美国总统特朗普于12月8日宣布允许英伟达向“经批准的客户”出口H200芯片[26] - 英国首富、戴森公司创始人詹姆斯·戴森对其家族财富管理架构进行调整,其家族投资公司今年从英国主要实体向新加坡控股公司转移了至少6.24亿英镑的资金[26][27] - OpenAI的计算利润率已经达到70%,高于2024年底的52%,是2024年1月的近两倍[28] - 计算利润率是OpenAI扣除付费用户的模型运行成本后利润占收入比值的内部指标,不代表公司的整体利润率[28] - OpenAI首席执行官奥尔特曼预计公司到2025年底的年化收入可能达到200亿美元[31] - 截至2025年7月,OpenAI旗下ChatGPT拥有3500万付费用户,但其月用户增长率从年初的42%放缓至9月的13%[31]
国金证券:一切仍然指向算力
新浪财经· 2025-12-28 09:41
文章核心观点 大模型技术竞赛持续白热化,Scaling Law依然有效,模型能力尚未触及瓶颈,2026年进展值得期待[1][23] AI应用落地正在加速,推理需求持续强化,预示着从训练到大规模推理的算力需求演进[1][2] “十五五”规划建议明确了支持战略性新兴产业和未来产业,并强调适度超前建设算力等新型基础设施,进一步强化了AI与算力的产业趋势[3][31] 一、大模型竞赛持续白热化,Scaling law依旧有效 - **全球顶尖模型持续迭代,能力实现跃迁式提升**:谷歌Gemini 3在基础推理与多模态能力上实现显著突破,例如在Humanity‘s Last Exam测试中,Gemini 3 Pro得分为37.5%(无工具)和45.8%(带工具),远超Gemini 2.5 Pro的21.6%和Claude Sonnet 4.5的13.7%[11] 在ARC-AGI-2测试中,Gemini 3 Pro得分为31.1%,而GPT-5.1为17.6%[11] 在多模态理解测试ScreenSpot-Pro中,Gemini 3得分72.7%,是Claude Sonnet 4.5的两倍,GPT-5.1的二十倍[12] - **模型面向专业与经济价值创造**:OpenAI发布的GPT-5.2面向专业知识型工作,在GDPval测试中,GPT-5.2 Thinking在70.7%的高难度知识型工作任务上表现优于或持平行业顶尖专家,完成任务速度约为专家的3倍,成本仅约1%[14] - **海外巨头持续加码布局**:Meta正积极开发两款重量级AI模型,分别是主攻图像与影片的“Mango”和强化编程能力的“Avocado”,预计2026年上半年问世,并已重组团队、挖角人才以加大投入[15] - **国产开源模型引领创新,接近国际先进水平**:DeepSeek-V3.2在推理性能上逼近顶尖闭源模型,其长思考增强版在主流推理基准测试上性能媲美Gemini-3.0-Pro,并在多项国际竞赛中斩获金牌[16] 模型创新包括采用DSA稀疏注意力机制、将后训练算力预算调整到超过预训练成本的10%、以及使用大规模合成数据提升泛化能力[17] 斯坦福大学报告指出,在能力与采用率方面,中国开放权重的大模型已接近甚至部分领先国际先进水平[18] 2024年8月至2025年8月,中国开源模型开发者占Hugging Face所有下载量的17.1%,略超美国的15.8%[18] 2025年9月,中国微调或衍生模型占Hugging Face上发布的所有新微调或衍生模型的63%[18] - **算力基座升级驱动模型进步**:大模型训练的硬件基础正从英伟达Hopper架构转向Blackwell架构,后者在单卡算力、显存带宽(HBM带宽从3.35 TB/s提升至8.0 TB/s)、显存容量(从80GB HBM3提升至192GB/288GB HBM3e)等方面大幅提升,有助于加速训练、降低成本并提升训练稳定性[24][25] 二、AI应用落地加速,推理需求持续强化 - **AI手机助手实现跨应用自主操作,重塑交互方式**:字节跳动于2025年12月发布豆包AI手机助手技术预览版,实现AI对手机的跨应用自主操作,能从理解指令升级为执行复杂任务(如跨平台比价、下单),标志着AI在C端从语音助手进化为会行动的助理[26] - **AI应用推理需求呈现爆发式增长**:豆包大模型的日均Tokens使用量从2025年5月底的超过16.4万亿,增长至2025年12月的突破50万亿,居中国第一、全球第三,较发布初期增长137倍,直观体现了推理算力需求的增长[28] - **英伟达前瞻布局推理算力,印证应用落地加速**:英伟达从推理芯片初创公司Groq获得关键技术授权并吸纳其核心高管,Groq专为推理设计的LPU芯片在运行主流大语言模型时,推理速度可达英伟达H100 GPU的5至18倍,首token响应时间仅0.2秒[29][30] Groq在2025年9月完成一轮7.5亿美元融资,投后估值达69亿美元[30] 此次合作反映了AI算力需求正由以训练为中心向训练与大规模推理并重演进[31] 三、“十五五”规划建议发布,新兴产业和未来产业布局愈发清晰 - **明确支持战略性新兴产业与未来产业发展**:“十五五”规划建议明确提出培育壮大新兴产业和未来产业,加快新能源、新材料、航空航天、低空经济等战略性新兴产业集群发展[31] 前瞻布局量子科技、生物制造、氢能和核聚变能、脑机接口、具身智能、第六代移动通信等未来产业[3][31] - **强调适度超前建设算力等新型基础设施**:规划提出适度超前建设新型基础设施,推进信息通信网络、全国一体化算力网、重大科技基础设施等建设和集约高效利用[3][31] 政策导向进一步强化了AI时代对算力基础设施的需求判断[3] 四、相关标的 - **算力**:列举了包括寒武纪、海光信息、中际旭创、中科曙光、浪潮信息等在内的超过40家上市公司[4][32] - **Agent(智能体)**:列举了包括谷歌、阿里巴巴、腾讯控股、科大讯飞、同花顺等在内的超过50家国内外公司[5][34] - **自动驾驶**:列举了包括江淮汽车、赛力斯、小鹏汽车、理想汽车、地平线等公司[5][34] - **军工AI**:列举了包括拓尔思、能科科技、普天科技、中科星图等公司[6][35]
美国“创世纪”决战打响!24科技巨头签下“卖身契”,中国如何应对?
商业洞察· 2025-12-28 09:28
美国“创世纪计划”的启动与目标 - 2025年末,美国能源部牵头启动“创世纪计划”,旨在整合国家科研体系与市场化AI能力,以提升基础科研效率[3] - 该计划联合了微软、谷歌、英伟达、OpenAI等24家科技巨头与美国17个国家实验室,目标直指核聚变、量子计算、新材料等基础科学领域[5] - 核心动机是利用大模型和算力技术缩短核聚变、材料、能源等“慢变量”领域的科研试错周期,解决研发周期拉长、成本攀升的问题[9][10] 参与方构成与协作模式 - 参与方具有“全栈特征”,覆盖AI产业关键节点:包括英伟达、AMD等算力提供者,微软、谷歌等云平台,以及OpenAI、xAI等模型公司[12] - 这是长期互为对手的科技巨头首次在国家意志引导下协同发力,例如谷歌承诺将新一代大模型用于核聚变等离子体模拟,OpenAI向白宫提交专项报告论述战略窗口[12] - 合作模式是阶段性重合:国家需要企业的AI能力,企业需要国家提供的场景、订单和长期需求,而非企业被收编[14] 计划主导方与战略资产 - 计划由美国能源部主导,因其掌控全球顶尖超级计算资源、横跨数十年的战略级科研数据,并长期承担核聚变、高能物理等重大国家科研任务[13] - 这些周期长、成本高、商业化难度大的基础科学领域,被认为是新一代计算技术最能发挥价值的战场[13][14] 对行业竞争格局的影响 - 该计划将AI竞赛从“企业级”提升至“国家级生态”维度,对其他国家形成体系化压力[16] - 计划由技术、数据、生态共同构筑的行业屏障正在形成,可能导致未来AI科技公司之间的差距越来越大[14] 中国面临的竞争叙事与自身路径 - 国际舆论中存在将中国芯片和光刻机发展称为“中国曼哈顿工程”的叙事,暗示其依赖“逆向工程”[17] - 真正的技术创新需要自主创新积累海量数据、调试经验和系统级Know-how,并构建获得全球产业链信任的商业化能力[17] - 中国需要一条基于开放创新、生态培育与长期主义的自主发展路径,未来竞争将更多聚焦于“科研生态与制度设计的适配性”[19] 中国的优势与结构性挑战 - 中国拥有集中力量办大事的制度优势以及全球最完整的产业链基础,在需要大规模资源整合与长期投入的战略领域具有独特攻坚能力[20] - 中国科技生态存在“应用强、基础弱”的格局,顶尖科技公司更多聚焦应用创新与商业模式,在瞄准长远的基础科学攻坚中可能后劲不足[21] - 核心命题是如何在发挥制度优势的同时,培育基础研究土壤并构建可持续的创新生态[21] 计划成功面临的主要挑战 - 首要挑战是协调长期在市场上竞争的科技巨头(如英伟达、AMD、微软、谷歌)实现真正协作,克服不同的技术路线、商业逻辑与企业文化[23] - 深层挑战在于构建安全、可信的数据共享与知识产权框架,以平衡国家实验室的核心数据安全与科技公司的AI模型命脉[23] - 资金耐心是重大考验,核聚变、量子计算等目标回报周期以十年计,但科技巨头需每季度面对华尔街审视,需要资本市场保持“战略耐心”[26] - 根本制约来自物理世界,算力指数级增长需要宏大的能源基础设施支撑,近期旧金山大规模停电事件警示了先进AI对老化电网的脆弱性[26] - 政治周期干扰是潜在风险,国家科研方向可能随政府更迭而摇摆,成功的计划需要超越选举周期的十年视野和高度科研连续性[27] 计划成败的关键决定因素 - 计划最终成败不取决于单项技术突破,而取决于美国能否克服其内部顽疾:科技巨头各自为政、资本市场短期逐利、政治周期摇摆干扰[27] - 如果成功,将探索出一条“国家主导、企业主演”的全新科技攻坚路径;如果失败,可能因内部消耗与官僚主义沦为耗资巨大的表演[27]
Nvidia stock: how Groq deal removes the last remaining bear case
Invezz· 2025-12-28 08:59
英伟达与Groq的交易 - Bernstein分析师Stacy Rasgon表示 英伟达近期与加州人工智能初创公司Groq达成的交易 消除了其股票最后剩余的看跌理由 [1] 分析师观点 - 该交易被视为对英伟达股票的积极催化剂 [1]
The Best Artificial Intelligence (AI) Stocks to Buy Ahead of 2026, According to Wall Street Analysts (Hint: Not Palantir)
The Motley Fool· 2025-12-28 08:55
Most Wall Street analysts see significant upside in Nvidia and Microsoft.Palantir Technologies has been one of the best-performing artificial intelligence (AI) stocks in recent years. Shares have advanced 1,000% since January 2024, but many analysts worry about its valuation. That may explain why Palantir did not appear on Morningstar's recent list detailing the best AI stocks to buy now.Instead, Nvidia (NVDA +1.02%) and Microsoft (MSFT 0.06%) took the top two spots, followed by Amazon, Broadcom, and Meta P ...
AI最烧钱的战场
投资界· 2025-12-28 08:47
文章核心观点 - 全球科技巨头正掀起一场以AI数据中心为核心的万亿级基建狂潮,以争夺未来AI和AGI的领先地位 [2][3] - 建设下一代AI数据中心成本极高,以OpenAI的Stargate项目为例,单座10GW数据中心的预估投资高达5000亿美元,且业内认为其最终野心可能是此数据的十倍 [2][3] - 尽管市场对AI投资泡沫存在质疑,但巨头们认为投资不足的风险远大于过度投资,因此资本仍在疯狂涌入 [27][30][31] AI数据中心的成本构成(基于美国银行模型) - 建设一个1GW的AI数据中心总成本约为516亿美元,其中IT设备占比最高,达到84% [3][11] - **IT类设备**:每GW支出431.5亿美元,是成本大头 [3][6] - **服务器**:每GW需375亿美元,包含CPU、GPU、内存等,主要由ODM(如工业富联)和OEM(如戴尔、超微)厂商供货 [4] - **网络设备**:每GW需37.5亿美元,主要玩家包括Arista、Cisco、华为、英伟达等 [4] - **存储设备**:每GW需19亿美元,主要玩家包括三星、SK、美光、希捷等 [6] - **冷却系统**:每GW支出14.75亿美元,占总成本约3%,但随着算力密度提升,液冷已成为必需品 [7][8] - 主要设备包括冷却塔、冷水机组、CDU和CRAH [8] - 主要供应商包括维谛、江森、世图兹、施耐德等 [8] - **供电设备**:每GW支出27亿美元,约为IT设备成本的1/13 [10] - 包括备用柴油发电机、开关设备、UPS和配电设备 [9][10] - 柴油发电机需考虑冗余,实际配置量可能达数据中心算力的两倍 [10] - 主要玩家:卡特彼勒、康明斯、罗尔斯·罗伊斯(发电机);施耐德、维谛、伊顿(电气设备)[10] - **工程建设**:每GW支出约42.8亿美元,包含建筑、安装及承包商费用 [11] 不同机构成本预测的分歧与原因 - 不同机构对AI数据中心(如Stargate)的预算估算差异巨大,可达2000亿美元 [11] - **主要分歧原因一:假设使用的芯片不同** [12][13] - 美国银行以英伟达2026年上市的Rubin架构芯片为计算对象,GPU成本为每GW 375亿美元 [13] - Bernstein和摩根士丹利以2024年发布的Blackwell架构为对象,Bernstein的GPU成本为每GW 136.5亿美元 [13] - 仅芯片成本一项,不同预测就相差超过200亿美元每GW [13] - 英伟达CEO黄仁勋提出的“黄氏数学”认为1GW数据中心总成本为600-800亿美元,其中计算成本(英伟达潜在收入)为400-500亿美元 [14][15] - **主要分歧原因二:计算范围不同** [16] - 美国银行计算的是数据中心建筑内部的成本 [16] - Bernstein的计算包括了整个数据中心园区的成本,如配电系统和涡轮发电机等 [16] - 综合来看,对于未来巨头建设的数据中心,美国银行的预算可能更接近真实情况 [16] 电力成为核心瓶颈与隐形支出 - 在美国,电力供应已成为建设数据中心的核心瓶颈 [10][17] - 为获取稳定电力,科技巨头不得不亲自下场投资建设发电厂等设施,这是一项巨大的隐形支出 [18] - 为一个10GW的数据中心配套发电厂,可能额外增加120-200亿美元成本 [18] - 例如,谷歌曾斥资30亿美元改造两座水力发电厂,以换取3000MW电力,相当于获取每GW电力花费10亿美元 [19] - 燃气轮机需求激增,GE的订单已排到三年后,分析师认为其有溢价能力,购买1GW发电机成本可能在20-25亿美元 [19][21] - 应急柴油发电机因设计用途和燃料成本高(发电成本是天然气的3-8倍),无法替代专用的天然气涡轮发电机进行7x24小时持续供电 [21][22] 创新的电力与冷却解决方案 - **太空数据中心**:被视为解决能源和散热问题的潜在方案 [22][24] - 在太空中,太阳能发电效率可达地球上的8倍,且能提供近乎无限的能源 [22] - 太空的真空环境可利用辐射散热,降低冷却需求 [22] - 谷歌、微软、亚马逊、SpaceX均已开始探索 [24] - 目前估算建设1GW太空数据中心(含发射费)的成本约为355亿美元 [24] 资本持续涌入的驱动逻辑 - **风险认知**:行业普遍认为,在AI竞赛中,投资不足的风险远大于过度投资的风险 [27] - 最先获得最佳AI模型或AGI的公司将占据巨大市场份额,其他公司的生存空间会迅速缩小 [27] - **资产处置**:过度投资的风险有上限,多余的算力、土地、电力等基础设施可用于内部降本增效、出租或出售给其他公司 [28] - **算力消化**:硅谷有“只要有基础设施和硬件,总会有办法被用掉”的理念,例如Meta已将大量GPU算力用于内容审核等内部工作 [29][30] - **资金来源**:支撑万亿投资的资金主要来自超大规云服务商的自有资金再投资、公开债券市场(投资级或高收益级)以及新兴的私募信贷等渠道 [30][31]
哈佛老徐:2026年是AI格局重排之年,英伟达很快会反超谷歌
老徐抓AI趋势· 2025-12-28 08:45
谷歌TPU与英伟达GPU的竞争格局 - 谷歌TPU凭借其TPU V6训练出Gemini 3,在过去半年取得阶段性领先,甚至吸引了Meta等公司的采购[4] - 英伟达的Blackwell架构(如GB200)相比前代H200是“断代式跨越”,性能暴涨导致部署面临重大挑战,包括需从风冷改为液冷、机架重量增至3倍、功率需求增至4倍,以及软件需改造,这些因素延长了其交付周期[6] - 真正的竞争格局反转预计将在Blackwell全面部署并启动大规模训练后发生,预测时间点为2026年第一季度[7] - 届时,率先有效利用Blackwell算力红利的公司(如马斯克的xAI,其已拥有约20万张GB200+H200等效规模算力集群)可能推出领先模型(如Grok5),从而拉开与同行的差距[7] 2026年第一季度:AI格局潜在转折点 - 2026年第一季度可能成为AI大模型格局改写的关键节点,届时应可观察到三个现象:Grok5表现超预期、OpenAI/Anthropic/Gemini相继推出更强模型、以及率先使用Blackwell的公司与同行拉开差距[8] - 当前AI模型质量提升已进入算力驱动阶段,而非算法驱动阶段,算力仍是瓶颈,例如DeepSeek v3.2论文指出20万张卡协同已接近极限,再堆叠H200意义不大[8] - Blackwell代表的算力增长是“阶跃式增长”,将推动模型能力发生质变,而非微调[10] AI的商业化应用与收益 - AI的商业价值正从“降本”转向“增收”,世界500强非科技公司已实现可量化的收益[11] - 以全球物流经纪公司CH Robinson为例,应用AI后,其报价响应时间从平均45分钟缩短至1分钟内,报价成功率从60%提升至100%,从而直接提升了营收,收回了原本流失的40%业务收入[12][14] - 未来,能否利用AI进行决策、调度和供需匹配,将成为公司能否突破增长天花板的关键,不能拥抱AI的公司将面临淘汰风险[16] 太空算力中心的未来趋势 - 从第一性原理分析,太空在能源、散热和传输速度方面相比地球建设算力中心具有显著优势[18] - 能源成本:太空可获稳定光照,太阳能效率提升30%以上,且无需建设大型电站和高压电网,成本几乎免费[19] - 散热成本:太空的真空和低温环境为天然散热方案,而地球上的液冷系统则制造维护复杂、成本高昂,例如Blackwell芯片已必须使用液冷[21] - 传输速度:太空中的激光传输在接近真空环境中传播更快[23] - 实现太空算力的主要障碍是巨大、便宜且能高频发射的火箭,目前只有SpaceX的星舰有望满足此条件[25] - 马斯克旗下的特斯拉(物理世界AI)、SpaceX(太空基础设施)和xAI(虚拟世界AI)构成相互咬合的闭环战略,为其带来巨大的未来现金流折现预期,其身价已达7000亿美金,并有望成为首位万亿富翁[27] 对AI与算力时代的宏观展望 - 行业正在经历一场百年级别的科技转折,GPU竞争仅是序章,算力将成为未来最重要的能源,AI是新经济的基础设施[28] - 未来五年关键趋势包括:Blackwell模型出现导致模型能力分化、AI商业化加速推动非科技行业大规模增收、以及算力基础设施逐步向太空迁移[28] - 未来二十年将是AI与算力文明的时代,抓住趋势至关重要[28]
老黄200亿“钞能力”回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:27
文章核心观点 - 英伟达计划以200亿美元收购Groq,旨在通过获取其LPU技术来强化在AI推理市场的竞争力,以应对包括谷歌TPU在内的新芯片范式带来的威胁,并弥补自身GPU在低延迟推理场景的短板 [1][13][15] 英伟达的战略布局与动机 - 英伟达此次收购被视作面向AI新时代的一次重大布局,旨在通过“钞能力”拉拢关键的“铲子”供应商,以巩固其市场地位 [1] - 收购反映出英伟达对谷歌TPU等新芯片范式崛起的担忧,希望通过引入Groq的新技术来帮助公司摆脱“创新者窘境” [1][13] - 此次收购标志着英伟达在称霸AI模型训练(预训练)市场后,正式大举进入竞争激烈的AI推理市场 [15] Groq LPU的技术优势与特点 - Groq的LPU在AI推理速度上远超GPU、TPU及大多数ASIC,其采用片上SRAM,无需从外部读取数据,速度比GPU快100倍 [2][9] - 在处理单个用户请求时,LPU能保持满负荷运转,生成速度可达每秒300–500个token [9] - LPU架构解决了GPU在推理decode阶段的根本瓶颈:GPU的数据主要存放在HBM(高带宽内存)中,每次生成token都需要从内存读取数据,导致大部分算力闲置,无法满足低延迟需求 [3][7][8] GPU在AI推理中的局限性 - GPU架构最初为图形并行处理设计,擅长AI推理的prefill(预填充)阶段,该阶段可并行处理所有输入token [7] - 但在decode(解码)阶段,任务变为串行生成token,且用户能感知每个token的生成延迟,此时GPU因需频繁从HBM读取数据而导致延迟高、算力利用率低,用户体验差 [7][8] - 即便如英伟达H200这样的高端GPU拥有高达141GB的HBM3e显存,在decode阶段也无法充分发挥其FLOPs(浮点运算能力) [8][11] LPU的技术代价与挑战 - LPU的片上SRAM内存容量远小于GPU的HBM,单颗Groq LPU芯片的SRAM仅为230MB [11] - 因此,运行大型AI模型需要连接成百上千颗LPU芯片,例如运行Llama-3 70B模型需要数百颗LPU,其硬件占地面积和整体投资将远大于仅需2-4张GPU的方案 [11][12] - 有观点指出,LPU所采用的SRAM可能无法胜任生成长下文的任务,但可通过与GPU等产品“混搭”的方式解决 [4] AI推理市场的需求与商业模式演变 - 市场已经证明,“速度”是AI推理场景真实存在且高速成长的巨大需求,用户愿意为此付费 [13] - 随着基础模型进展放缓,AI竞争重点正从训练层转向应用层,在应用市场中,推理速度对用户体验至关重要 [14] - 推理芯片被视为一项高销量、低利润的业务,这与训练所用GPU的高利润率(毛利率达70-80%)形成鲜明对比 [15] 行业竞争格局变化 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,有效控制了训练和推理成本,证明了GPU并非AI时代的唯一解决方案 [14] - TPU的崛起为其他竞争者打开了突破口,AI芯片领域正根据技术发展的不同阶段进行调整,新玩家可能颠覆现有格局 [13][14]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:21
文章核心观点 - 英伟达计划投资200亿美元以收购或深度合作的方式拉拢芯片公司Groq 此举被视为应对谷歌TPU等新芯片范式威胁 并弥补自身在AI推理市场短板的关键战略布局 [1][2][3][18] 英伟达的战略动机与行业背景 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖 削减了AI训练和推理成本 证明了GPU并非唯一解决方案 给英伟达带来了竞争压力 [17] - 随着基础模型进展放缓 AI竞争重点从训练转向应用层 应用市场对推理速度的要求变得至关重要 [17] - 此次对Groq的布局 标志着英伟达在巩固训练市场霸主地位的同时 正式大举进入推理芯片这一新兴且竞争激烈的市场 [18][19] Groq LPU的技术优势与市场定位 - Groq的LPU在AI推理的decode(解码)阶段速度极快 远超GPU、TPU及大多数ASIC 其采用片上SRAM 速度比使用HBM的GPU快100倍 处理单个用户时能保持每秒300–500个token的速度 [6][13] - LPU的片上SRAM容量较小 单颗芯片仅230MB 而英伟达H200 GPU的HBM3e显存高达141GB 因此运行大模型需要连接成百上千颗LPU芯片 硬件规模和投资可能非常巨大 [14][15][16] - 市场验证表明 用户愿意为“速度”付费 Groq的业绩证明低延迟推理是一个真实存在且高速成长的需求 [16] GPU在AI推理中的架构性挑战 - GPU架构在推理过程的decode阶段存在短板 decode是串行任务 需要逐个生成token 对延迟极其敏感 但GPU数据主要存放在片外HBM 每次生成token都需从内存读取数据 导致算力闲置 FLOPs利用率低 [12] - 相比之下 推理的prefill(预填充)阶段是并行计算 GPU擅长处理 对延迟不敏感 [12] - 有观点指出 GPU架构难以满足推理市场对低延迟的需求 HBM显存速度是瓶颈 [7] 交易对英伟达的意义与潜在影响 - 此次交易被视为英伟达为自身注射的一剂“疫苗” 旨在通过引入Groq的人才与技术 补齐在低延迟推理场景的短板 抵御竞争对手 避免在AI时代被新玩家颠覆 [16] - 推理芯片市场可能与训练芯片市场特性不同 被描述为一项高销量、低利润的苦活 与英伟达当前毛利率高达70-80%的GPU业务模式截然不同 [19]