英伟达(NVDA)
搜索文档
Nvidia stock: how Groq deal removes the last remaining bear case
Invezz· 2025-12-28 08:59
英伟达与Groq的交易 - Bernstein分析师Stacy Rasgon表示 英伟达近期与加州人工智能初创公司Groq达成的交易 消除了其股票最后剩余的看跌理由 [1] 分析师观点 - 该交易被视为对英伟达股票的积极催化剂 [1]
The Best Artificial Intelligence (AI) Stocks to Buy Ahead of 2026, According to Wall Street Analysts (Hint: Not Palantir)
The Motley Fool· 2025-12-28 08:55
文章核心观点 - 华尔街多数分析师认为英伟达和微软股价被低估,具有显著上涨空间 [1][2] - 晨星将英伟达和微软列为当前最佳人工智能股票的前两名 [2] - 英伟达凭借其全栈战略和CUDA软件平台,在数据中心GPU市场占据主导地位并拥有宽阔的护城河 [5][6] - 微软凭借其企业软件领导地位、与OpenAI的深度合作以及Azure云服务,已成为人工智能领域的领导者 [9][10] 英伟达 - 公司拥有宽阔的经济护城河,源于其在人工智能所需的GPU硬件、软件和网络工具领域的领导地位 [5] - 公司采用全栈战略,将顶级GPU与CPU、高速互连和网络平台相结合,实质上构建了整个数据中心 [5] - 公司花费近二十年打造的CUDA软件平台,包含无与伦比的代码库、预训练模型和应用框架,为开发者提供支持 [6] - 在69位分析师中,英伟达的股价中位数目标为250美元,较当前190美元的股价有31%的上涨空间 [7] - 公司在数据中心GPU市场占有超过90%的份额,该市场销售额预计到2033年将以每年36%的速度增长 [8] - 华尔街预计,截至2028年1月的财年,公司调整后收益将以每年48%的速度增长,这使得当前47倍的市盈率显得便宜 [8] - 公司当前市值为4.6万亿美元,毛利率为70.05% [9] 微软 - 公司是全球最大的企业软件公司,在商业智能、网络安全和企业资源规划等多个软件垂直领域占据强势地位 [9] - 公司在多个软件产品中加入了生成式AI助手,其月活跃用户在9月季度超过1.5亿,较6月季度的1亿有所增长 [10] - 超过90%的财富500强公司目前使用Microsoft 365 Copilot [10] - 微软Azure是基础设施和平台服务销售方面的第二大公共云 [10] - 公司持有OpenAI 27%的股权,并拥有该AI初创公司最先进模型(如GPT-4和GPT-5)的独家使用权 [10] - 根据协议,OpenAI将其收入的20%分给微软,这些支付额今年将超过10亿美元,去年约为5亿美元 [10] - 在63位分析师中,微软的股价中位数目标为631美元,较当前488美元的股价有29%的上涨空间 [7] - 华尔街预计,截至2027年6月的财年,公司调整后收益将以每年16%的速度增长 [11] - 在过去四个季度中,公司平均超出市场一致收益预期8%,这使得当前34倍的市盈率看起来更为合理 [11]
AI最烧钱的战场
投资界· 2025-12-28 08:47
文章核心观点 - 全球科技巨头正掀起一场以AI数据中心为核心的万亿级基建狂潮,以争夺未来AI和AGI的领先地位 [2][3] - 建设下一代AI数据中心成本极高,以OpenAI的Stargate项目为例,单座10GW数据中心的预估投资高达5000亿美元,且业内认为其最终野心可能是此数据的十倍 [2][3] - 尽管市场对AI投资泡沫存在质疑,但巨头们认为投资不足的风险远大于过度投资,因此资本仍在疯狂涌入 [27][30][31] AI数据中心的成本构成(基于美国银行模型) - 建设一个1GW的AI数据中心总成本约为516亿美元,其中IT设备占比最高,达到84% [3][11] - **IT类设备**:每GW支出431.5亿美元,是成本大头 [3][6] - **服务器**:每GW需375亿美元,包含CPU、GPU、内存等,主要由ODM(如工业富联)和OEM(如戴尔、超微)厂商供货 [4] - **网络设备**:每GW需37.5亿美元,主要玩家包括Arista、Cisco、华为、英伟达等 [4] - **存储设备**:每GW需19亿美元,主要玩家包括三星、SK、美光、希捷等 [6] - **冷却系统**:每GW支出14.75亿美元,占总成本约3%,但随着算力密度提升,液冷已成为必需品 [7][8] - 主要设备包括冷却塔、冷水机组、CDU和CRAH [8] - 主要供应商包括维谛、江森、世图兹、施耐德等 [8] - **供电设备**:每GW支出27亿美元,约为IT设备成本的1/13 [10] - 包括备用柴油发电机、开关设备、UPS和配电设备 [9][10] - 柴油发电机需考虑冗余,实际配置量可能达数据中心算力的两倍 [10] - 主要玩家:卡特彼勒、康明斯、罗尔斯·罗伊斯(发电机);施耐德、维谛、伊顿(电气设备)[10] - **工程建设**:每GW支出约42.8亿美元,包含建筑、安装及承包商费用 [11] 不同机构成本预测的分歧与原因 - 不同机构对AI数据中心(如Stargate)的预算估算差异巨大,可达2000亿美元 [11] - **主要分歧原因一:假设使用的芯片不同** [12][13] - 美国银行以英伟达2026年上市的Rubin架构芯片为计算对象,GPU成本为每GW 375亿美元 [13] - Bernstein和摩根士丹利以2024年发布的Blackwell架构为对象,Bernstein的GPU成本为每GW 136.5亿美元 [13] - 仅芯片成本一项,不同预测就相差超过200亿美元每GW [13] - 英伟达CEO黄仁勋提出的“黄氏数学”认为1GW数据中心总成本为600-800亿美元,其中计算成本(英伟达潜在收入)为400-500亿美元 [14][15] - **主要分歧原因二:计算范围不同** [16] - 美国银行计算的是数据中心建筑内部的成本 [16] - Bernstein的计算包括了整个数据中心园区的成本,如配电系统和涡轮发电机等 [16] - 综合来看,对于未来巨头建设的数据中心,美国银行的预算可能更接近真实情况 [16] 电力成为核心瓶颈与隐形支出 - 在美国,电力供应已成为建设数据中心的核心瓶颈 [10][17] - 为获取稳定电力,科技巨头不得不亲自下场投资建设发电厂等设施,这是一项巨大的隐形支出 [18] - 为一个10GW的数据中心配套发电厂,可能额外增加120-200亿美元成本 [18] - 例如,谷歌曾斥资30亿美元改造两座水力发电厂,以换取3000MW电力,相当于获取每GW电力花费10亿美元 [19] - 燃气轮机需求激增,GE的订单已排到三年后,分析师认为其有溢价能力,购买1GW发电机成本可能在20-25亿美元 [19][21] - 应急柴油发电机因设计用途和燃料成本高(发电成本是天然气的3-8倍),无法替代专用的天然气涡轮发电机进行7x24小时持续供电 [21][22] 创新的电力与冷却解决方案 - **太空数据中心**:被视为解决能源和散热问题的潜在方案 [22][24] - 在太空中,太阳能发电效率可达地球上的8倍,且能提供近乎无限的能源 [22] - 太空的真空环境可利用辐射散热,降低冷却需求 [22] - 谷歌、微软、亚马逊、SpaceX均已开始探索 [24] - 目前估算建设1GW太空数据中心(含发射费)的成本约为355亿美元 [24] 资本持续涌入的驱动逻辑 - **风险认知**:行业普遍认为,在AI竞赛中,投资不足的风险远大于过度投资的风险 [27] - 最先获得最佳AI模型或AGI的公司将占据巨大市场份额,其他公司的生存空间会迅速缩小 [27] - **资产处置**:过度投资的风险有上限,多余的算力、土地、电力等基础设施可用于内部降本增效、出租或出售给其他公司 [28] - **算力消化**:硅谷有“只要有基础设施和硬件,总会有办法被用掉”的理念,例如Meta已将大量GPU算力用于内容审核等内部工作 [29][30] - **资金来源**:支撑万亿投资的资金主要来自超大规云服务商的自有资金再投资、公开债券市场(投资级或高收益级)以及新兴的私募信贷等渠道 [30][31]
哈佛老徐:2026年是AI格局重排之年,英伟达很快会反超谷歌
老徐抓AI趋势· 2025-12-28 08:45
谷歌TPU与英伟达GPU的竞争格局 - 谷歌TPU凭借其TPU V6训练出Gemini 3,在过去半年取得阶段性领先,甚至吸引了Meta等公司的采购[4] - 英伟达的Blackwell架构(如GB200)相比前代H200是“断代式跨越”,性能暴涨导致部署面临重大挑战,包括需从风冷改为液冷、机架重量增至3倍、功率需求增至4倍,以及软件需改造,这些因素延长了其交付周期[6] - 真正的竞争格局反转预计将在Blackwell全面部署并启动大规模训练后发生,预测时间点为2026年第一季度[7] - 届时,率先有效利用Blackwell算力红利的公司(如马斯克的xAI,其已拥有约20万张GB200+H200等效规模算力集群)可能推出领先模型(如Grok5),从而拉开与同行的差距[7] 2026年第一季度:AI格局潜在转折点 - 2026年第一季度可能成为AI大模型格局改写的关键节点,届时应可观察到三个现象:Grok5表现超预期、OpenAI/Anthropic/Gemini相继推出更强模型、以及率先使用Blackwell的公司与同行拉开差距[8] - 当前AI模型质量提升已进入算力驱动阶段,而非算法驱动阶段,算力仍是瓶颈,例如DeepSeek v3.2论文指出20万张卡协同已接近极限,再堆叠H200意义不大[8] - Blackwell代表的算力增长是“阶跃式增长”,将推动模型能力发生质变,而非微调[10] AI的商业化应用与收益 - AI的商业价值正从“降本”转向“增收”,世界500强非科技公司已实现可量化的收益[11] - 以全球物流经纪公司CH Robinson为例,应用AI后,其报价响应时间从平均45分钟缩短至1分钟内,报价成功率从60%提升至100%,从而直接提升了营收,收回了原本流失的40%业务收入[12][14] - 未来,能否利用AI进行决策、调度和供需匹配,将成为公司能否突破增长天花板的关键,不能拥抱AI的公司将面临淘汰风险[16] 太空算力中心的未来趋势 - 从第一性原理分析,太空在能源、散热和传输速度方面相比地球建设算力中心具有显著优势[18] - 能源成本:太空可获稳定光照,太阳能效率提升30%以上,且无需建设大型电站和高压电网,成本几乎免费[19] - 散热成本:太空的真空和低温环境为天然散热方案,而地球上的液冷系统则制造维护复杂、成本高昂,例如Blackwell芯片已必须使用液冷[21] - 传输速度:太空中的激光传输在接近真空环境中传播更快[23] - 实现太空算力的主要障碍是巨大、便宜且能高频发射的火箭,目前只有SpaceX的星舰有望满足此条件[25] - 马斯克旗下的特斯拉(物理世界AI)、SpaceX(太空基础设施)和xAI(虚拟世界AI)构成相互咬合的闭环战略,为其带来巨大的未来现金流折现预期,其身价已达7000亿美金,并有望成为首位万亿富翁[27] 对AI与算力时代的宏观展望 - 行业正在经历一场百年级别的科技转折,GPU竞争仅是序章,算力将成为未来最重要的能源,AI是新经济的基础设施[28] - 未来五年关键趋势包括:Blackwell模型出现导致模型能力分化、AI商业化加速推动非科技行业大规模增收、以及算力基础设施逐步向太空迁移[28] - 未来二十年将是AI与算力文明的时代,抓住趋势至关重要[28]
老黄200亿“钞能力”回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:27
文章核心观点 - 英伟达计划以200亿美元收购Groq,旨在通过获取其LPU技术来强化在AI推理市场的竞争力,以应对包括谷歌TPU在内的新芯片范式带来的威胁,并弥补自身GPU在低延迟推理场景的短板 [1][13][15] 英伟达的战略布局与动机 - 英伟达此次收购被视作面向AI新时代的一次重大布局,旨在通过“钞能力”拉拢关键的“铲子”供应商,以巩固其市场地位 [1] - 收购反映出英伟达对谷歌TPU等新芯片范式崛起的担忧,希望通过引入Groq的新技术来帮助公司摆脱“创新者窘境” [1][13] - 此次收购标志着英伟达在称霸AI模型训练(预训练)市场后,正式大举进入竞争激烈的AI推理市场 [15] Groq LPU的技术优势与特点 - Groq的LPU在AI推理速度上远超GPU、TPU及大多数ASIC,其采用片上SRAM,无需从外部读取数据,速度比GPU快100倍 [2][9] - 在处理单个用户请求时,LPU能保持满负荷运转,生成速度可达每秒300–500个token [9] - LPU架构解决了GPU在推理decode阶段的根本瓶颈:GPU的数据主要存放在HBM(高带宽内存)中,每次生成token都需要从内存读取数据,导致大部分算力闲置,无法满足低延迟需求 [3][7][8] GPU在AI推理中的局限性 - GPU架构最初为图形并行处理设计,擅长AI推理的prefill(预填充)阶段,该阶段可并行处理所有输入token [7] - 但在decode(解码)阶段,任务变为串行生成token,且用户能感知每个token的生成延迟,此时GPU因需频繁从HBM读取数据而导致延迟高、算力利用率低,用户体验差 [7][8] - 即便如英伟达H200这样的高端GPU拥有高达141GB的HBM3e显存,在decode阶段也无法充分发挥其FLOPs(浮点运算能力) [8][11] LPU的技术代价与挑战 - LPU的片上SRAM内存容量远小于GPU的HBM,单颗Groq LPU芯片的SRAM仅为230MB [11] - 因此,运行大型AI模型需要连接成百上千颗LPU芯片,例如运行Llama-3 70B模型需要数百颗LPU,其硬件占地面积和整体投资将远大于仅需2-4张GPU的方案 [11][12] - 有观点指出,LPU所采用的SRAM可能无法胜任生成长下文的任务,但可通过与GPU等产品“混搭”的方式解决 [4] AI推理市场的需求与商业模式演变 - 市场已经证明,“速度”是AI推理场景真实存在且高速成长的巨大需求,用户愿意为此付费 [13] - 随着基础模型进展放缓,AI竞争重点正从训练层转向应用层,在应用市场中,推理速度对用户体验至关重要 [14] - 推理芯片被视为一项高销量、低利润的业务,这与训练所用GPU的高利润率(毛利率达70-80%)形成鲜明对比 [15] 行业竞争格局变化 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,有效控制了训练和推理成本,证明了GPU并非AI时代的唯一解决方案 [14] - TPU的崛起为其他竞争者打开了突破口,AI芯片领域正根据技术发展的不同阶段进行调整,新玩家可能颠覆现有格局 [13][14]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
36氪· 2025-12-28 08:21
文章核心观点 - 英伟达计划投资200亿美元以收购或深度合作的方式拉拢芯片公司Groq 此举被视为应对谷歌TPU等新芯片范式威胁 并弥补自身在AI推理市场短板的关键战略布局 [1][2][3][18] 英伟达的战略动机与行业背景 - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖 削减了AI训练和推理成本 证明了GPU并非唯一解决方案 给英伟达带来了竞争压力 [17] - 随着基础模型进展放缓 AI竞争重点从训练转向应用层 应用市场对推理速度的要求变得至关重要 [17] - 此次对Groq的布局 标志着英伟达在巩固训练市场霸主地位的同时 正式大举进入推理芯片这一新兴且竞争激烈的市场 [18][19] Groq LPU的技术优势与市场定位 - Groq的LPU在AI推理的decode(解码)阶段速度极快 远超GPU、TPU及大多数ASIC 其采用片上SRAM 速度比使用HBM的GPU快100倍 处理单个用户时能保持每秒300–500个token的速度 [6][13] - LPU的片上SRAM容量较小 单颗芯片仅230MB 而英伟达H200 GPU的HBM3e显存高达141GB 因此运行大模型需要连接成百上千颗LPU芯片 硬件规模和投资可能非常巨大 [14][15][16] - 市场验证表明 用户愿意为“速度”付费 Groq的业绩证明低延迟推理是一个真实存在且高速成长的需求 [16] GPU在AI推理中的架构性挑战 - GPU架构在推理过程的decode阶段存在短板 decode是串行任务 需要逐个生成token 对延迟极其敏感 但GPU数据主要存放在片外HBM 每次生成token都需从内存读取数据 导致算力闲置 FLOPs利用率低 [12] - 相比之下 推理的prefill(预填充)阶段是并行计算 GPU擅长处理 对延迟不敏感 [12] - 有观点指出 GPU架构难以满足推理市场对低延迟的需求 HBM显存速度是瓶颈 [7] 交易对英伟达的意义与潜在影响 - 此次交易被视为英伟达为自身注射的一剂“疫苗” 旨在通过引入Groq的人才与技术 补齐在低延迟推理场景的短板 抵御竞争对手 避免在AI时代被新玩家颠覆 [16] - 推理芯片市场可能与训练芯片市场特性不同 被描述为一项高销量、低利润的苦活 与英伟达当前毛利率高达70-80%的GPU业务模式截然不同 [19]
老黄200亿「钞能力」回应谷歌:联手Groq,补上推理短板
量子位· 2025-12-28 06:59
英伟达的战略收购与市场背景 - 英伟达计划以200亿美元收购AI芯片公司Groq,以应对来自谷歌TPU等新芯片范式的竞争威胁,标志着其在AI新时代的重大布局[1][2][3] - 谷歌通过自研TPU成功降低了对英伟达GPU的依赖,削减了训练和推理成本,并在服务大量免费用户时保持了健康的财务状况[28] - 谷歌Gemini 3 Pro的成功证明了GPU并非AI时代的唯一解决方案,芯片需要根据技术发展的不同阶段进行调整[29] Groq LPU的技术优势与市场定位 - Groq的LPU在推理任务,特别是解码阶段,其速度远超GPU、TPU及现有ASIC,比GPU快100倍,单用户处理速度可达每秒300-500个token[6][21] - LPU采用集成在芯片上的SRAM,避免了从片外HBM读取数据的延迟,从而能保持满负荷运转,解决了GPU在解码时因等待数据而导致算力闲置的问题[7][18][19][21] - 市场对低延迟推理存在巨大且高速成长的需求,Groq的业绩证明了“速度”是一个真实存在的付费市场[28] LPU的架构局限与成本挑战 - LPU的片上SRAM容量远小于GPU的HBM,单颗Groq LPU芯片仅有230MB SRAM,而英伟达H200 GPU配备了141GB HBM3e显存[24][25] - 由于单芯片内存容量小,运行大型模型需要大量LPU芯片集群,例如运行Llama-3 70B模型需要数百颗LPU,远多于GPU方案所需的2-4张卡,导致硬件占地面积和总投资巨大[26][27] - 推理芯片被认为是高销量、低利润的业务,与英伟达GPU高达70-80%的毛利率形成鲜明对比[34] AI推理市场的技术需求与竞争格局 - AI推理过程分为预填充和解码两个阶段,对芯片能力有不同要求:预填充阶段需要大上下文容量,适合GPU的并行计算;解码阶段是串行任务,对低延迟要求极高,GPU架构因依赖HBM而存在瓶颈[11][12][14][16][17] - 随着基础模型进展放缓,AI竞争重点从训练转向应用层,应用市场的用户体验对“速度”至关重要[30] - 通过收购Groq,英伟达旨在弥补其在低延迟推理场景的短板,防御潜在颠覆者,并进军竞争对手涌现的推理市场[28][31][32]
比英伟达更狂!靠锁定本拉登起家,这家关乎美国国运的公司啥来头
搜狐财经· 2025-12-28 06:40
最近,在美国股市中,有一家公司获得的关注甚至超越了AI巨头英伟达。它的股价飞速上涨,令许多投资者感到惊讶。更令人震惊的是,这家公司与美国 反恐事业紧密相关。正是凭借它的技术支持,美军才得以在多年后成功追踪到本·拉登的藏匿地点。 小李注意到,市场上有很多声音将它与美国的国运紧密联系在一起,认为它是美国军事工业和科技竞争力的支柱。那么,这家公司到底有什么过人之处,能 在竞争激烈的美股市场中脱颖而出?它又是凭借什么样的能力,获得了如此重要的地位?今天,我们就来探讨这家充满传奇色彩的公司。 2001年的911事件,让美国陷入了前所未有的恐慌。恐怖袭击带来的不仅是巨大的人员和财产损失,也暴露了美国情报体系的致命缺陷。当时,CIA和FBI等 多个情报机构手中掌握了大量的情报,但这些信息却分散在不同的系统中,像是一个个孤立的信息孤岛,没人能够把这些零散的线索联系起来。 即便恐怖分子的踪迹就在这些信息中,始终无法精准捕捉到。这种明明看得到却抓不住的困境,成了美国安防领域的难题。在这个背景下,硅谷的传奇人物 彼得·蒂尔看到了商机。彼得·蒂尔不仅是马斯克的好友,而且以敢于尝试新事物而著称。他认为,美国缺少的并不是情报,而是整合这 ...
消息称黄仁勋重组英伟达云团队:放弃死磕AWS、专注卖“铲子”
搜狐财经· 2025-12-28 06:21
公司战略调整 - 英伟达于上周低调重组了其云计算团队,这一动作被业界解读为公司正式退出了与亚马逊 AWS、微软 Azure 等云巨头的正面竞争 [1] - 公司曾于2023年推出超级计算机云租赁服务 DGX Cloud,试图构建独立的云生态,但面对资本密集型市场,最终选择了务实回调 [1] - 重组后的云团队不再背负激进的市场扩张 KPI,而是被整合进更广泛的工程职能中,其首要任务转变为服务内部需求 [3] 业务转型原因 - DGX Cloud 的初衷是让企业能以更低门槛访问其顶级 AI 算力,但作为一家硬件基因深厚的公司,英伟达在构建全球数据中心基础设施和软件生态方面遭遇了巨大阻力 [3] - 该服务高昂的定价和复杂的集成难度,使其难以从成熟的 AWS 手中抢夺客户 [3] - 转型后的 DGX Cloud 将扮演全新角色,成为英伟达内部芯片的顶级测试场,用于测试和优化自家的下一代 AI 芯片(如 Blackwell 系列) [3] 转型后的新策略 - 公司选择利用 DGX Cloud 平台在内部云环境中模拟高负载 AI 工作流,工程团队能更快发现硬件瓶颈,从而加速产品迭代 [3] - 这种"内循环"策略,避免了对外服务的运维压力,并直接反哺了核心硬件业务的竞争力 [3] - 华尔街对这一"做减法"的决策反应积极,分析师指出放弃云服务争夺战意味着英伟达无需再投入数百亿美元建设数据中心,从而能将宝贵资金集中于高利润的研发领域 [4] 市场影响与评价 - 在 AI 基础设施成本飙升的当下,英伟达选择避其锋芒、专注卖"铲子",被视为一种成熟的商业智慧 [4] - 此举有助于其维持目前接近 3 万亿美元的市值高位 [4]
This AI Stock Is Quietly Outperforming Nvidia in 2025
The Motley Fool· 2025-12-28 06:10
英伟达与Alphabet的AI市场表现对比 - 英伟达是过去几年市场关注的领先AI芯片设计商,其股价在过去五年飙升了1300% [1] - 2025年,英伟达营收创纪录且需求旺盛,股价实现两位数增长,但并非年度最大赢家 [2] - Alphabet在2025年股价涨幅预计超过65%,正悄然超越英伟达的表现 [4] Alphabet的核心业务与市场地位 - Alphabet旗下拥有全球市场份额超过90%的谷歌搜索,是公司数十亿美元营收和稳定增长的基础 [5] - 广告业务是Alphabet营收的主要来源,广告商聚集在谷歌平台以触达用户 [5] - Google Cloud是另一个重要且增长的收入来源,提供AI工具和平台 [6] - 在最近一个季度,受AI基础设施和生成式AI服务需求推动,Google Cloud营收增长了34% [6] Alphabet的财务里程碑与增长动力 - 广告业务的实力和Google Cloud的增长,帮助公司在最近一个季度首次实现了单季营收1000亿美元 [8] - 分析师预测AI市场规模可能在几年内达到数万亿美元 [8] - Alphabet通过Google Cloud满足客户多样化的AI需求,处于有利的受益地位 [8] - 公司基于其大型语言模型Gemini为客户提供服务,并利用Gemini改进自身业务(如优化广告体验)[6] 近期利好事件与估值分析 - 9月初,美国联邦法官在一起反垄断案件中排除了拆分谷歌(出售Chrome或Android操作系统)的最坏情况,消除了公司及其投资者的最大风险 [9] - Alphabet基于远期收益预估的市盈率为29倍,相比英伟达估值更为便宜 [10] - 公司不仅提供英伟达系统,还为客户提供多种替代方案,有望在AI市场增长中受益 [11] 投资吸引力与前景展望 - 公司主要的利润引擎——广告业务,无论AI支出环境如何,都可能持续带来营收增长,为投资者提供了安全感 [12] - 其合理的估值可能吸引寻求价格合理AI股票的买家 [11] - 有理由对Alphabet明年的表现持乐观态度,其甚至可能继续跑赢英伟达 [12]