Workflow
傅里叶的猫
icon
搜索文档
OpenAI已经大而不能倒?
傅里叶的猫· 2025-10-07 15:33
文章核心观点 - OpenAI面临巨额亏损,今年亏损可能达100亿美元,但其已签署约1万亿美元的计算能力交易,承诺远超收入 [1] - OpenAI因巨大的行业影响力、广泛的客户基础及复杂的金融安排,呈现出“大而不能倒”的特征 [3][4][6][7][8][10] 财务与成本状况 - OpenAI今年已签署约1万亿美元的计算能力交易 [1] - OpenAI今年的亏损可能达到100亿美元 [1] - 与AMD、英伟达、甲骨文和CoreWeave的交易将在未来十年内为OpenAI提供超过20GW的计算能力,约等于20座核反应堆的电力 [4] - 每1吉瓦的AI计算能力部署成本约为500亿美元,合计总成本约为1万亿美元 [4] - 与英伟达和AMD的交易可能分别高达5000亿美元和3000亿美元,与甲骨文的交易将使OpenAI额外支出3000亿美元 [4] - CoreWeave已披露与OpenAI的计算交易价值超过220亿美元 [4] - 星际之门的总投资是5000亿美元,涉及软银、甲骨文 [4] 市场影响力与客户基础 - 65%的财富500强企业使用OpenAI的服务 [6] - OpenAI的付费企业用户已经超过了300万,并且还在爆发式增长 [7] - 甲骨文71%的AI基础设施预算投入OpenAI生态 [6] - 微软相关投入比例近70%(含专项研发) [6] 融资结构与潜在金融风险 - OpenAI获得400多亿美元融资,表面由软银领投 [8] - 融资暗线是将未来API应收账款打包成债券,出售给养老基金和对冲基金 [8] - 如果OpenAI资金链断裂,可能会引发高收益债市场恐慌 [8] 产业链影响 - 若OpenAI倒下,将导致云计算市场大幅萎缩、GPU过剩,并对整个AI行业的信心造成严重打击 [10]
AMD和OpenAI的循环AI经济,背刺老黄
傅里叶的猫· 2025-10-06 13:14
AMD与OpenAI战略合作核心内容 - AMD与OpenAI宣布达成6吉瓦GPU部署协议,涵盖多代AMD Instinct GPU,首批1吉瓦MI450系列将于2026年下半年开始部署[2][3][8] - 协议包含AMD向OpenAI授予最多1.6亿股普通股认股权证(约占10%),行权与部署里程碑及股价目标挂钩,首批发货1吉瓦时首批权证生效[6][11] - AMD高管预计合作将带来数百亿美元收入,并大幅提升非GAAP每股收益[7] - OpenAI高管表示合作将加速AI进展,AMD芯片领导地位有助于更快推广先进AI技术[7] 合作背景与行业影响 - 此次合作发生在OpenAI与英伟达10吉瓦数据中心协议之后不到半个月,被视为对英伟达战略的调整[13][16] - 合作形成"循环AI经济"模式:OpenAI采购AMD GPU,AMD提供低价股票,推动AMD股价上涨(盘前涨超13%)[11][12] - 金融时报报道提及OpenAI可能以1美分价格购买AMD股票,但协议具体总金额未公布[11] OpenAI的AI基础设施投入规模 - OpenAI承诺未来五年向甲骨文采购3000亿美元算力,并合作建设美国数据中心增加7吉瓦电力需求[17] - 计划到2029年每月从三星和SK海力士采购90万片晶圆DRAM产能,相当于2025年末全球总产能近一半[18] - 与博通合作自研AI芯片已进入回片测试阶段[18] - OpenAI计划利用英伟达股权投资改善贷款条件,并押注ChatGPT用户从每周700亿继续增长,提高付费订阅比例超过当前5%[19] AMD技术产品表现与市场地位 - MI308当前性能仅为英伟达A100的70%,大规模集群训练稳定性不足,无万卡集群成功案例,主要适用于推理场景[21] - MI450性能接近英伟达Rubin系列,但需深度优化才能发挥全部性能,未优化时仅实现理论性能60%[22] - AMD直到MI400系列才支持FP4/FP6低精度计算,UALink互联生态不成熟[22] - MI308单片售价约1万美元,为A100历史最低价1.2倍,性价比仅0.5-0.6倍[23] AMD财务与运营状况 - 第二季度营收77亿美元,同比增长32%,数据中心、客户端和游戏部门表现强劲[24] - 受MI308对华销售限制影响库存减记8亿美元,但非GAAP毛利率仍达54%[24] - 数据中心部门营收32亿美元(同比增长14%),但受出口限制及向MI350过渡影响环比下降12%[25] - 第三季度预计营收87亿美元(同比增长28%),主要由MI350量产驱动[25] AMD供应链体系 - 晶圆代工核心合作伙伴为台积电,负责5nm、4nm和3nm先进制程生产[26] - 封装测试与ASE、Amkor、通富微电合作,基板供应由Ibiden主导,Shinko等为次要供应商[27] - HBM内存核心供应商为三星(MI300系列),SK海力士预计为MI400系列提供HBM3e[28] - 服务器组装由ZT Systems主导,Quanta、Wistron和富士康承接ODM订单但资源倾向英伟达GB200项目[28]
OpenAI的即时结账与长尾电商
傅里叶的猫· 2025-10-05 14:08
OpenAI即时结账服务分析 - OpenAI在美国推出即时结账服务,允许用户直接在ChatGPT对话界面内完成商品购买,无需跳转至外部平台[2] - 该服务目前支持从Etsy的美国卖家及部分Shopify商家处购买单件商品[2] - OpenAI发布了开源技术标准“Agentic Commerce Protocol”,旨在帮助更多商家将商品直接接入ChatGPT平台[10] - 此功能尤其利好Shopify和Etsy等专注于中小商家和长尾市场的平台,AI能根据用户模糊需求主动匹配独特商品[10][11] - 与传统搜索电商不同,ChatGPT的模式是从用户需求出发进行反向匹配,例如推荐澳大利亚卖家3D打印的定制交换机支架这类小众产品[11] - 商家需要为每笔通过ChatGPT完成的交易向OpenAI支付少量费用,但这不会影响产品推荐结果,推荐逻辑会综合考虑价格、库存、质量等因素[13] - 该功能目前处于早期阶段,仅限美国市场和单件商品购买,未来可能扩展至多件商品购买并吸引更多大型零售商[14] GPT-5路由器与商业化战略 - GPT-5引入的“路由器”是一套智能调度系统,能综合分析查询类型、复杂度、工具需求及用户意图,为每次交互匹配最适配的模型[3][4] - 路由器具备自我优化能力,通过持续收集用户反馈调整模型匹配逻辑,可将99%以上的免费用户首次接触“链式思考”模式[4] - 在成本控制层面,路由器优先将基础查询导向算力消耗更低的小型模型;面对高价值查询(如寻找专业律师)则可能投入相当于50美元的计算资源,因其对应交易价值高达上千美元[6] - 该系统是OpenAI挖掘免费用户价值的核心基础,通过为查询添加分析维度(如是否涉及消费决策)来快速判断交互的变现可能性[5] - OpenAI聘请Fidji Simo担任应用CEO,其曾在Facebook主导商业化业务,擅长将高用户意图流量转化为成熟广告产品,当前ChatGPT是增长最快但尚未充分变现的网站[5] - 奥特曼对商业化态度转变,从反感广告模式转变为接受通过用户点击链接产生的交易获取分成的模式[5] AI代理商业模式与行业影响 - OpenAI的商业化路径从附属费模式起步(AI推荐商品,用户点击购买后OpenAI获取分成),逐步走向“深度代理”模式,AI直接接入合作方系统,用户在ChatGPT内完成全流程交易[9] - OpenAI已与Stripe、Visa、PayPal、Booking.com、Shopify、Instacart等覆盖支付、电商领域的企业达成合作[8][9] - “AI代理购买”开启新的商业逻辑,用户无需支付订阅费,而是通过交易成功后的服务费间接为AI服务买单[7] - 这种模式可延伸至法律服务、日常杂货采购、电商商品挑选、航班与酒店预订等各类生活场景[7] - OpenAI正在打造面向消费者的AI超级应用,其用户增长速度已处于行业领先地位,若率先实现成熟的“代理结账”功能,可能对Google、Meta、Amazon等传统互联网巨头的商业格局构成冲击[9] - Instacart已在今年1月上线“代理结账”功能,Anthropic、OpenAI等头部AI实验室也通过投资或合作支持开发DoorDash、Amazon的“AI代理版”[7]
OpenAI的AI基础设施扩张对亚洲供应链的影响
傅里叶的猫· 2025-10-04 15:58
OpenAI基础设施扩张计划 - OpenAI计划在未来四年内建成10GW功率的AI计算基础设施,相当于一个小型国家的电力消耗[1] - Stargate超级数据中心项目总投资高达5000亿美元,旨在支持下一代模型的训练和推理[1] - 目前已确认的7GW功率包括五个新数据中心站点,大部分项目需在未来三年内落地[2] 项目合作伙伴与分工 - 与Oracle合作4.5GW部分,涉及德克萨斯、新墨西哥和中西部地区[2][5] - 与Softbank合作1.5GW部分,位于俄亥俄和德克萨斯,计划在未来18个月内完成[2][5] - 外包给CoreWeave0.4GW,总额达220亿美元[2][5] - 项目时间表紧迫,需在未来三年内落地[2] 供应链需求与影响 - OpenAI额外需求相当于8万多台GB200 NVL72机架,机架级支出2500亿美元[2] - 若算上数据中心建筑等全成本,可能达到4000-5000亿美元[2] - 这将导致供应链更紧张,涉及先进晶圆代工、先进封装、高带宽内存、电源和机架组装[2] 内存产能需求 - OpenAI与三星和SK海力士合作,提供每月90万片晶圆产能,几乎是2025年底DRAM行业一半的产能[3] - 具体分拆为34万片HBM和56万片非HBM产能需求[3] - HBM产能将比当前水平提升88%,非HBM后端产能将增长37%[3] 芯片供应商布局 - NVIDIA是最大受益者,Stargate大部分采用NVIDIA芯片,NVIDIA投资1000亿美元给OpenAI帮助建数据中心[6] - AMD的MI450芯片从2026年下半年开始上量,这是OpenAI的半定制项目[6] - OpenAI自己的ASIC芯片在2026年上线,由Broadcom设计、TSMC代工、三星提供HBM,初始规模100亿美元[6] 产业链受益公司 - 芯片供应商包括NVIDIA、AMD、Broadcom[8] - 代工厂和封装测试主要为TSMC、ASE、KYEC[8] - 内存供应商包括SK海力士、三星、美光[8] - 服务器ODM/OEM厂商包括鸿海、广达、纬颖、纬创、戴尔、超微[8] - 电源供应商包括台达电、光宝科[8] - 液冷系统供应商包括Vertiv、Cooler Master[8]
大摩:年资本开支从 1000 亿跃至 3000 亿(2026 年起),阿里云海外发力扛起中国科技出海希望
傅里叶的猫· 2025-10-04 15:58
中国云服务行业出海前景 - 有行业观点认为中国云服务要真正与美国企业竞争至少还需要20年 现阶段中国云厂商无法对美国同行构成实质性挑战 证据是即便是Shein、Temu等成功的中国出海企业 其数据也存储在海外云平台上 [2] - 阿里云通过云栖大会展示了加码云服务出海的明确决心 其依托AI技术与开源策略的出海布局已初步显现成效 [2] - 超95%的中国出海车企选择了阿里云服务 这一现象有望打破中国出海企业不选择中国云的固有范式 [2] 阿里云全球基础设施扩张 - 公司宣布将在巴西、法国和荷兰开设首批数据中心 并计划未来一年在墨西哥、日本、韩国、马来西亚和迪拜新增更多数据中心设施 [7] - 此举将进一步扩大其全球数据中心网络 目前已在全球29个地区布局了91个可用区 [7] 投行对阿里云算力增长与资本开支的预测 - 摩根士丹利估算2022年阿里云算力约为2.5吉瓦 预测到2032年将增长至25吉瓦 对2026年的预测算力约为5吉瓦 [9] - 据此推算 2026年至2032年期间 阿里云每年将新增超3吉瓦算力 该新增规模与摩根士丹利预测的2025年中国整个数据中心市场新增3-4吉瓦算力相当 [9] - 考虑到每新增1吉瓦算力约需1000亿元人民币投资 摩根士丹利的预测意味着阿里云每年的相关投资将超3000亿元人民币 [9] - 瑞银预测阿里云每年将以1-2吉瓦的速度扩大算力 这意味着每年资本开支还将新增1000-2000亿元人民币 [9]
如果电力是AI发展的瓶颈,中国是否在领先?
傅里叶的猫· 2025-10-03 15:07
AI发展面临的电力瓶颈 - 电力已成为AI发展的关键瓶颈,获取GPU和TPU已非主要问题,电力供应不足和稳定性差成为最大挑战[1] - OpenAI规划到2033年电力需求达250GW,超过印度当前总耗电量,预示未来几年电力需求将急剧增长[3] - 过去40年电力基础设施建设严重不足,关键设备供应链中断、劳动力短缺和监管障碍共同导致电力供应能力薄弱[6] 数据中心电力需求激增 - AI数据中心快速增长大幅增加电力需求,如一吉瓦数据中心用电量相当于费城总用电量,迫使电网商实施限电措施[7] - 国际能源署预计数据中心年电力需求从2024年415太瓦时增至2030年945太瓦时,增长超过120%,占全球总电力消耗近3%[7] - 服务器功率密度显著上升,AI专用机架达40-130千瓦,未来可能超过600千瓦,推动冷却技术从空气冷却转向液冷[7] 全球电力需求区域差异 - 美国数据中心电力需求从2023年占总需求4%升至2030年12%,贡献近一半新增负荷,新数据中心排队时间达4-7年[8] - 欧洲面临高电价和严格监管,40%配电网使用超过40年,AI工作负载波动大,功率可在几秒内飙升十倍[8] - 中国通过东数西算策略和特高压输电有效缓解电力压力,利用西部可再生能源优势[8] 中国电力需求增长趋势 - 中国是全球最大电力消费者,年消费超9000太瓦时,是美国两倍,2023年需求约10000太瓦时,2030年预计达13500太瓦时[9] - 过去15年中国用电量复合年增长率6.3%,过去五年提高至6.9%,2024年7月用电量达1.02万亿千瓦时,同比增长8.6%[14] - 电力密集度不断提高,工业用电占总量2/3,数据中心占比相对较低但增长迅速[15][19] 中国各领域电力需求预测 - 工业用电2025年预计达6300太瓦时,同比增长4.6%,到2030年复合年增长率5.0%,达到8100太瓦时[19] - 电动汽车充电需求2025年激增38.1%达200太瓦时,到2030年复合年增长率23.7%达到500太瓦时[19] - 数据中心需求2025年同比增长13.3%达200太瓦时,到2030年复合年增长率13.0%达到400太瓦时[20] 中国数据中心发展前景 - 2030年中国数据中心容量或达47吉瓦,用电量超371太瓦时,约占全国电力需求2.7%,预估偏保守[22] - 2050年数据中心容量以7.5%复合年增长率增至200吉瓦,年耗电量达1600太瓦时,占全国总电力需求6.3%,为当前8倍[22] - 北京数据中心集群以1.4的PUE领跑行业,全球平均PUE在2013年提升至1.6,过去十年维持这一水平[23] 中国电力供应优势 - 中国每年新增超500GW电力容量,2023年新增超400GW占全球新增容量70%,在可再生能源领域具有领先地位[25] - 中国占据全球太阳能光伏生产市场80%,风力涡轮机制造能力三分之二,贡献全球核电容量增长80%[25] - 到2050年太阳能和风能发电量可能从当前1839太瓦时增长10倍达18000太瓦时,占电力总量70%[28] 电网基础设施与储能需求 - 随着可再生能源渗透率提高,电网稳定性和储能需求至关重要,20%可再生能源需要电池支持[29] - 到2050年中国需要约3300GW或12000GWh储能系统容量,比当前水平高出30倍[29] - 2024年电网基础设施投资达6000亿人民币,同比增长15%,需大量投资逆变器、变压器和高压电缆等基础设施[32] 核电发展与产业链公司 - 核电被视为煤炭基载电力替代选择,2024年投资增长42%达1420亿人民币,到2050年占比可能低于10%[35] - 报告列出电力设备与新能源产业链公司,包括汇川技术、阳光电源、金风科技、宁德时代等代表性企业[36] - 电力与公用事业领域涉及水电、火电、电网等多家上市公司,如华能水电、中广核电力、国投电力等[36]
Memory逻辑线梳理
傅里叶的猫· 2025-10-02 14:59
DDR4价格暴涨分析 - DDR4价格在2025年三季度合约价飙涨85%-90%,7月出现DDR4 8GB模组价格超过同容量DDR5的价格倒挂现象[5] - 供给端大幅收缩是价格上涨根本原因,美光于2025年1月宣布DDR4即将EOL,三星等头部原厂跟进,供货量达成率仅为几分之一[3];SK海力士将DDR4产能从30%砍到20%,三星计划年底停掉8GB和16GB DDR4模组[3] - 需求端呈现刚性支撑,北美互联网公司因DDR4比DDR5机型成本低约20%而大量采购;阿里、腾讯AI服务器需求同比增长60%-70%[4];工控、网通等领域年需求量维持在1.2亿GB[4] - 市场恐慌情绪放大涨价效应,金士顿一度暂停DDR4接单,华强北出现一货难求,买涨不买跌心理导致需求提前透支[5] OpenAI与存储巨头的战略合作 - OpenAI与三星、SK海力士建立战略合作,为星际之门AI数据中心项目提供存储芯片,该项目计划初期投资1000亿美元,四年内扩大至5000亿美元[7] - OpenAI计划到2029年每月采购高达90万片晶圆的DRAM产能,相当于2025年末全球DRAM总产能190万片/月的近一半[8] - 三星和SK海力士合计占据全球约70%的DRAM市场份额和近80%的HBM市场份额[7] - 摩根大通认为这一合作将推动存储芯片市场进入为期2-3年的"超级周期"[8] NAND在AI时代的需求前景 - AI推理环节带来刚需级新需求,预计到2029年AI相关NAND市场将占全球NAND市场的34%,新增290单位可服务市场[13][14] - QLC eSSD成为AI应用最优解,因其能满足大容量、高速度和支持随机I/O访问的要求[13] - 行业供需关系出现转折,HDD预计在2026年底至2027年初面临供应限制,NL SSD只要占5%市场份额就能带动8%的NAND需求增长[14] - 大摩预测海外NAND大厂2026年每股盈利平均比市场一致预期高26%[16] 国内存储公司业务分析 公司D - 公司D聚焦企业级SSD领域,2025年上半年收入同比增长88%,预计第三季度扭亏,企业级收入占比超30%,第四季度提升至40%[19] - 产能从每月1.2亿美元提升至每月1.8亿美元,2025年全年企业级SSD产能达150亿元[19] - 与阿里订单总额达80亿,新增50亿订单在未来12个月内交付;与字节锁定40亿存储模组订单,第四季度交付额预计突破10亿;预计第四季度获得腾讯首批20亿订单[20] - 正与AWS、谷歌联合推进PCIe 5.0 SSD定制开发,预计2025年下半年启动验证[21] 公司J - 发布专为AI数据中心设计的SOCAMM2产品,解决传统RDIMM性能瓶颈和高温问题[22] - 自研主控芯片累计部署量超8000万颗,UFS4.1产品顺序读写性能达4350MB/s和4200MB/s,随机读写性能达630K IOPS和750K IOPS[22] - 采用技术合作制造模式与闪迪合作,推出定制化UFS产品;UFS4.1产品获得闪迪及多家Tier1客户认可,市场正处于从eMMC向UFS快速过渡阶段[23][24] 公司Z - 各业务毛利率表现分化:Nor年底毛利率稳定;MCU维持在35%-36%;DRAM毛利率从一季度小个位数升至五月超20%,全年预计15%-20%[25] - 产品结构优化:2024年DRAM营收占比15%,2025年目标提升至20%;DDR4占比从50%升至60%,其中8Gb小bit颗粒占一半[26] - 每月DRAM投片1.3-1.4万片,其中DDR3约3000片、DDR4约1万片;在国产工业市场占50%份额,电表升级市场有望获得一半以上订单[26][27] - Nor新应用拓展:AI眼镜客户达十多家,Meta出货预计从不到3KK涨至5-6KK;AIPC带动BIOS旁Nor从256Mb/512Mb升级到1Gb;服务器领域突破腾讯、阿里、字节CIT项目[28][29]
SemiAnalysis创始人Dylan最新访谈--AI、半导体和中美
傅里叶的猫· 2025-10-01 14:43
OpenAI与Nvidia合作情况 - OpenAI需要大量计算资源来训练和运行模型 面临规模太小的风险 尽管有8亿用户 但营收只有15-20亿美元的跑率 而竞争对手是万亿级公司[4] - Nvidia向OpenAI投资100亿美元股权 用于建设10GW计算集群 但实际资本支出高达500亿美元 Nvidia从中捕获大部分GPU订单 毛利率达75%[5] - OpenAI签署了300亿美元的五年合同 如果成功纯利润可达上百亿美元 如果失败则需要举债 这反映了公司在资本实力上相对于Meta等巨头的劣势[6] - 此类合作显示计算资源是AI行业发展的先决条件 短期看Nvidia稳赚 长期取决于OpenAI能否将计算优势转化为实际营收[7] 模型缩放定律和回报机制 - 模型缩放不是线性递减回报 而是log-log规模 10倍计算投入可带来下一阶性能的跃升 例如从低水平到更高水平的能力转变[8] - 大模型服务面临成本高 速度慢等挑战 导致像Anthropic Claude 3 Opus虽然更智能但用户更倾向于使用更快的Sonnet版本[8] - 文本预训练数据接近枯竭 但多模态数据如图像和视频仍有扩展空间 模型大小受限于服务能力而非单纯的计算资源[9] - AI在软件开发领域最为有效 Anthropic营收从1亿美元增长到7-8亿美元 主要来自代码工具 这些工具可作为力乘器 让开发者产出增加2-5倍甚至10倍[9] Token经济学和推理需求 - Token经济学核心是计算投入与智能产出的价值关系 Nvidia将其称为"AI工厂" 1GW容量可服务不同规模的模型[10] - OpenAI的推理需求每两个月翻一倍 公司需要优先服务更多用户并爬升采用曲线 而非急于放大模型规模[10] - 成本已大幅下降 GPT-3现在比最初便宜2000倍 GPT-4o和DeepSeek成本更低 GPT-4到4 Turbo模型大小缩小一半但质量相当或更好[10] - 推理需求无限但硬件能力无法每两个月翻倍 因此需要算法降本 容量比延迟更重要 现有延迟已足够使用[11] - AI代理未来可像Visa一样抽成1-2% 例如Etsy已有10%流量来自GPT的购物建议查询 显示推理可成为营收引擎[11] 强化学习与环境训练 - 强化学习通过环境迭代学习 湾区有40家初创公司构建训练环境 如模拟购物 数据清洗 数学谜题等场景[12] - 人类通过试错学习 AI也需要类似过程 包括生成数据 测试和反馈 这被称为"后训练"的第二阶段[12] - 长上下文记忆需要优化 Transformer擅长短上下文 但长记忆需借助RAG等技术 类似人类记忆要点而非细节[12] - AI将从问答工具发展为行动代理 能够执行购物 决策等任务 这需要平衡即时反应与深度思考的能力[13] 硬件与电力供应链 - AI数据中心占美国电力消耗3-4% 其中一半为传统数据中心 一半为AI专用 整体数据中心行业占美国电力2-3%[14] - OpenAI规划的2GW数据中心电力消耗相当于费城全市用电量 建设资本支出约25亿美元 包括GPU等设备[14] - 行业面临供应链和劳动力短缺 移动电工薪水已翻倍 特别是在西德州数据中心建设热点地区[15] - 电网稳定性是挑战 AI工作负载导致功率波动 可能引起电网频率从60Hz偏离至59Hz 影响附近家电寿命[15] - Texas的ERCOT和东北部PJM电网要求大用户提前通知 可切掉一半电力保证居民用电 数据中心需启动现场发电机[16] - Nvidia Blackwell芯片制造遇到问题 导致供应链公司资产负债表膨胀 AI服务器部署延后[16] 美中AI竞争差异 - 如果没有AI 美国可能在十年内失去全球霸权 中国通过长期投资已在钢铁 稀土 太阳能等多个领域领先[18] - 中国在半导体领域投资达4000-5000亿美元 比美国CHIPS法案规模更大 重点构建自给自足的产业链生态[18] - 美国需要AI加速GDP增长来应对债务负担和社会分裂 而中国则通过补贴和生态构建玩长线游戏[18] 主要公司评价 - OpenAI整体被看好但焦点分散 尽管有8亿用户和快速增长营收 但执行相比Anthropic有所不足[20] - Anthropic更受乐观评价 营收从不到1亿跳至7-8亿美元 专注软件开发这一2万亿美元市场[21] - AMD评价为"中规中矩" 在AI领域更多是跟跑者 适合中端市场但高端集群仍由Nvidia主导[22] - xAI团队专注但面临资本风险 需要持续融资来支持全球最大单体数据中心建设[23] - Oracle是低风险玩家 通过垫付资本支出收取稳定租金 如果OpenAI成功支付300亿合同将获得高收益[24] - Meta拥有全栈优势 包括硬件 模型和推荐系统 下个人机界面可能是语音直达现实[25] - Google从两年前被看空转为被看好 垂直整合栈使其token成本最低 在多模态领域具有优势[25] - 初创公司Periodic Labs用强化学习研究电池化学 效率提升25%可解锁面部AI设备等新应用[26]
Memory的超级大周期
傅里叶的猫· 2025-09-30 12:19
市场现状与价格趋势 - 存储芯片市场呈现上行趋势,野村证券称之为“前所未有的超级周期”,由DRAM、HBM和NAND三重周期驱动 [2] - 上游资源涨价已传导至成品端,eMMC、UFS普遍大幅调涨,LPDDR4X因原厂暂停报价且计划大幅涨价而看涨情绪升温 [8] - 三星和SK海力士自今年4月起逐步减少DDR4产能,转向更高利润的DDR5、LPDDR5和HBM,直接导致DDR4系列价格暴涨 [8] - 美光将2025年服务器总出货量增长预期上调至约10%,高于此前中等个位数预期,受AI agents增长及传统服务器工作负载增加推动 [9] - TrendForce指出,受HDD供给短缺影响,云端服务供应商将存储需求转向QLC Enterprise SSD,预计Q4 NAND Flash合约价平均上涨5-10% [10] 涨价核心驱动因素 - AI与数据中心需求爆发:2026年传统服务器资本支出预计增长20-30%,带动DDR4/DDR5内存需求增长约50%,企业级SSD需求近乎翻倍 [14] - NAND市场因HDD供应短缺和AI存储需求激增,预计2026年位元出货量同比增长超50% [14] - 价格与利润率跃升:DRAM营业利润率预计从当前的40-50%升至2026年的近70%,NAND利润率将从盈亏平衡点跃升至30-40% [14] - HBM混合均价预计2025-2026年保持15%以上年增长,将贡献SK海力士75%的营业利润 [14] 近期需求爆发的根本原因 - AI业务从“积累期”迈入“高渗透期”,业务渗透率从20%-30%提升至30%-40%,用户规模大幅扩张 [18][19] - 以豆包为例,DAU从年初的1000万-2000万增至近4000万,传统互联网产品加速AI重构,用户与AI交互频次显著增加 [19] - AI技术逻辑从“快思考”升级为“慢思考”,引入思维链和外部agent协同,单次报告生成的token消耗从此前的约3000token增至3万以上,增长7-10倍 [18][20] - 海外头部模型全面转向多模态,处理图片、视频等非文本数据产生更多存储需求 [20] - 互联网大厂启动AI基础设施重构,构建“热-温-冷”分层存储体系,集中采购DRAM和SSD,直接转化为大量订单 [21] 行业前景与周期判断 - 由AI需求驱动的“超级周期”预计至少持续到2027年,但可能在2028年出现下行转折 [23] - 美光预计2026年行业DRAM供应将趋于紧张,全球存储芯片尤其HBM供需不平衡将加剧,2026年HBM产能已基本锁定 [9] 英伟达相关动态与影响 - SK海力士、三星与英伟达就HBM3E 12Hi和HBM4的定价谈判尚未最终敲定,谈判局势正向DRAM厂商倾斜 [25] - 英伟达要求HBM4速度需突破10Gbps,三星、美光、SK海力士均具备供应能力,对整体HBM市场影响有限 [26] - 英伟达CPX方案将推动Rubin平台对GDDR7的大规模采用,为GDDR7市场带来显著增量,但可能短期内对HBM4需求形成压制 [27] - 英伟达研发HBF方案,利用大容量堆叠NAND替代HBM来提升系统成本效益,优化存储资源配置 [28]
万亿的OpenAI,涨疯的Memory和新出炉的DeepSeek
傅里叶的猫· 2025-09-29 15:11
万亿的OpenAI - 英伟达与OpenAI的合作涉及四个领域:持续推进微软Azure数据中心建设、与甲骨文及软银合作搭建OCI算力设施、支持CoreWeave的算力需求、以及助力OpenAI自建AI基础设施[2] - OpenAI预测到2029年公司营收将达到1250亿美元,并计划斥资1万亿美元在全球建设数据中心以满足20GW以上计算能力需求,每GW成本预计高达500亿美元[3][4] - OpenAI计算能力储备将超过得州数据中心的13倍以上,支持下一代AI所需的能源规模相当于为超过1300万美国家庭供电,相当于17座核电站级别的电力需求[3][4] - 英伟达计划向OpenAI投入高达1000亿美元用于建设由10GW英伟达系统驱动的超级数据中心,该设施相当于400万到500万台英伟达GPU,总成本预计达5000亿至6000亿美元[4][5] - CoreWeave等基础设施提供商与OpenAI签署了价值65亿美元的协议,使其总合作金额达224亿美元,微软也宣布将在英国投资300亿美元增强AI基础设施[4] 涨疯的Memory - 服务器生意因DDR涨价导致预留利润空间被吃掉,需与客户重新谈价,DDR5和NAND Flash价格因AI基础设施建设需求推动而上涨[6][10] - 2025年4月开始三星和SK海力士逐步减少DDR4产能转向DDR5、LPDDR5和HBM,9月闪迪和美光宣布存储产品价格上涨10%-30%[10] - 2025年服务器DRAM ASP预计全年同比增长18%,2026年预计同比增长36%;2025年NAND ASP预计全年同比增长15%,2026年预计同比增长31%[11][13] - 2025年DDR4 64GB RDIMM价格从139美元上涨至251美元,全年涨幅29%;DDR5 64GB RDIMM价格从253美元上涨至278美元,全年涨幅7%[12] - 2026年DDR5 64GB RDIMM价格预计从295美元上涨至360美元,全年涨幅30%,DDR5渗透率预计从90%提升至92%[12] - 随着推理需求增加,Memory需求将持续增长,此轮涨价可能并非短期现象[14] 新出炉的DeepSeek - DeepSeek V3.2-Exp实现对华为、寒武纪芯片的Day 0级别适配,暗示存在深度联合开发基础,夯实了国产化三层架构根基[18] - 从V3.1到V3.2的迭代周期仅耗时1个月,展现出高效开发节奏,按此进度V4有望在不久后推出[19] - 团队开源V3.2版本的CUDA算子,同时引入TileLang新编程范式,采用"成熟方案+新兴探索"组合保障开发者体验[21] - V3.2通过引入稀疏注意力机制实现算力利用效率优化,官方同步宣布API服务价格下调50%,延续"高性能+低成本"开发理念[22] - 在各项评估指标上V3.2-Exp表现大多与前版相当,Codeforces测试分数提高75分,BrowseComp-zh提升2.9分,但HMMT测试下降2.5分[29] - DeepSeek为V3.2-Exp提供多种内核实现:TileLang内核适合研究用途,DeepGEMM针对生产环境优化,FlashMLA专注于稀疏注意力性能[31][32] - V3.2-Exp代表一种中间实验步骤,目前尚未准备好用于所有部署,但在结构化长文件推理如代码任务上显示出有前景的方向[34]