傅里叶的猫
搜索文档
硅光CPO破局之道:2025第二届光电合封CPO及硅光集成大会12月重磅启幕!
傅里叶的猫· 2025-11-19 14:56
文章核心观点 - 硅光技术凭借高集成度、低成本和大规模制造优势,正以前所未有的速度重塑全球信息产业格局,成为光电子技术的核心发展方向 [2] - 北美云巨头800G/1.6T光模块采购潮爆发,硅光与CPO技术成为关键驱动力,可显著降低功耗30%-40%,满足AI算力中心对高速、低延迟、高能效的迫切需求 [2] - 行业会议旨在构建产学研用协同创新生态,加速光电融合技术在AI算力、量子通信等万亿级赛道的规模化应用进程 [2] 会议核心议题 - 会议聚焦硅光芯片设计优化、CPO封装良率突破、液冷热管理创新及OIO技术演进等核心议题 [2] - 议题包括突破"内存墙"限制实现光信号直连存储芯片、构建中国主导的CPO生态、CPO在6G网络中的应用前景探索 [8] - 圆桌讨论涉及CPO接口标准"中美欧三极博弈"、可维修性设计、国产CPO"设备-材料-代工"铁三角突围、成本悬崖平衡、从数据中心到6G车载等高壁垒场景 [10] 参会企业与机构 - 产业链上下游企业包括英伟达、思科、台积电、阿里云、Lam Research、Lightmatter、盛科通信、POET Technologies等行业领先公司 [5][6][9] - 学术机构参与包括上海交大无锡光子芯片研究院、华东师范大学等科研单位 [6][9] - 设备与材料供应商包括奥芯明、罗博特科、肖特、SENKO等关键环节企业 [8][9] 技术发展路径 - TSMC展示硅光技术整合发展路径,Global Foundries探讨从器件创新到代工集成的扩展路径 [5][9] - POET Technologies展示可扩展光引擎方案,Lightmatter介绍GPU间光信号高速传输技术 [5][6] - 技术演进方向包括蚀刻技术与异质集成、薄膜铌酸锂光电器件、玻璃基板革命、先进光学模拟技术等前沿领域 [5][9] 市场应用前景 - 会议涵盖2025-2030年CPO市场预测及技术路线分析,LightCounting高级市场分析师分享行业展望 [5] - 应用场景聚焦AI智算数据中心、AIGC集群、量子计算、6G网络等高速增长领域 [5][6][10] - 技术目标满足人工智能训练集群和大规模数据中心对超高带宽、超低延迟的严苛需求 [9]
写在英伟达业绩前、谷歌十年磨一剑
傅里叶的猫· 2025-11-19 14:56
Gemini 3 模型性能表现 - 在多项基准测试中表现卓越,尤其在 Humanity's Last Exam 学术推理测试中,无工具辅助得分为 37.5%,使用搜索和代码执行后提升至 45.8%,显著优于 Gemini 2.5 Pro (21.6%)、Claude Sonnet 4.5 (13.7%) 和 GPT-5.1 (26.5%) [1] - 在 ARC-AGI-2 视觉推理测试中得分 31.1%,远超 Gemini 2.5 Pro (4.9%) 和 Claude Sonnet 4.5 (13.6%) [1] - 在 AIME 2025 数学测试中,无工具辅助得分 95.0%,使用代码执行后达到 100%,在 MathArena Apex 高难度数学竞赛题中得分 23.4%,远高于其他模型(0.5% 至 1.6%)[1] - 在多模态理解(MMMU-Pro 81.0%)、屏幕理解(ScreenSpot-Pro 72.7%)、图表信息合成(CharXiv Reasoning 81.4%)及视频知识获取(Video-MMMU 87.6%)方面均领先 [1] - 在编程能力上,LiveCodeBench Pro Elo 评级达 2,439,代理终端编码(Terminal-Bench 2.0)成功率为 54.2%,代理工具使用(t2-bench)成功率为 85.4%,长周期代理任务(Vending-Bench 2)平均净值达 5,478.16 美元,优势明显 [1] Gemini 3 的技术突破与优势 - 模型性能的巨大提升源于预训练和后训练的改进 [3] - 其核心突破体现在处理20%高难度任务的能力上,如复杂逻辑推理和精妙创意决策,在需要额外"脑力"的场景下优势完全显现 [4] - Gemini 3 Pro 完全使用谷歌自研TPU训练,未使用英伟达GPU,标志着谷歌在AI全栈能力上的成熟 [7] - 优异表现建立在暴力计算之上,证明了"compute = better model"以及scaling law仍有空间 [15] 谷歌TPU的成本与生态优势 - 根据摩根士丹利测算,使用TPU V7训练400B参数Llama-3模型的硬件投资为2.34亿美元,总拥有成本为4400万美元,显著低于英伟达B200方案(硬件投资6.84亿美元,总拥有成本4800万美元)[8][9] - TPU V6的推理成本不到英伟达GB200超级芯片的一半,优势非常大 [9] - 在非通用计算平台TPU上成功训练出Gemini 3,表明谷歌的软件生态已非常完善,是"十年磨一剑"的成果 [12] 英伟达业绩前景与增长动力 - 机构普遍看好英伟达Q3业绩,高盛预测营收555.56亿美元,EPS 1.28美元;瑞银预测营收562亿美元,EPS 1.29美元;花旗预测营收567.54亿美元,并预计Q4指引可能突破625.66亿美元 [17] - 截至Q3末,Blackwell GPU已售出600万片,订单金额超1200亿美元;Rubin系列早期订单200万片,预计2026年Q1量产 [19] - 增长逻辑转变,供给端改善:云厂商云业务营收同比增长25%以上,GPU采购量环比增30%-40%;台积电CoWoS封装产能Q3环比增15%,70%供给英伟达 [19] - GPU + 网络 + 软件的整套解决方案占比达45%,环比增5个百分点,提升营收弹性 [19] 英伟达产品路线图与供应链 - Blackwell客户结构分散:大云厂商占65%,AI初创公司占25%,企业客户占10%,显示AI需求正向各行业扩散 [20] - Rubin系列是2026年增长重点,预计贡献13%营收,高端VR200和CPX性能比Blackwell强30%到50%,单价3万美元以上 [20] - 全球大模型训练每月需120万片GPU,但Blackwell月产仅80万片;Rubin在2026年Q1月产20万片,Q4达50万片,将弥补产能缺口 [20] - 供应链瓶颈存在于CoWoS封装(英伟达需求占其产能71%)、HBM内存(Q3 HBM3E价格涨20%)及光学元件 [21] 英伟达盈利能力与业务结构 - 机构预测Q3毛利率能稳定在73.5%-74%,数据中心业务毛利率可达77% [22][23] - 高毛利维持得益于高毛利率的解决方案占比提升至45%、数据中心营收增长22%带来的规模效应以及高端型号提价5%-10% [23] - Q3数据中心营收预计493.88亿美元(占比88.9%),游戏业务营收47.32亿美元(同比增44%),汽车业务营收6.2亿美元(同比增38%)[24] 英伟达面临的挑战与竞争 - 中国市场受出口管制影响,高端AI芯片份额从95%降至0%,中低端H20芯片Q3仅售2亿美元,远低于预期,且有45亿美元库存待消化 [25] - 面临AMD MI300(Q3销量80万片,市场份额升至12%)、云厂商自研芯片(如谷歌TPU、亚马逊Trainium2)以及AI初创公司专用芯片的竞争 [26] - 但其CUDA软件生态覆盖95%以上AI开发者,"GPU + 网络 + 软件"解决方案仍具优势 [26] AI资本支出可持续性 - 2026年全球AI基础设施支出预计达2046亿美元,同比增长45% [19][27] - 企业采用生成式AI的比例预计从当前的15%提升至2027年的50%,将支撑AI capex持续增长,2027年全球AI capex可能达2682亿美元 [27][28] - 即使AI初创公司支出减少,大云厂商和企业的需求也能支撑英伟达增长,2026年数据中心业务营收有望突破3000亿美元 [28]
AI投资回报率大比拼:字节12%、阿里19.2%、腾讯7.1% VS 微软23%、谷歌26.3%、亚马逊6.4%
傅里叶的猫· 2025-11-17 13:04
文章核心观点 - 通过对比国内外科技巨头在AI领域的资本开支与预期收入,分析其投资回报率差异 [2][5] - 海外巨头在AI业务的投资回报率上显著高于国内巨头,主要因其业务能面向外部市场盈利 [8][9] 测算方法 - 采用2025年AI相关收入除以2024年资本开支中位数的测算方法,以评估投资回报率 [4] - AI相关收入以云业务为主,并尽量选取对外收入部分 [4] 国内外巨头对比分析 - 阿里巴巴2025年AI云收入预计230亿元,资本开支1200亿元,投资回报率为19.2% [6] - 字节跳动资本开支1500亿元,预期AI收入180亿元,投资回报率为12% [7] - 腾讯资本开支850亿元,预期AI收入约59亿元,投资回报率为7.1% [7] - 微软资本开支1000亿美元,预期AI相关收入230亿美元,投资回报率为23% [7] - 谷歌资本开支910亿美元,预期AI云收入240亿美元,投资回报率为26.3% [7] - 2025年上半年中国GenAI IaaS市场规模达166.8亿元人民币,同比增长219.3%,阿里占25%份额,字节火山占20%份额 [7]
从英伟达转向谷歌?液冷产业出海信息更新
傅里叶的猫· 2025-11-17 13:04
英伟达与谷歌的对比及AI行业叙事转变 - 英伟达即将公布财报,市场情绪显示只有业绩超预期才算正常,符合预期即被视为利空,继孙正义后Peter Thiel也出售全部英伟达持股,但出售金额(孙正义58亿美元,Peter Thiel 1亿美元)相对于英伟达4.6万亿美元市值影响甚微[2][4] - AI泡沫讨论增多,直接原因是奥特曼提出总额1.4万亿美元、涉及30吉瓦的巨额投资计划,其规模堪比整个私人信贷市场且附带8年长期承诺,导致市场对AI行业认知转向,不确定性增加[5][6] - AI行业叙事重心发生重构,从关注整体增长潜力转向聚焦OpenAI的盈利能力及其对科技生态的连锁影响,包括广告平台、软件服务公司、GPU厂商和基础设施托管企业,市场意识到这是对仅成立3年的初创行业下重注,风险较高[6][9] - 相对于英伟达,市场对谷歌信心增强,预测数据显示至2025年底谷歌拥有最佳AI模型的概率高达86%,而OpenAI仅为5%,谷歌在AI时代六边形战士的角色愈发稳固,后续将亲自接手TPU设计[11][12][13] 液冷行业最新调研信息 - 液冷龙头企业英维克2026年数据中心和储能业务订单信息明确,其中向英伟达间接供货117台5兆瓦及190台1400kW CDU等设备,向谷歌直供近90台1400万瓦机型,向Meta、亚马逊、英特尔等科技大厂均有直供订单,毛利率在25%至45%以上不等[15][16] - 思泉新材的冷板业务有望突破英伟达冷板供应格局,预计2026年获得直供订单[17][18] - 科创新源主要通过冷板代工形式出海,与台达、奇宏AVC等合作,向英伟达等北美科技大厂广泛送样,等待批量订单[19]
巴菲特看上谷歌什么了?谷歌国内供应商梳理
傅里叶的猫· 2025-11-15 05:43
伯克希尔哈撒韦投资组合变动 - 伯克希尔哈撒韦公司增加了对谷歌母公司Alphabet的价值43亿美元持股,新持股数为17,846,142股,占其投资组合的1.62% [1][2] - 公司同时清仓了DHI的持股,并减少了对苹果公司的持股,减持数量为4,300,000股,减持幅度达32.36% [1][2] - 此次投资被视为罕见,因公司传统上较少投资科技企业,其投资框架强调长期持有、稳定现金流及合理估值 [2] 谷歌的AI战略与竞争优势 - 谷歌被视为AI时代的“六边形战士”,因其掌握数据、自研芯片(TPU)和模型(Gemini)、以及自有云平台(GCP),具备完整的AI技术栈 [4] - 公司近期宣布在德克萨斯州投资400亿美元建设3个新数据中心,彰显其对AI基础设施的长期承诺 [3] - 谷歌与多家领先AI公司达成重要合作,包括与Anthropic达成为期6年、价值800亿美元的AI芯片交易,预计为GCP在2027-2028年带来5%(约50-70亿美元)的增量收入 [15] - 即使作为竞争对手,OpenAI也与谷歌云达成合作,利用其平台训练模型,这体现了谷歌AI基础设施的行业吸引力 [15] AI驱动的核心业务增长 - 在搜索业务方面,谷歌预期2025/2026年搜索收入将分别实现约12%和9%的增长,AI搜索功能(如AI Overviews)有望推动增长超预期 [7][12] - 谷歌云平台(GCP)被低估,公司预期2026年GCP增长约31%/36%,Gemini大模型和TPU芯片是激活其增长潜力的关键 [9][10] - 根据大摩数据,谷歌AI多项指标增长显著:Gemini应用月活用户(MAU)从4亿+增至4.5亿+,日请求增长超50%;月处理tokens从480万亿增至980万亿 [12] AI商业化与广告效能提升 - AI工具显著提升广告转化效率:使用“AI Max for Search”的广告商转化量通常提升14%;“Smart Bidding Exploration”使转化量平均提升19% [12] - 超过200万广告商使用AI驱动的资产生成工具,同比增长50% [12] - 使用Demand Gen的企业在转化效率上实现同比26%的提升,结合产品feed后转化效率翻倍 [12] 谷歌AI供应链关键环节 - **液冷解决方案**:英维克是核心合作商,推出基于谷歌标准的Deschutes5 CDU联名产品,并积极布局海外产能,预计2026年对北美大厂出货实现突破 [18] - **光模块**:中际旭创是谷歌核心供应商,其800G光模块在谷歌采购份额超50-60%,并联合研发硅光LPO方案,技术领先 [21] - **OCS(光学电路交换)**:腾景科技供应高精度光学元件,单台OCS设备价值量约700-750美元;赛微电子(SWDZ)为谷歌OCS提供MEMS微镜芯片,份额超70% [22][23] - **PCB**:深南电路与沪电股份是谷歌TPU V7芯片44层高多阶层板的核心供应商 [24] - **服务器电源**:欧陆通已向谷歌送样5.5kW高功率服务器电源产品,有望进入供货阶段 [25]
微软 AI 战略深度分析
傅里叶的猫· 2025-11-14 10:25
文章核心观点 - 微软的AI战略在2023-2024年经历了一个“大暂停”阶段,随后在2025年重新加速投资 [3][5][7] - 战略调整的核心原因包括对AI业务投资回报率(ROIC)的担忧,该业务ROIC仅为20%,远低于公司整体35-40%的水平,以及自身执行能力跟不上OpenAI的算力需求 [10][18] - 2025年,随着全球AI应用爆发,微软重启AI投资,但面临OpenAI寻求多元算力合作伙伴、失去独家优势以及IaaS层竞争加剧的挑战 [7][9][17] 从深度绑定到战略调整的关键几年 - 2023年1月,微软将对OpenAI的投资从10亿美元提升至100亿美元,并获得了模型的独家IP访问权 [3][11] - 微软为OpenAI启动了超大规模数据中心计划,如爱荷华州训练集群部署约2.5万个NVIDIA A100芯片,亚利桑那州集群最终GPU数量达到约13万个,覆盖NVIDIA三代主流产品 [13][14] - 2024年中期,微软突然暂停AI投资,表现为1.5GW自建项目停滞、取消租赁合同,超过3.5GW算力建设计划被冻结 [5][16] - 暂停导致微软在超大规模厂商数据中心预租赁容量中的占比从峰值60%以上降至25%以下,OpenAI转而与Oracle、Amazon等多方签署算力合同 [9][17][19] - 关键项目Stargate(价值1000亿美元)因微软执行效率低(威斯康星项目2023年9月动工,至2025年11月未运营)而被OpenAI转给Oracle,后者仅用4个月即完成交付 [17] 微软AI的IaaS层困局 - 裸金属服务落地缓慢,如威斯康星州350MW集群延迟交付,而竞争对手Oracle同类项目仅用4个月,核心问题在于电力传输等配套设施滞后,关键设施需到2027年才能完工 [20][21] - 执行失误导致错失关键订单,如OpenAI的Stargate项目,Oracle凭借此合同后续签下总价值超420亿美元的订单,对应约150亿美元毛利 [23] - 微软对市场需求出现误判,其新增未完成订单(RPO)从暂停前的500亿美元增长到1320亿美元,但市场份额从38%下滑至18%;同期Oracle的RPO从320亿美元飙升至4250亿美元 [24][25] - 为弥补自有算力不足,微软转向依赖Neocloud厂商,但其毛利率仅35%,低于自有数据中心,且新增算力中Neocloud占比最高时接近50%,压缩利润空间 [25] - 客户调研显示,超过140家AI企业因微软无法提供稳定的交付时间而转向Oracle、CoreWeave等竞争对手,影响长期市场口碑 [26] 微软AI的PaaS层博弈 - GPU资源分配失衡,大部分高端GPU优先供给OpenAI和传统财富500强企业,导致需要灵活算力的AI初创公司难以获取资源 [29] - 行业评级中,Azure从2025年3月的“Gold级”面临降级风险,因AI集群管理工具更新停滞、监控系统稳定性及硬件故障恢复能力落后于竞争对手 [31] - 微软推行“可互换舰队”战略,依托全球70个区域、400多个数据中心的布局满足企业数据本地化需求,但受限于企业集中区域的电力紧张,扩张速度落后于可在偏远地区快速建厂的对手 [32] - 核心产品Azure Foundry定位为企业级Token工厂,凭借对OpenAI模型的IP权利,预计到2032年可能承接100%的OpenAI API推理计算,但当前企业Token市场营收转化效率低,例如Google Cloud 150家客户处理约1万亿Token仅占业务收入的0.5% [33][34] - 针对硬件折旧质疑,文章指出服务器硬件可靠性提升,标准保修期达3-5年,并可扩展,且超算案例如IBM Summit运行6.5年,证明AI硬件寿命并非短期,微软更换旧GPU主要是为优化空间与电力效率 [36][38][39] 微软AI的模型与应用 - 模型层采取“借力OpenAI + 自研MAI”策略,利用独家IP权限进行模型蒸馏与微调,例如Excel Agent在测试中准确率达71.3%,优于GPT-4的57.2% [41][42][43] - 自研MAI系列模型已推出文本、图像、语音三款,但性能尚未达到行业顶尖水平,公司计划未来几年将MAI年度算力支出提升至160亿美元,以实现模型自主可控 [41][44][45] - 应用层中,GitHub Copilot早期垄断市场,但2024年后面临竞争对手通过“fork VS Code”提供更集成的多模型方案(如Claude Code)的挑战,导致微软被迫引入Anthropic模型,毛利率大幅下滑 [46][47][49] - Office 365 Copilot表现相对稳健,月活跃用户超1000万,集成于超10亿用户的Office生态中,调研显示其可提升文档处理效率平均30%,但面临Google Workspace等竞品的直接竞争 [50][51][52] 微软AI的硬件 - 芯片层是明显短板,自研ASIC Maia系列进展滞后,Maia 100因内存带宽不足未大规模量产,Maia 200性能未达预期被评估为失败项目,计划中的Maia 300面临不确定性 [54][56][57] - 为弥补自研不足,微软依赖OpenAI的定制芯片Titan ASIC(拥有其IP权利)并通过风投基金M12投资芯片初创公司(如Modular、Neurophos),但存在IP依赖和技术成熟度风险 [58] - 相比之下,网络架构层表现出色,通过高基数交换机(如512端口)和创新rail-only拓扑,将2层网络可连接GPU数量从2048提升至524288个,并保持高效的成本比例 [59][60][62] - 超高速AI WAN实现跨区域算力互联,当前带宽达300Tb/s,可扩展至10Pb/s,采用光学电路开关和密集波分复用技术,使跨数据中心训练效率损耗仅8%,优于行业平均15% [64][66][68]
液冷供应链格局
傅里叶的猫· 2025-11-13 04:21
液冷解决方案的定制化与交付模式 - 液冷解决方案并非完全定制化,而是根据客户需求进行灵活适配,核心冷板技术根据芯片类型固定设计,具有标准化基础[3] - 系统层面需根据客户差异化需求调整,包括CDU配置差异、分流器设计需贴合实际应用场景,即便相同类型芯片搭配不同设备架构也可能需要针对性优化[3] - 交付形式完全取决于客户需求及产业链位置:CSP更需要机房侧整体系统,选择包含CDU等设备的全套交付;服务器或芯片制造商通常仅采购冷板或核心组件;终端用户倾向于选择更全面的系统集成服务[3][4] 与全球头部企业的合作模式 - 与字节跳动合作集中在CDU相关部分,公司主要参与机房侧设备供货,管路及冷板由服务器供应商负责[5] - Meta需要全套液冷解决方案,公司当前合作主要围绕冷板和整柜解决方案,通过与英伟达协同推动配套落地,已通过天弘完成部分交换机冷板及单柜方案配套,预计2026年启动大规模集成[5] - 谷歌对方案设计和技术细节要求更高,已将CDU纳入采购名单,正通过天弘打样测试并与富士康合作开发,采购偏好以整柜形式为主,当前核心需求集中在CDU[6] - 头部企业选择与大陆企业合作核心是为保障产能稳定,因需求量巨大,单一依赖台厂可能面临产能不足风险[6] - Meta供应链非独供模式,目前至少与天弘、广达两家合作,预计2026年将引入两家新供应商,形成三家分配市场份额局面,且一个柜子内通常不混用不同供应商部件[6] - CDU领域维谛、AVC和该公司产品已进入Meta供应链,宝德积极推进合作,代工厂如广达未来仍将主导部分液冷设备供应[7] - 当前与天弘合作中公司处于研发阶段独家供应状态,CDU直接对接天弘系统,但长期看天弘可能引入第二家或第三家供应商[8] 行业技术趋势 - 液冷行业主流技术方向是单向冷板设计,Meta、谷歌与英伟达均采用此方案,因单冷板在温控性能、工艺测试、水压需求等方面表现更优,同时降低接头漏液概率[9] - 大面积冷板存在温控不均、需更高水压支持、漏液风险增加等问题,相变冷却技术预计未来两年内不会投入实际应用[9] - 目前尚未出现比英伟达方案更先进的解决方案,其他厂商技术积累有差距,行业技术发展受英伟达技术迭代速度影响[9] - V8芯片解决方案采用48卡机柜,每个机柜成本约9万人民币;Meta的ASIC芯片项目一个整柜含64张卡,总价值约6万多美元,单卡折算约1000美元,因ASIC卡发热量更高散热需求更显著[9] - Meta与天弘合作新项目出现交换机独立成柜设计思路,旨在提高计算柜内芯片数量,提升性能密度同时降低硬件部署复杂性[9]
千亿的液冷赛道
傅里叶的猫· 2025-11-12 12:27
液冷行业市场前景与增长动力 - 全球液冷市场规模预计从2024年的65亿美元增长至2027年的176亿美元(约1252亿人民币),2024-2027年复合增长率超50% [2] - 到2030年,全球液冷组件市场规模有望达250亿美元(约1700亿人民币),系统市场规模或将突破500亿美元(约3500亿人民币) [2] - 增长动力完全由AI算力需求主导 [2] - 瑞银(UBS)分析指出,液冷市场存在一个10倍潜在市场规模的黄金窗口期 [1] 液冷技术应用的驱动因素 - 数据中心功率密度激增是核心驱动因素,行业平均机架密度预计从2024-2025年的15-25kW上升至2028-2029年的50kW以上,AI峰值机架可能超过900-1000kW [3] - 液冷技术的经济性拐点出现在40-50kW/机架,超过此阈值后空气冷却无法满足散热需求 [3] - AI ASIC(专用芯片)在加速器市场中的占比从2026年开始显著增加,推动更开放的供应链生态,为液冷新供应商创造机会 [8] - 超大规模云服务提供商(如Google、Meta、AWS、Microsoft)通过OCP标准实现多供应商采购,更易于新供应商进入 [8] - 中国政府要求国家计算枢纽数据中心到2025年底PUE低于1.20,这是空气冷却的理论极限,政策加速液冷采用 [10] 液冷市场空间详细测算 - 基于瑞银(UBS)模型测算,全球液冷总潜在市场规模(TAM)预计从2024年的25亿美元增长至2028年的130.3亿美元 [9] - 该测算分三部分:商用AI加速器相关液冷TAM为57.2亿美元,AI ASIC相关液冷TAM为30.6亿美元,非AI液冷TAM为42.4亿美元(假设23%渗透率) [9] - 另一种测算方式基于GB300服务器,其单柜液冷价值量约10万美元,假设2026年出货7-8万台,对应市场空间约500亿人民币 [11] - AI ASIC大厂的液冷市场空间预计为英伟达市场的80%,约400亿人民币,因此2026年海外液冷市场总空间预期在900-1000亿人民币之间 [11] - 2024年中国液冷TAM约为1.6亿美元,到2028年预计达13.8亿美元,全球市场约为中国市场的10倍 [10] 市场竞争格局与技术趋势 - 中国市场竞争激烈,液冷时代技术壁垒更高(如机架级组件集成),领导者预计将占据更多份额,渗透率到2028年可能达40% [11] - 全球市场更注重标准化交付,液冷价值向数据中心"白空间"转移,占比从空气冷却时代的40-50%上升至70-90% [11] - 机架级组件如CDU(冷却分配单元)、歧管和快速断开连接件将占液冷内容价值的80%以上 [11][12] - 液冷市场目前主要以外资及台资厂商主导,内地厂商正在努力破局 [12] - 有国内液冷公司已成功接到海外核心科技大厂订单,部分产品如快接头在年底需开始批量交付 [1] 龙头公司产品与业务进展 - 某龙头公司提供全链路液冷解决方案(Coolinside),产品覆盖冷板模块、快接头、歧管、CDU等 [13] - 其冷板模块支持Intel和AMD服务器平台,单GPU芯片散热能力高达1200W,ASIC芯片散热能力高达1500W,并支持400G/800G/1.6T光模块冷却 [13] - 快接头产品系列兼容OCP标准,并已通过英伟达MGX平台验证 [13] - CDU产品线丰富,包括排内CDU、机架内液-液CDU(单台支持250kW冷却能力)以及基于Google Deschutes 5规格的2MW CDU [13] - 该公司明年相关液冷产品(如快接头、CDU及冷板代工等)累计订单总量有望超大幅增长,预计某N客户相关液冷产品占60% [1] - 根据产业信息,部分产品在12月起开始批量交货 [12]
美光晶圆厂延期--存储产业大周期持续升温
傅里叶的猫· 2025-11-11 04:17
行业核心观点 - 存储行业正处于超级周期初期 供需失衡状态预计将持续至2026年底 [1][2][5] - AI服务器爆发式增长是核心驱动力 其存储容量是普通服务器的5-10倍 对HBM 企业级DRAM和SSD需求激增 [4][5] - 上游原厂将超过60%的DRAM产能优先供给HBM和服务器级产品 导致消费级产能被挤压 产生"产能虹吸效应" [5] 供需状况分析 - 2026年DRAM和NAND市场预计将出现需求大于供给的失衡状态 [2] - 美光HBM产品2026年的供给已全部售罄 [2] - 模组厂库存水平已降至2个月 终端客户库存也不到2个月 远低于4个月的安全水平 [4] - 大型云服务提供商主动寻求与供应商签订2-3年长期协议以换取产能保障 [6] 价格变动趋势 - 2025年第四季度存储产品出现全品类价格大幅上涨 呈现高容量产品领涨特点 [5] - DRAM产品中 96GB服务器RDIMM价格环比涨幅达70% LPDDR5目标涨幅为40% [5] - NAND产品中 3D NAND晶圆价格环比涨幅高达65%-70% [5] - 库存见底导致市场对价格敏感度极高 轻微供应缺口即可引发价格快速上涨 [4] 上游原厂动态 - 三星HBM3E已批量出货 HBM4样品达标 但资本开支策略转向谨慎 聚焦现有产能优化 [2] - 美光纽约超级工厂投产延迟2-3年 预计至2030年末才能投产 短期DRAM供给扩张能力有限 [2] - 上游供应商与模组厂商已开始限制供应以应对持续的涨价周期 [6] 技术演进与需求变化 - AI推理时代数据从冷数据转为热数据 存储需求从HDD转向SSD [5] - SSD在服务器中的占比预计将从55%增加到70% [5] - 国内存储产业链以模组厂为主 商业模式为采购-加工-销售 通过主动库存管理和建单采购提升毛利率 [3]
储能增长逻辑分析--两部委最新储能政策解读
傅里叶的猫· 2025-11-10 12:48
政策核心目标 - 2030年目标为建立多层次消纳调控体系,新增用电量主要由新能源满足,每年支撑2亿千瓦以上新能源消纳,助力碳达峰 [1] - 2035年目标为建成适配高比例新能源的新型电力系统,全国统一电力市场发挥基础配置作用,支撑国家自主贡献目标 [1] 核心赛道聚焦 - 文件核心聚焦新型储能与新能源两大赛道,其中风电、光伏装机因2025-2035年发展目标已明确,后续增速将相对平缓 [3] - 新型储能定位已从“辅助调节工具”升级为“新能源高质量消纳的必备基础设施”,贯穿于集中式新能源基地、分布式新能源项目、电力市场交易等全场景 [3] - 新型储能的核心价值在于助力新能源电力消纳、平抑电网负荷波动,其需求增长因政策导向而奠定坚实基础 [3] 储能需求驱动力 - 自2026年1月1日起,所有新光伏项目需进入市场化交易,不再享受保障性收购,催生了对储能的真实需求以应对日间高峰负电价风险 [5] - 储能可通过峰谷套利、提供调峰调频服务等多种方式获利,收益率显著提升,在内蒙古等地区叠加容量补偿政策后收益更可观 [5] - 中美两大市场需求集中释放导致2025年6月后阶段性供需错配,美国市场为规避2026年生效的“301条款”出现需求前置,中国市场则为应对电力市场化改革加速部署 [5] 市场发展阶段与规模 - 中国市场抢装核心驱动力是政策时间节点,如2025年12月31日前在内蒙古完成并网的项目能获得20-40%的高收益率,本质是为2026年所有项目进入同一起跑线做准备 [6] - 目前中国市场要达到平稳装机状态保守估计至少需要2000GWh的储能容量,当前装机热潮是在补齐电力系统所需的灵活性资源 [6][11] - 美国市场因EPC资源有限、项目审批流程长,短期内难以大规模提升装机量,需求前置规模相对可控 [6] 区域盈利模式差异 - 内蒙古储能项目经济性大幅改善,政策调整后峰谷价差预计将拉大,储能可通过电力市场报价、调峰调频、容量出租等多种方式获利 [7] - 东部省份如河北、山东在2025年底出台实施细则后,项目月度收益率可达17%左右,巨大峰谷价差(0.4-0.7元,广东可达1元)是核心驱动力 [10] - 不同区域盈利逻辑呈阶梯化特征:西北地区依赖容量补偿,东部沿海依托峰谷价差,四川、云南等风光资源较差地区有独特模式 [10] 成本与供应链分析 - 碳酸锂价格下降对成本影响权重变化,2025年其价格每上涨1000元/吨对电池价格影响已不足0.005元/瓦时 [7] - 当前储能系统成本降低更多源于全行业产能规模化扩张和生产效率提升,但2026年市场需求激增叠加碳酸锂价格回升趋势将调整成本逻辑 [8] - 2025年全球储能出货量预计为500多GWh,装机量为300多GWh,2026年差距将扩大,差异主因统计口径、重复计算及海运周期(超35天)影响 [9] 行业长期前景 - 储能市场年均装机增幅未来五年有望达到40%-50%,市场需求具备持续增长内生动力,不依赖补贴 [10][13] - 储能与新能源装机是单向配合关系,其核心功能是提供灵活性资源和实现能量时移,始终跟随并服务于发电端 [12] - 储能是长周期、大波段的投资过程,其经济性正帮助光伏等不稳定电源更好地替代传统能源,成为能源转型不可或缺的支撑 [13]