Workflow
傅里叶的猫
icon
搜索文档
Morgan Stanley--出口管制正在缩小中国的HBM差距
傅里叶的猫· 2025-05-27 14:52
中国HBM技术发展 - 中国HBM3技术落后全球领先者3-4年 但差距正通过AI芯片生产规模能力缩小[2] - 长鑫存储计划2025年中期小批量生产HBM2 2026年开发HBM3 2027年生产HBM3/3E[1][14] - 中国在hybrid bonding封装技术领域占据强势地位 长江存储相关专利达119项远超三星(83项)和SK海力士(11项)[20][21] 半导体供应链国产化进展 - 中国前端半导体制造产能占全球20% 后端占40% 预计2027年37%成熟节点产能集中在中国[5] - 本土供应链已覆盖EDA设计(华大九天)、晶圆代工(中芯国际)、存储(长江/长鑫)、封装测试(通富微电)等全环节[6] - 长鑫存储DDR5技术差距从5年缩短至3年 2025年产能预计占全球DRAM市场的14%[18] AI芯片替代方案 - 英伟达计划推出GDDR7替代HBM的6000D GPU 预计2025年出货100万台 带来3.84亿美元收入[6][7] - 游戏GPU可满足中小型企业AI推理需求 预计2023-2027年中国游戏GPU市场CAGR从4%提升至10%[12] - 华为昇腾910C采用8颗HBM2E 壁仞/燧原等厂商也使用韩国HBM2/2E[13] 技术竞争格局 - 全球HBM产能2025年底预计34万片/月 长鑫存储2026年规划10万片/月 2028年扩至40万片/月[16] - hybrid bonding将成为16层以上HBM堆叠关键技术 三星/SK海力士/美光计划2027年HBM4e采用该工艺[27][28] - 长鑫存储在无EUV情况下开发15nm以下DRAM节点 面临良率和生产规模挑战[17] 产能扩张计划 - 长鑫存储2025年产能预计达540kwpm(8英寸等效) 合肥/北京工厂合计30万片/月12英寸晶圆产能[18][19] - 武汉新芯启动HBM专项 长电科技推出XDFOI封装方案 通富微电负责HBM2堆叠组装[22]
台积电各个Fab的产能情况
傅里叶的猫· 2025-05-26 14:25
台积电全球晶圆厂布局与产能分析 核心观点 - 台积电在全球拥有17个晶圆厂,分布在新竹、台南、上海、南京、高雄及美国华盛顿、亚利桑那等地,覆盖6英寸、8英寸和12英寸晶圆生产 [2] - 2025年一季度各厂产能数据及未来季度预测显示,台南Fab18、台中Fab15等12英寸厂产能扩张显著,而高雄Fab22等新厂尚处建设阶段 [4][5][11][15][17] - 中国大陆的上海Fab10和南京Fab16专注于成熟工艺(28nm以上),产能相对稳定 [7][13] 新竹晶圆厂 - 新竹为台积电总部所在地,共有7个Fab,其中6英寸产能仅Fab2提供(3 KWPM),其余为8英寸和12英寸厂 [4] - 2025年一季度产能:Fab8(30 KWPM)、Fab3(60 KWPM)、Fab5(41 KWPM)、Fab12(93 KWPM)、Fab20(135 KWPM),全年产能预计持平,仅Fab20有较高提升率 [4] 台南晶圆厂 - 3个Fab分别生产8英寸(Fab6,102 KWPM)和12英寸(Fab14 338 KWPM、Fab18 242 KWPM)晶圆 [5] - 2025年后续季度Fab6/Fab14小幅减产,Fab18产能提升至263 KWPM(2025E)及275 KWPM(3025F) [5][6] 上海与南京晶圆厂 - 上海Fab10为12英寸厂,2025年一季度产能105 KWPM,全年波动较小(104-115 KWPM) [7][8] - 南京Fab16同样为12英寸厂,专注于28nm以上工艺,2025年产能稳定在54 KWPM [13][14] 美国晶圆厂 - 华盛顿Fab11为8英寸厂,2025年产能24-30 KWPM,波动较大 [9][10] - 亚利桑那Fab21为新建4nm厂,2024年末量产,2025年四季度产能仅10 KWPM [15][16] 台中与高雄晶圆厂 - 台中Fab15为12英寸厂,2025年一季度产能287 KWPM,全年预计在280-305 KWPM间波动 [11][12] - 高雄Fab22规划2nm工艺,五期厂房建设中,2025年尚无产能 [17]
中芯国际各foundry的产能
傅里叶的猫· 2025-05-25 10:02
中芯国际晶圆厂产能概况 - 公司在北京、天津、上海和深圳设有晶圆厂,涵盖8英寸和12英寸产能 [1] 北京 - 北京拥有3个12英寸晶圆厂,2025年一季度产能分别为56 KWPM、76 KWPM、25 KWPM - 预计2025年后两季度产能与上半年持平,略有下降 [2] 天津 - 天津设有一个8英寸晶圆厂,2025年一季度产能为148 KWPM - 预计后续季度产能小幅下降,2025E至4025F季度产能分别为140 KWPM、127 KWPM、130 KWPM [3][4] 上海 - 上海为重要基地,包含1个8英寸和2个12英寸晶圆厂 - 2025年一季度产能:8英寸厂120 KWPM,12英寸厂分别为23 KWPM和13 KWPM - 后续季度8英寸产能下降(2025E至4025F:128→110→100 KWPM),12英寸产能提升(23→25→未披露 KWPM;13→19→24 KWPM) [5][6] 深圳 - 深圳设有一个8英寸(67 KWPM)和一个12英寸(33 KWPM)晶圆厂 - 12英寸厂后续季度产能稳定在38-39 KWPM,8英寸厂数据部分缺失 [7][8] 其他信息 - 数据汇总以2025年一季度产能为主,未包含南海群岛区域 [8] - 文章提及GPU(H200/B200/RTX509)和FPGA(Xilinx及国产替代型号)产品推广 [10] - 科技行业研报资源涵盖SemiAnalysis、Seeking Alpha等平台,每日更新 [11][12]
HBM晶圆厂位置和产量调研
傅里叶的猫· 2025-05-24 13:21
HBM4价格预测 - Trendforce最新研究预计HBM4价格恐将上涨30% [1] DRAM厂商产能数据 三星(Samsung) - Line13(华城): Q1 23产能50K, Q4 24降至10K, Q3 25停产 [3] - Line15(非城): Q1 23产能190K, Q2 24回升至170K, Q4 25稳定在170K [3] - Line17(本泽): Q1 23产能170K, Q4 23降至70K后逐步恢复, Q4 25降至100K [3] - P2L(平泽): Q1 23产能130K, Q4 23降至45K后逐步提升,Q4 25达140K [3] - P3L(本港): Q2 23仅3K, Q4 24达110K并保持稳定 [3] - P4L(本泽): 2025年3Q投产, Q3 25仅5K,Q4 25达10K [3] - 总产能从Q1 23的513K降至Q4 23的455K,后逐步回升至Q4 24的670K [3] SK海力士(SK Hynix) - 无锡C2厂: Q1 23产能180K, Q2 23降至140K后逐步恢复,Q4 25达190K [4] - 总产能Q1 23为333K,Q2 23为378K [4] 美光(Micron) - Fab6(美国): 稳定保持20K产能 [5] - Fab15(日本): Q1 23产能190K,Q2 23降至80K,Q4 23恢复至190K [5] - OMT(中国): Q1 23产能188K,Q4 24达200K,Q4 25达220K [5] - 总产能从Q1 23的303K降至Q2 23的250K,Q4 23回升至300K [5] 力积电(PSMC) - PC DRAM: Q1 23产能8K,Q4 24达12K,Q4 25降至10K [7] - Foundry DRAM: 稳定保持30K产能 [7] - 总产能从Q1 23的26K逐步提升至Q4 25的45K [7] 华邦(Winbond) - Fab6: 稳定保持10K产能 [8] - KH厂: Q1 23产能17K,Q4 25达15K [8] - 总产能Q1 23为21K [8] 合肥晶合(JHICC) - 12英寸厂: 稳定保持10K产能至Q4 24,后逐步提升至Q4 25的20K [9] 其他信息 - 长鑫存储可能在上海建设封装厂 [1] - GPU产品包括H200/B200/RTX509 [10] - FPGA产品包括Xilinx全系及国产替代型号 [10]
特供中国的阉割版Blackwell-B40的最新信息
傅里叶的猫· 2025-05-24 13:21
英伟达中国市场策略调整 - 公司计划为中国市场推出新型AI芯片 价格较H20型号大幅降低至6500至8000美元(H20售价1万至1.2万美元) 最早6月启动量产 [2] - 新芯片基于Blackwell架构 采用RTX Pro 6000D服务器级处理器和常规GDDR7内存 未使用台积电CoWoS先进封装技术 性能参数因美国出口限制调整 带宽接近新规上限(1.7-1.8 TB/s) [2] - 公司计划9月量产另一款Blackwell架构芯片(或命名B40) 同样面向中国市场 [3] 美国出口管制影响 - 美国自2022年对AI芯片实施出口管制后 公司已三次为中国市场定制产品 此次新芯片是H20被禁后的替代方案 原计划改进H20的方案未通过审批 [2] - 受制裁影响 公司在华市场份额从95%暴跌至50% 竞争对手华为的昇腾910B芯片正加速抢占市场 [2] - H20停售导致公司计提55亿美元库存损失 并放弃150亿美元潜在订单 [3] 行业竞争格局变化 - 行业分析指出 美国新规通过限制内存带宽压制中国AI算力发展 而公司通过调整芯片配置在合规边缘寻找市场空间 [3] - 公司CEO警告 若美国持续限制 更多中国客户将转向华为 [2]
外资顶尖投行研报分享
傅里叶的猫· 2025-05-23 15:46
核心观点 - 提供外资顶尖投行研报资源 包括大摩 小摩 UBS 高盛 Jefferies HSBC 花旗 BARCLAYS等机构报告 [1] - 涵盖半导体行业深度分析 包含SemiAnalysis全部分析报告 [3] - 每日更新Seeking Alpha Substack Stratechery精选付费文章 [3] - 资源聚焦科技行业分析 每日上百篇研报更新 支持投资决策与行业研究 [3] 资源内容 - 每日上传数百篇外资顶尖投行原文研报 [1] - 包含SemiAnalysis半导体行业全部分析报告 [3] - 持续更新Seeking Alpha Substack Stratechery付费精选内容 [3] 服务价值 - 获取成本为390元(领券后) [3] - 每日提供上百篇科技行业分析报告与精选报告 [3] - 支持用户自主投资决策与行业深度研究需求 [3]
SemiAnalysis--为什么除了CSP,几乎没人用AMD的GPU?
傅里叶的猫· 2025-05-23 15:46
测试背景与目标 - 研究团队耗时6个月对比AMD与NVIDIA的AI服务器推理性能,验证AMD在总体拥有成本(TCO)下是否优于NVIDIA [2] - 结果显示不同任务类型(聊天、文档处理、推理)下两者性能差异显著:超大规模企业直接运营GPU时,NVIDIA在部分工作负载的perf/$更优,而AMD在另一些场景表现更佳 [2] - 中短期(不足6个月)租赁市场因AMD服务供应商稀缺导致价格高企,NVIDIA凭借超100家Neocloud提供商形成竞争市场,租赁成本优势显著 [2] 硬件性能对比 - MI325X(2025Q2出货)作为H200竞品面临时间劣势,比HGX B200晚一季度出货导致供应商偏好NVIDIA [5] - B200(2025Q1末出货)当前软件未完善,如FP8格式DeepSeek V3在TRT-LLM/vLLM/SGLang上运行不全 [5] - MI355X(2025Q3出货)比B200晚两季度,H200/H100在内存带宽(最高4.8TByte/s)和节点容量(1.152GByte)上弱于MI325X(6TByte/s, 2.048GByte) [6] 基准测试方法 - 采用在线吞吐量与端到端延迟结合的测试方法,模拟真实推理场景 [10] - 模型选择覆盖密集架构(Llama3 70B/405B)和稀疏MoE架构(DeepSeekV3 670B),输入输出组合涵盖4K/1K(摘要)、1K/1K(翻译)、1K/4K(推理)三类典型场景 [10][11] - 推理引擎选择vLLM(Llama3)、TRT-LLM(H200)、SGLang(DeepSeek),系统评估所有可行张量并行配置 [12][13] 关键测试结果 Llama3 70B FP16 - 1K/1K场景:低延迟时H100/H200+vLLM领先,高并发下MI325X反超 [15] - 1K/4K场景:H100性能稳定在900 tokens/GPU/s,MI325X在450秒延迟时吞吐量最高 [16] - 4K/1K场景:H200+TRT-LLM从20秒延迟起持续领先,MI325X的TP=1配置高并发表现突出 [16] Llama3 405B FP8 - 1K/1K场景:MI325X持续优于H200+vLLM,H200+TRT-LLM单GPU达1000 tokens/s [17] - 4K/1K场景:MI325X全延迟范围碾压竞品,MI300X在250秒延迟时超越H200+vLLM [19] DeepSeekV3 670B FP8 - 1K/1K场景:H200全延迟级别击败MI300X,MI325X仅在25-35秒延迟区间有竞争力 [20] - 4K/1K场景:H200低延迟优势明显,MI325X在>100秒延迟时性能比H200高20% [25] 总拥有成本(TCO)分析 - AMD硬件成本优势显著:MI300X单位每小时总成本1.34美元(资本占比70.5%),低于H200的1.63美元(资本占比76.4%) [21] - Llama3 405B场景:MI325X服务成本持续低于H200+vLLM,但H200+TRT-LLM在>60秒延迟后凭借性能优势逆转 [24] - DeepSeekV3场景:MI325X在摘要任务中每美元性能比H200高20-30%,但低延迟场景仍属NVIDIA [25] 市场采用率差异原因 - 租赁市场结构失衡:NVIDIA有超100家Neocloud供应商竞争,AMD仅少数导致租金溢价 [26] - 价格敏感度测算:MI300X需降至1.9美元/小时(1K/1K场景)或2.1-2.4美元/小时(1K/4K场景)才具竞争力,当前实际租金超2.5美元/小时 [30] - 软件生态差距:AMD研发集群投入仅1300万美元(上季度),远低于7.49亿美元股票回购,ROCm的CI覆盖率不足CUDA的10% [5][12] Blackwell(B200)初步表现 - 在Llama3 70B/405B的1K/4K测试中,B200-TRT全延迟范围碾压MI325X/MI300X,最高请求率下未现性能瓶颈 [28] - 当前软件支持局限:主流框架(vLLM/SGLang)对B200稳定支持不足,TRT-LLM优化仅覆盖少数模型 [27]
外资顶尖投行研报分享
傅里叶的猫· 2025-05-22 13:44
外资研报资源 - 提供每日数百篇外资顶尖投行原文研报 包括大摩 小摩 UBS 高盛 Jefferies HSBC 花旗 BARCLAYS等机构报告 [1] - 包含半导体行业分析机构SemiAnalysis的全部研究报告 [3] - 每日更新Seeking Alpha Substack stratechery的精选付费文章 [3] 订阅服务价值 - 当前领券后订阅价格为390元/年 [3] - 每日可获取上百篇外资投行科技行业分析报告及精选内容 [3] - 资源适用于投资决策支持及行业深度研究需求 [3]
JP Morgan--AI服务器市场分析
傅里叶的猫· 2025-05-22 13:44
核心观点 - JP Morgan对2025年英伟达GPU出货量做出详细预测,包括GB服务器占比85%(约380万)和HGX服务器90万 [3] - 美国四大云服务提供商(CSP)2025年资本支出预计同比增长40-45%,远高于AI芯片增长 [4][5] - AI服务器需求与ODM生产量之间存在显著差距,例如GB GPU需求270万 vs 出货量180万 [21] - 华为910B等效芯片2025年产量预计80-90万颗,中国AI服务器需求加速 [29] - AI ASIC芯片2025年预计同比增长40%至约400万,主要受Trainium 2推动 [30] 英伟达GPU预测 - 2025年Blackwell GPU中GB服务器占比约85%(约380万),HGX下调至90万 [3] - H20和H200各40万,预计Nvidia将H20晶圆重新加工为H200芯片 [3] - AMD高端GPU预测下调约10万,反映美国限制措施影响 [3] - 高端数据中心GPU/AI ASIC的复合年增长率(CAGR)预测为11%/23% [3] - 每芯片多个晶粒的计算性能提升导致AI芯片增长与AI支出增长存在差异 [4] CSP资本支出与需求 - 微软预计2026财年资本支出同比增长放缓,但2025年下半年转向AI服务器建设 [5] - Meta将2025年资本支出上调至640-720亿美元(中点同比增长83%),大部分用于生成式AI [5] - 谷歌重申2025年约750亿美元资本支出计划(同比增长超40%),主要用于服务器 [6] - 亚马逊AWS的AI业务规模达数十亿美元,同比增长三位数,仍受供应限制 [5] - 四大CSP总资本支出预计增长40-45%,高于数据中心资本支出预测的28% [5] AI服务器需求分析 - 2025年HGX GPU需求170万(H20 40万,H200 40万,Blackwell HGX 90万),GB GPU需求380万 [7] - 微软、Meta、亚马逊、谷歌的NVL72等效机架需求分别为约8千、6千、5千、3千 [7] - 二级美国CSP(如特斯拉、xAI、CoreWeave、Oracle)约10千需求,总计约32千机架 [7] - 假设主要CSP占GB需求总量的85%以上,表明约38千GB NVL72机架或约270万GB GPU需求 [7] - GB GPU终端需求与ODM生产量之间存在约90万供需缺口 [21] 供应链与制造 - TSMC的CoWoS-L分配约39万片,每片生产15个Blackwell GPU,相当于550-600万生产量 [18] - 鸿海和纬创的GPU板卡估计合计470万Blackwell GPU模块制造,包括380万GB GPU和90万HGX GPU [18] - GB服务器ODM市场集中,广达和鸿海领先(市场份额35-40%),纬创第三(约12%) [22] - 前三大GB ODM(鸿海、广达、纬创)的GB订单履行率约70%,其他供应商低于50% [23] - GB200/300系统出货量比例预计约为80%/20% [27] 设计变更与组件影响 - GB300从Cordelia板卡切换回Bianca板卡,可能导致板卡级量产延迟至11月 [26] - 对BMC供应商ASPEED有利,GB200每系统1-2个BMC,GB300为1个 [28] - 对OAM/UBB制造商(鸿海、纬创)不利,Bianca板卡内容量减少 [28] - 对插座供应商不利,取消了LGA GPU和内存CAMM插座 [28] - 对冷板和快速断开连接(QD)供应商不利,Bianca计算板卡的QD/冷板内容减少约3倍 [28] 中国AI服务器市场 - 自2024年末DeepSeek公告以来,中国AI服务器需求加速,H20/MI308需求显著上行 [29] - 预计中国客户将增加国产芯片采购(如华为昇腾、昆仑、摩尔线程) [29] - 华为910B等效芯片2025年产量预计80-90万颗,SMIC可能将更多前沿产能转向AI应用 [29] - 中国对H20的强劲需求,2025年第一季度H20 GPU出货量约40万 [7] AI ASIC市场 - 2025年AI ASIC芯片同比增长约40%,达到约400万,主要受Trainium 2推动 [30] - AWS的AI ASIC出货量预计同比增长约70%,达到约120万 [31] - 谷歌TPU2025年同比增长约20%,下半年受Ironwood项目驱动 [31] - 英特尔取消Falcon Shore,预计2025/26年Gaudi出货量为12万/0万 [31] - Meta加速部署MTIA,预计2025/26年出货量显著增长 [31]
特供中国的阉割版Blackwell-B40的几点信息
傅里叶的猫· 2025-05-21 12:12
英伟达特供中国GPU计划 - 英伟达计划推出基于Blackwell架构的特供中国GPU 并非此前Hopper架构的H20阉割版 [1] - 新GPU可能命名为6000D或B40 预计7月初发布 从HBM内存改为GDDR方案 [3] 性能参数调整 - 美国可能设GPU内存带宽上限1.7-1.8TB/s 导致H20弃用HBM改用GDDR6 [2] - 广发预测B40搭载GDDR7速率约1.7TB/s 显著低于H20的4TB/s [3] - NVLink单向速度约550GB/s 配合CUDA支持 [3] 市场影响与供应链 - 广发预计B40到2025年底出货量达100万片 [3] - 华为昇腾2024年出货量已达64万 受H20禁令影响2025年出货量或超100万 [3] - 台积电成熟工艺支撑英伟达快速调整设计 实现3个月内发布新品 [3] 技术路线争议 - 各机构对显存类型存在分歧 Jefferies预测用GDDR6 广发预测用GDDR7 [2][3] - Blackwell架构特供版原计划替代H20 因禁令加速推出临时修改方案 [3] 行业研究资源 - 提供H200/B200/RTX5090/FPGA等硬件资源信息 [5] - 汇集外资投行科技研报及SemiAnalysis等付费内容 年费优惠至390元 [6]