摩尔定律
搜索文档
系统组装:AI服务器升级的新驱动力
东方证券· 2025-09-28 14:43
行业投资评级 - 电子行业评级为看好(维持)[5] 核心观点 - 系统组装成为AI服务器性能提升的新驱动力 替代制程工艺升级放缓的瓶颈[8] - 制程工艺升级驱动芯片性能提升 但未来升级步伐可能放缓 台积电工艺从2011年28nm升级至2025年2nm 并有望2028年升级至A14工艺(1.4nm)[8] - 先进封装成为芯片性能提升的又一驱动力 英伟达B200采用双颗裸晶合封工艺 实现单一封装集成2080亿颗晶体管 超过H100(800亿颗晶体管)两倍[8] - AI服务器GPU数量从单台8张升级至单个机柜72张 并将在2027年VR Ultra NVL576机柜中升级至144张GPU(每张封装4颗GPU裸晶 合计576颗GPU裸晶)[8] 投资建议与投资标的 - 维持推荐AI服务器系统组装相关标的:工业富联(601138 买入)、海光信息(688041 买入)、联想集团(00992 买入)、华勤技术(603296 买入)等[8] - 工业富联:GB200系列产品测试二季度较一季度大幅优化 系统级机柜调试时间显著缩短 自动化组装流程导入 预计GB200三季度出货量延续强劲增长 主要订单来自北美大型云服务商 GB300单台利润存在超过GB200潜力[8] - 海光信息:合并中科曙光 有望形成包括CPU、DCU及系统组装在内的垂直整合能力[8] - 联想集团:英伟达表示联想等合作伙伴预计从2025年下半年开始推出基于Blackwell Ultra的各类服务器[8] - 华勤技术:国内知名互联网厂商AI服务器核心ODM供应商 交换机、AI服务器、通用服务器等全栈式出货 受益下游云厂资本开支扩张[8] 市场背景与趋势 - AI服务器市场保持增长 硬件升级正当其时[7] - AI算力设施需求驱动 SiC/GaN打开成长空间[7] - AI算力浪涌 PCB加速升级[7]
通用计算时代已经结束,黄仁勋深度访谈,首次揭秘投资OpenAI的原因
36氪· 2025-09-28 07:37
AI计算需求与增长动力 - AI计算需求正经历双重指数级复合增长:AI用户使用量呈指数级爆发,同时AI推理方式从简单一次性回答升级为复杂"思考"过程,导致每次使用所需计算量呈指数级增长,预计将带来10亿倍的推理需求增长 [2][4][11] - AI基础设施市场当前年规模约为4000亿美元,未来总体潜在市场规模有望增长至少10倍 [2][6][22] - AI推理收入占比已超过40%,且由于思维链出现,推理即将迎来爆发式增长 [10] AI工业革命与市场转型 - AI基础设施建设被视为一场工业革命,全球数万亿美元现有计算基础设施(包括搜索、推荐引擎、数据处理等)正从使用CPU迁移至AI加速计算 [2][6][19] - 通用计算时代已经结束,未来属于加速计算和AI计算,这一转型涉及数万亿美元规模的市场机会 [19][20][24] - 传统数据处理(结构化与非结构化)目前绝大多数仍在CPU上运行,未来将全部迁移至AI,这是一个庞大且尚未被充分开发的市场 [31] OpenAI合作与投资逻辑 - OpenAI有望成为下一家万亿美元级超大规模公司,将同时提供消费级和企业级服务 [3][5][14] - 对OpenAI的1000亿美元投资被视为"能想象到的最明智投资之一",投资逻辑基于对其成为下一代超大规模公司的预期 [3][5][14] - 合作涵盖多个层面:加速Microsoft Azure构建、Oracle Cloud Infrastructure构建,以及直接帮助OpenAI首次自建AI基础设施(涉及芯片、软件、系统和AI工厂) [15][16] NVIDIA竞争优势与战略 - 采用"极致协同设计"战略,在算法、模型、系统、软件、网络、芯片等整个堆栈上进行同步创新和优化,构建强大竞争壁垒 [3][8][36] - 通过全栈设计实现性能飞跃(例如Hopper到Blackwell性能提升30倍),这种深度优化使单位能耗性能达到最优,即使竞争对手芯片免费,客户因机会成本过高仍会选择NVIDIA系统 [3][8][49] - 年度发布周期(如2024年Blackwell、2026年Vera Rubin、2027年Ultra、2028年Feynman)使竞争对手难以跟上,供应链锁定效应显著增强 [35][36][39] 行业前景与华尔街预期 - 华尔街分析师预测公司增长将在2027年趋于停滞(8%增长),但公司认为市场上的计算资源仍处于短缺状态,供应过剩可能性极低 [7][18][29] - 直到所有通用计算转换为加速计算、所有推荐引擎基于AI、所有内容生成由AI驱动,供给过剩情况才可能发生 [7][28] - AI驱动收入预计将从2026年的1000亿美元增长至2030年的1万亿美元,增长动力来自现有超大规模计算基础设施的AI转型和新应用场景的爆发 [24][27][28] 技术演进与系统复杂度 - 摩尔定律失效导致晶体管成本和能耗不再有显著改进,传统计算无法继续提供必要性能提升,必须通过系统级创新实现性能跨越 [2][8][36] - AI工厂是极其复杂的系统,涉及芯片、软件、网络、电力等多维度协同,目前没有任何公司能跟上NVIDIA的产能和研发节奏 [38][39][52] - 公司定位从芯片公司转变为AI基础设施合作伙伴,提供从芯片到系统的全方位解决方案,这种定位转变扩大了市场机会和客户合作范围 [3][52]
黄仁勋最新访谈:AI泡沫?不存在的
虎嗅APP· 2025-09-28 00:34
文章核心观点 - 英伟达对OpenAI的投资是独立于商业合作的财务机会,基于对其成为下一家数万亿美元级别超大规模公司的信念 [13][14] - 公司认为其护城河比三年前更宽,核心优势在于极致的软硬件协同设计能力、规模效应和全栈AI基础设施提供能力 [5][44][48] - AI推理需求正经历双重指数增长,推动计算基础设施从通用计算向加速计算全面迁移,市场规模将扩大数倍 [10][20][23] - 公司通过年度发布节奏持续提升性能,以应对算力需求指数增长,并认为在完成全面迁移前出现供给过剩的概率极低 [40][30][31] - 主权AI成为全球趋势,每个国家都需要建设AI基础设施,这为公司开辟了新市场 [66][67][68] 投资OpenAI的战略逻辑 - 投资OpenAI是基于其成为下一家数万亿美元级别hyperscale公司的潜力,而非合作前提 [13][14] - 公司与OpenAI的合作涵盖多个项目:Microsoft Azure建设、OCI(Oracle Cloud Infrastructure)5-7吉瓦容量建设、CoreWeave合作,新合作是帮助OpenAI首次自建AI基础设施 [14] - OpenAI面临两个指数曲线:客户数量指数增长和每个场景算力需求指数增长,新合作是对现有合作的增量支撑 [14] AI需求规模与市场预期 - 当前AI推理收入占比超过40%,且因链式推理技术面临爆发 [7] - 公司提出三条Scaling Law:预训练、后训练(强化学习)和思考型推理,替代单一Scaling Law [10][11] - 华尔街共识预测2027-2030年公司年化增速8%,但建设者(如公司CEO、Sam Altman等)认为AI收入将从2026年1000亿美元增长至2030年1万亿美元 [17][19][28] - 全球GDP约50万亿美元(占比55%-65%)将被AI增强,假设10万亿美元增强价值需AI基础设施支持,对应年资本开支约5万亿美元 [21][22] - 阿里巴巴计划到2030年代将数据中心能耗提升10倍,公司收入与电力消耗正相关 [23] 技术优势与竞争壁垒 - 公司护城河比三年前更宽,优势包括极致协同设计(同时优化模型、算法、系统、芯片)、规模效应(供应链锁定、客户大额订单信心)、全栈能力 [5][44][48] - 从Kepler到Hopper十年性能提升10万倍,Hopper到Blackwell一年系统级提升30倍,未来Rubin、Feynman架构将继续倍数级提升 [41][43] - 公司业务本质是AI基础设施系统(AI工厂),而非单一芯片;竞争对手ASIC即使免费提供,因土地、电力等设施成本占主导(1吉瓦数据中心设施成本约153亿美元),且公司单位能耗性能领先,总拥有成本仍更低 [48][57][58] - CUDA高度可编程性适配快速演进的AI工作负载(如Transformer变体),而ASIC面临市场变大后向COT(客户自有工具)模式转变的挑战 [50][52] 供应链与产能管理 - 公司按需响应产能,供应链已准备好翻倍能力;客户预测持续偏低,导致公司处于紧急追赶模式 [31][32] - 年度发布节奏需要提前规划数千亿美元级别晶圆启动、DRAM采购规模,供应链深度协同 [45] 行业生态与合作策略 - 公司推出NVLink Fusion、Dynamo等开放技术,支持Intel、Arm等生态接入,实现双赢 [55][56] - 与Intel合作融合其企业生态与公司AI生态,与Arm合作类似,扩大市场机会 [56] 主权AI趋势 - AI成为国家基础设施必需品,每个国家需具备主权AI能力以融入文化、价值观,并培养自身智能体系 [66][67][68] - 公司定位为AI基础设施合作伙伴,参与全球国家级别AI建设 [68]
2nm后的晶体管,20年前就预言了
半导体行业观察· 2025-09-27 01:38
文章核心观点 - 文章回顾了约20年前由劳伦斯伯克利国家实验室杨培东团队在环栅晶体管(GAA-FET)领域的开创性研究,该研究通过自下而上的化学合成方法(化学气相沉积)成功制造了硅垂直集成纳米线场效应晶体管(Si VINFET),验证了环栅结构在纳米尺度下的可行性与性能优势,为当今半导体行业向GAA晶体管架构演进提供了早期的概念验证和技术启示 [1][2][9] GAA晶体管的技术演进与行业背景 - 环栅晶体管设计是继鳍式场效应晶体管之后的关键架构进步,其栅极完全环绕纳米级硅通道,能提供比FinFET更精确的电流控制,从而提高性能并降低功耗 [2][4] - 随着芯片制造工艺进入5纳米以下节点,FinFET的缩放面临栅极效率和能效下降的挑战,行业需要GAA等新结构来继续推动摩尔定律,实现更高的晶体管密度 [5] - 微芯片制造商的目标是将数百亿个晶体管封装到指甲盖大小的芯片中,晶体管尺寸需缩小至2纳米甚至更小 [5] 早期研究的创新方法与成果 - 2006年,杨培东团队在《纳米快报》上发表了开创性论文,首次展示了一种非传统的自下而上方法,利用化学气相沉积技术生长垂直硅纳米线,并以此制造出功能性的环栅晶体管结构 [6][9] - 该团队使用行业标准材料,通过化学合成而非传统光刻技术,实现了环绕栅极结构,证明了该架构的根本可行性 [6][9] - 早期制备的原型器件(Si VINFET)将硅纳米线的外延生长与自上而下的制备工艺相结合,其电学性能已与当时的标准晶体管及其他基于纳米线的器件相当 [10][25] 环栅晶体管的结构优势与潜力 - 理论及早期研究表明,与双栅极的FinFET器件相比,环绕栅极结构因其高栅极耦合效率,可使短沟道效应降低35% [13] - 利用垂直排列的高长径比纳米线沟道,沿单根纳米线长度方向制备多个栅极和源/漏连接,可显著提高单位面积的晶体管密度,实现三维集成 [12][13][25] - 将纳米线嵌入低电荷俘获密度的二氧化硅中,可消除阈值电压滞后现象,使晶体管性能更稳定、更具可重复性 [12][16] 原型器件的具体性能表现 - 研究的11个器件的平均阈值电压为-0.39±0.19V,开关电流比范围为10⁴至10⁶ [16][20] - 器件的归一化跨导范围为0.65-7.4 μS/μm,与高性能绝缘体上硅MOSFET和p型硅纳米线器件的报道值相当 [17][19] - 计算得到的空穴迁移率范围为7.5-102 cm²·V⁻¹·s⁻¹,平均值为52 cm²·V⁻¹·s⁻¹,与未功能化的p型硅纳米线报道值处于同一数量级 [19] - 对于栅极氧化层厚度为300 Å的典型器件,其亚阈值斜率值为120mV/十倍频,虽为理论极限的两倍,但已远小于当时具有背栅或顶栅结构的纳米线器件的典型值(通常>300mV/十倍频) [20] 技术可扩展性与应用演示 - 研究团队已成功制备出硅纳米线沟道直径仅为6.5纳米的器件,明确证明了进一步缩小器件尺寸的能力 [22] - 通过将器件与一个200 MΩ电阻串联,成功制备了反相器电路,演示电压增益约为28,证明了其在数字逻辑应用中的可行性 [24] - 通过传统热氧化工艺,可将沟道直径轻松缩小至5纳米以下,这种高长径比的薄体结构难以通过传统光刻技术实现 [14]
双“英”恩仇:英特尔和英伟达的三十年
经济观察网· 2025-09-26 16:50
文章核心观点 - 英伟达宣布向英特尔注资50亿美元,双方将合作开发"Intel x86 with RTX"芯片,标志着两家芯片巨头在长达三十年的竞争后走向合作 [1] - 此次合作可能引发全球芯片行业的重大洗牌,影响华尔街和科技圈 [1] - 双“英”关系演变是行业颠覆式创新的典型案例,从初期和平共处到激烈竞争,再到因AI浪潮导致权力更迭,最终走向合作 [1][26] 公司发展历程 - 英伟达于1993年由黄仁勋、克里斯·马拉科夫斯基和柯蒂斯·普利姆共同创立,创业初期资源匮乏,启动资金仅500万美元 [2][3] - 1993年英特尔年收入约88亿美元,利润超20亿美元,CPU市场份额超80%,与初创的英伟达形成巨大差距 [3] - 1999年英伟达推出全球首款GPU GeForce 256,凭借3D渲染能力声名鹊起,但当时英特尔并未视其为威胁 [5] - 2001年英伟达推出nForce芯片组挑战英特尔,双方专利战开启,2009年英伟达以支付15亿美元许可费和解 [6][8] - 2015年英伟达市值150亿美元,到2024年突破3万亿美元,成为全球市值最高科技公司 [17] 技术路线与市场竞争 - 英特尔长期遵循摩尔定律和“嘀嗒”战略,但2005年左右开始面临制程瓶颈,10纳米工艺一再延期 [12][18] - 英伟达2006年发布CUDA架构,支持并行计算,使GPU成为通用计算平台,并从“显卡厂”迈向“计算公司” [12][13] - 英特尔2004年启动Larrabee项目试图打造高性能GPU,但因性能未达预期于2010年取消 [6][9] - 英特尔通过集成显卡Intel HD Graphics蚕食低端GPU市场,而英伟达则牢牢抓住游戏玩家与高端市场,独显份额长期维持在60%以上 [10][11] - 在AI算力战场,OpenAI训练GPT-3完全依赖英伟达V100 GPU,GPT-4则建立在上万张A100与H100之上,英特尔多次收购尝试均未成功 [17] 制造模式与外部因素 - 英特尔采用IDM模式,自行设计并制造处理器,但因10纳米工艺延期等问题失去制造领先优势 [18] - 英伟达采用“无厂模式”,专注芯片设计,制造完全外包给台积电,凭借台积电的先进制程反超英特尔 [19] - 地缘政治成为关键变量,2022年拜登政府对华实施高性能GPU出口管制,英伟达A100、H100被列入禁运清单 [23] - 2023年英特尔财年亏损高达70亿美元,股价几近腰斩,而英伟达因AI热潮市值飙升至3万亿美元 [20] 行业格局演变 - CPU市场,AMD凭借Zen架构强势反弹,截至2023年在x86 CPU市场份额已接近35% [22] - GPU领域,AMD的开源生态ROCm已对CUDA形成挑战,在“算力去英伟达化”呼声下赢得部分客户 [22] - 互联网巨头纷纷自研专用AI芯片,如谷歌TPU、亚马逊Inferentia和Trainium、特斯拉Dojo,算力版图呈现“碎片化”趋势 [23] - 行业竞争已超越企业间博弈,演化为国家间的战略较量,企业需在地缘政治复杂棋局中寻找立足之地 [23] 创新理论印证 - 英特尔与英伟达的此消彼长印证了“颠覆式创新”理论,GPU从边缘配角切入,最终在深度学习时代迎来爆发 [26] - 英特尔的迟缓是“创新者的窘境”典型案例,因难以放弃利润丰厚的CPU主业而错失新市场机会 [26][27] - 2012年AlexNet的出现是CPU与GPU计算权力的交叉点,标志着技术范式的切换 [26] - 行业规律表明,价值迁移往往始于不被看好的技术,范式切换窗口期稍纵即逝 [27]
台积电分享在封装的创新
半导体行业观察· 2025-09-26 01:11
人工智能发展带来的电力挑战 - 人工智能的普及推动电力需求呈指数级增长,其应用正从超大规模数据中心渗透至边缘设备等各个领域 [2] - 人工智能模型的演进需要更大的数据集、更复杂的计算和更长的处理时间,导致人工智能加速器在五年内每封装功耗增加3倍,部署规模在三年内增加8倍 [4] 台积电的战略重点与技术路线图 - 公司将战略重点放在先进逻辑微缩和3D封装创新,并结合生态系统协作以应对能源效率挑战 [6] - 先进逻辑制程路线图稳健:N2计划于2025年下半年量产,N2P计划于2026年量产,A16将于2026年底实现背面供电 [6] - 从N7到A14制程,在等功率条件下速度提升1.8倍,功率效率提升4.2倍,每个节点的功耗比上一代降低约30% [6] - A16制程针对AI和HPC芯片优化,与N2P相比,速度提升8-10%,功耗降低15-20% [6] 基础IP与内存计算创新 - N2 Nanoflex DTCO优化了高速低功耗双单元设计,可实现15%的速度提升或25-30%的功耗降低 [8] - 优化的传输门触发器在速度(2%)和面积(6%)的权衡下,功耗降低10% [8] - 双轨SRAM搭配Turbo/Nomin模式,效率提升10%,Vmin降低150mV [9] - 基于数字内存计算(CIM)的深度学习加速器,相比传统4nm DLA,可提供4.5倍TOPS/W和7.8倍TOPS/mm²的计算性能,并可从22nm扩展到3nm及以上 [9] AI驱动的设计工具与3D封装技术 - 新思科技的DSO.AI工具能将APR流程的电源效率提高5%,金属堆栈的电源效率提高2%,总计提升7% [9] - 对于模拟设计,与台积电API的集成可实现20%的效率提升和更密集的布局 [9] - AI助手通过自然语言查询将电源分配分析速度提升5-10倍 [9] - 公司的3D Fabric技术已转向3D封装,包括SoIC、InFO、CoWoS及SoW [9] - 2.5D CoWoS的微凸块间距从45µm降至25µm,效率提升1.6倍;3D SoIC的效率比2.5D提升6.7倍 [10] 先进集成与光子技术 - 在N12逻辑基片上集成的HBM4,可提供比HBM3e DRAM基片高1.5倍的带宽和效率 [12] - N3P定制基片将电压从1.1V降至0.75V [12] - 通过共封装光学器件实现的硅光子技术,相比可插拔式设计,效率提升5-10倍,延迟降低10-20倍 [12] - 超高性能金属-绝缘体-金属和嵌入式深沟槽电容器技术可实现1.5倍功率密度 [15] 生产效率与综合效率提升总结 - EDA-AI工具实现EDTC插入生产效率提高10倍,基板布线生产效率提高100倍 [15] - 从N7到A14,逻辑微缩使效率提升4.2倍,内存计算(CIM)提升4.5倍,IP/设计创新贡献7-20%的效率提升 [17] - 从2.5D到3D封装,效率提升6.7倍,光子技术提升5-10倍,HBM/去耦电容技术进步提升1.5-2倍,AI将生产效率提升10-100倍 [17]
台积电1.4nm,要来了
半导体芯闻· 2025-09-25 10:21
台积电A14制程技术进展 - A14制程良率进展已超前原定进度 [1][2] - A14制程相较于N2制程速度提升最多15%、功耗降低最多30%、芯片密度增加超过20% [1] - A14制程专为AI及智能手机应用打造,具备进阶NanoFlex Pro单元架构 [1] 台积电A16制程技术进展 - A16制程整合了纳米片电晶体、超级电轨及背面接面设计 [1] - 相较于N2P制程,A16速度提升8-10%、功耗降低15-20%、芯片密度增加约1.1倍 [1] - A16制程非常适合需要复杂信号传输与稳定供电的高效能运算产品 [1] 中科1.4纳米新厂建设规划 - 中科1.4纳米新厂预计第四季动土,原预估产值4,857亿元新台币,可能提升至5,000亿元新台币 [3][4] - 中科二期扩建将建设四座1.4纳米先进制程厂,首座厂2027年风险性试产,2028年下半年量产 [4] - 新厂就业人数预计维持在4,500人左右 [4] 其他科学园区建设进展 - 竹科宝山二期2纳米厂第一期厂房办公大楼已完工,启用后将增加2,500个就业机会 [4] - 南科嘉义园区一期与楠梓园区相关厂房正在建设中 [4] 先进制程量产时间表 - 2纳米制程计划于2025年下半年量产,将导入GAA半导体架构 [5] - A16制程计划于2026年下半年导入,效能与能效将再提升约15-20% [5] - 公司持续研发更先进节点,预期在2030年前后延伸摩尔定律效益 [5] 台湾半导体产业现状 - 上半年积体电路在科学园区占比达83%,营业额年成长34.33% [4] - 半导体产业快速发展,晶圆制造、封测连结本地自有供应链比重增加 [4] - 其他产业如精密机械、工具机等正结合到半导体产业链中 [4]
百度及AI的前途
36氪· 2025-09-24 10:53
百度AI战略与搜索业务转型 - 百度搜索正经历十年来最大变化,全面AI化,支持长文本和多模态输入,但被认为仍是一种过渡状态,未完全摆脱搜索框限制 [1] - 百度文库业务定位为“一站式AI创作平台”,已开发内容操作系统和系列创作工具,团队规模达1200人,旨在消除内容创作门槛,超越流量逻辑 [1] - 公司布局AI时间早,2013年成立深度学习研究院,2017年明确AI为公司战略,但在近期百模大战中表现不突出 [20] 信息生态演变与行业竞争格局 - 互联网生态围绕信息、人与商品(服务)三类连接展开,对应BAT三巨头,算法分发模式由字节跳动异军突起,但未替代BAT原生生态,仅威胁衍生内容和直播业务 [2][8] - 搜索引擎曾通过关键字排序赋予全网信息结构,接管信息生态,但结果受SEO污染;算法分发则强化用户成见,商业成功但社会评价稍逊 [3][8] - 算法分发将人降级为信息标签,导致内容同质化、标签极化,作者配合标签生产,平台最大化流量商业模式,引发信息过载与社会对抗性议题放大 [5][6][9][10] AI产业发展挑战与技术路径 - AI产业发展严重依赖算力堆砌的资本密集路线,英伟达市值达4万亿美元,但DeepSeek通过创新架构和算法开源,将API定价大幅降低,引发行业对算力成本控制的重视 [20][22] - AI训练语料主要依赖线上公开数据,质量普遍不高,知识专业化且存在壁垒,导致AI难以处理结构化知识,输出质量受限,发展失衡 [27][28] - AI在C端应用面临通约性挑战,长文本和多模态虽具全网通约性,但进入专业领域后增长线性化,难以实现大规模网络效应 [24][28] 百度历史战略反思与未来机遇 - 百度在移动互联网时代未触及信息生态核心,App模式导致信息孤岛,削弱搜索业务;公司投资策略保守,追逐本地服务、YY等风口但成效有限 [17][18][19] - AI被视为百度同调的机会,可解决App模式缺陷,但需面对训练数据贫瘠、应用场景专业化等挑战;公司强调“模型世界应用天下”,认为应用将统治未来 [19][28][32] - 行业建议AI发展应借鉴“中层理论”,从线下业务采集高质量数据训练垂直模型,自下而上构建知识体系,而非依赖通用大模型 [36] 概念驱动与业务支撑的行业对比 - 互联网行业高概念驱动,中国业界经历业务本土化、去硅谷概念、去概念三阶段演进,2010年后“互联网思维”标志互联网下沉和业务驱动 [29] - 中美AI发展再次合流,但硅谷依赖技术舒适区和资本驱动,缺乏业务支撑;中国有业务基础,AI提供回归创新、带动经济整体的机会 [30][31] - 当前AI概念与现实脱节,资本缺乏耐心等待长期回报,气氛类似2001年纳斯达克崩盘前夜;企业需平衡概念创新与业务落地 [29][30]
芯片设备三巨头:最新观点
半导体行业观察· 2025-09-21 02:59
核心观点 - 半导体设备产业正经历由AI制程需求和地缘政治驱动的深层变革 三大设备巨头基于不同技术路线判断做出战略押注 行业竞争逻辑从纯技术导向转为技术政治复合型竞争[2] 技术路线分歧 - Applied Materials押注先进封装技术 投资15亿美元开发CoWoS技术 认为AI芯片复杂性将推动产业从2D转向3D整合[4] - KLA Corporation聚焦制程检测需求 台积电3纳米制程检测步骤比7纳米增加60% 电子束检测设备可发现10纳米以下缺陷[5] - Lam Research采取战略保留 同时关注3D NAND垂直蚀刻(深宽比超100:1)和先进逻辑3D架构 等待市场需求明朗化[6] 地缘政治影响 - Applied Materials中国营收占比从32%降至18% 每季度损失10亿美元收入 同时失去技术验证和工艺优化机会[8] - KLA面临5亿美元损失 中国晶圆厂重建检测标准体系 可能导致全球出现两套平行品质管控系统 推高研发成本[8] - Lam Research中国营收占比从32%缩减至24% 服务支援业务受严重冲击 损失未来十年持续服务收益(设备价值两倍以上)[9] AI驱动制造变革 - NVIDIA H100芯片含800亿个电晶体 采用台积电4纳米制程 异质整合要求对准精度达1微米以下[11] - AI芯片良率要求推动检测从统计抽样转向全面检测 KLA预计检测步骤将比传统芯片增加40%以上[11] - 3D电晶体制造需要原子级对准精度 Lam Research的Halo工具实现深宽比超100:1的垂直通道蚀刻[12] 产业竞争重构 - 技术领先不再是唯一胜负标准 政治风险管控能力同等重要 行业进入技术与政治并重的复合竞争阶段[13] - 中国市场技术生态链断裂正在重塑全球半导体设备产业的商业逻辑和服务模式[9] - 全球半导体设备产业面临技术标准分化风险 所有参与者的研发成本和技术复杂度都将大幅增加[8]
VLA搞到现在,可能还是情绪价值的内容偏多一些......
自动驾驶之心· 2025-09-20 16:03
端到端自动驾驶技术现状 - 学术界端到端研究呈现方法远多于问题的状态,各种流派百花齐放,只要实现传感器输入到轨迹规划输出的模型串联即符合端到端范式 [1] - 工业界端到端研发更加务实,车载算力限制将许多热门模型排除在外,但工业界拥有海量驾驶数据优势 [4] - 工业界对端到端技术的研发进度可能已领先于学术界,行业已超越依靠演示和论文证明实力的阶段,转向以量产模型表现为衡量标准 [5] 数据集与技术迭代关系 - 大模型时代数据集迭代速度需与技术迭代同步,固定数据集会阻碍技术发展,摩尔定律在算力和计算机行业均有体现 [2] - 研究团队通过发布数据集维持长期的高影响力产出,互联网海量文本数据是NLP领域大模型成功的关键因素 [3][4] - 工业界数据量达天文数字,不存在数据阻碍技术迭代的问题,反而更容易辨别学术界方法的实用价值 [4] 强化学习在VLA中的应用 - 强化学习适用于无标准答案但能定义答案特征的问题,VLA应用场景符合此特点 [7] - 模仿学习基于最大似然估计,倾向于将示范结果视为最优,而强化学习通过奖励机制定义正向和负向行为特征 [8][9] - 强化学习以奖励最大化为目标,避免错误示范干扰,节省数据采集成本,例如车辆平稳抵达+10分,压实线-10分,闯红灯-20分 [9] 视觉语言大模型发展前景 - VLA短期成果情绪价值偏多,真实控车作用尚不明确,长期串联万物成为行业共识趋势 [10][11] - 量产参考需综合算法、数据、训练策略等多重因素,包括部署难度、数据替代性、复现难度等非单一测试指标 [12] - 行业主流厂商对Large Vision-Language Model的潜力均无质疑,焦点集中于实现时间预期 [11]