Workflow
摩尔定律
icon
搜索文档
系统组装:AI服务器升级的新驱动力
东方证券· 2025-09-28 14:43
行业投资评级 - 电子行业评级为看好(维持)[5] 核心观点 - 系统组装成为AI服务器性能提升的新驱动力 替代制程工艺升级放缓的瓶颈[8] - 制程工艺升级驱动芯片性能提升 但未来升级步伐可能放缓 台积电工艺从2011年28nm升级至2025年2nm 并有望2028年升级至A14工艺(1.4nm)[8] - 先进封装成为芯片性能提升的又一驱动力 英伟达B200采用双颗裸晶合封工艺 实现单一封装集成2080亿颗晶体管 超过H100(800亿颗晶体管)两倍[8] - AI服务器GPU数量从单台8张升级至单个机柜72张 并将在2027年VR Ultra NVL576机柜中升级至144张GPU(每张封装4颗GPU裸晶 合计576颗GPU裸晶)[8] 投资建议与投资标的 - 维持推荐AI服务器系统组装相关标的:工业富联(601138 买入)、海光信息(688041 买入)、联想集团(00992 买入)、华勤技术(603296 买入)等[8] - 工业富联:GB200系列产品测试二季度较一季度大幅优化 系统级机柜调试时间显著缩短 自动化组装流程导入 预计GB200三季度出货量延续强劲增长 主要订单来自北美大型云服务商 GB300单台利润存在超过GB200潜力[8] - 海光信息:合并中科曙光 有望形成包括CPU、DCU及系统组装在内的垂直整合能力[8] - 联想集团:英伟达表示联想等合作伙伴预计从2025年下半年开始推出基于Blackwell Ultra的各类服务器[8] - 华勤技术:国内知名互联网厂商AI服务器核心ODM供应商 交换机、AI服务器、通用服务器等全栈式出货 受益下游云厂资本开支扩张[8] 市场背景与趋势 - AI服务器市场保持增长 硬件升级正当其时[7] - AI算力设施需求驱动 SiC/GaN打开成长空间[7] - AI算力浪涌 PCB加速升级[7]
通用计算时代已经结束,黄仁勋深度访谈,首次揭秘投资OpenAI的原因
36氪· 2025-09-28 07:37
AI计算需求与增长动力 - AI计算需求正经历双重指数级复合增长:AI用户使用量呈指数级爆发,同时AI推理方式从简单一次性回答升级为复杂"思考"过程,导致每次使用所需计算量呈指数级增长,预计将带来10亿倍的推理需求增长 [2][4][11] - AI基础设施市场当前年规模约为4000亿美元,未来总体潜在市场规模有望增长至少10倍 [2][6][22] - AI推理收入占比已超过40%,且由于思维链出现,推理即将迎来爆发式增长 [10] AI工业革命与市场转型 - AI基础设施建设被视为一场工业革命,全球数万亿美元现有计算基础设施(包括搜索、推荐引擎、数据处理等)正从使用CPU迁移至AI加速计算 [2][6][19] - 通用计算时代已经结束,未来属于加速计算和AI计算,这一转型涉及数万亿美元规模的市场机会 [19][20][24] - 传统数据处理(结构化与非结构化)目前绝大多数仍在CPU上运行,未来将全部迁移至AI,这是一个庞大且尚未被充分开发的市场 [31] OpenAI合作与投资逻辑 - OpenAI有望成为下一家万亿美元级超大规模公司,将同时提供消费级和企业级服务 [3][5][14] - 对OpenAI的1000亿美元投资被视为"能想象到的最明智投资之一",投资逻辑基于对其成为下一代超大规模公司的预期 [3][5][14] - 合作涵盖多个层面:加速Microsoft Azure构建、Oracle Cloud Infrastructure构建,以及直接帮助OpenAI首次自建AI基础设施(涉及芯片、软件、系统和AI工厂) [15][16] NVIDIA竞争优势与战略 - 采用"极致协同设计"战略,在算法、模型、系统、软件、网络、芯片等整个堆栈上进行同步创新和优化,构建强大竞争壁垒 [3][8][36] - 通过全栈设计实现性能飞跃(例如Hopper到Blackwell性能提升30倍),这种深度优化使单位能耗性能达到最优,即使竞争对手芯片免费,客户因机会成本过高仍会选择NVIDIA系统 [3][8][49] - 年度发布周期(如2024年Blackwell、2026年Vera Rubin、2027年Ultra、2028年Feynman)使竞争对手难以跟上,供应链锁定效应显著增强 [35][36][39] 行业前景与华尔街预期 - 华尔街分析师预测公司增长将在2027年趋于停滞(8%增长),但公司认为市场上的计算资源仍处于短缺状态,供应过剩可能性极低 [7][18][29] - 直到所有通用计算转换为加速计算、所有推荐引擎基于AI、所有内容生成由AI驱动,供给过剩情况才可能发生 [7][28] - AI驱动收入预计将从2026年的1000亿美元增长至2030年的1万亿美元,增长动力来自现有超大规模计算基础设施的AI转型和新应用场景的爆发 [24][27][28] 技术演进与系统复杂度 - 摩尔定律失效导致晶体管成本和能耗不再有显著改进,传统计算无法继续提供必要性能提升,必须通过系统级创新实现性能跨越 [2][8][36] - AI工厂是极其复杂的系统,涉及芯片、软件、网络、电力等多维度协同,目前没有任何公司能跟上NVIDIA的产能和研发节奏 [38][39][52] - 公司定位从芯片公司转变为AI基础设施合作伙伴,提供从芯片到系统的全方位解决方案,这种定位转变扩大了市场机会和客户合作范围 [3][52]
黄仁勋最新访谈:AI泡沫?不存在的
虎嗅APP· 2025-09-28 00:34
以下文章来源于明亮公司 ,作者主编24小时在线 本文来自微信公众号: 明亮公司 ,作者:MD,原文标题:《黄仁勋最新访谈:英伟达投资OpenAI 不是签署大额订单的前提》,题图来自:视觉中国 近期,英伟达 (NVDA.US) 投资"出手"频繁,先是宣布50亿美元投资英特尔,随后斥资至多1000 亿美元投资OpenAI,而受此前OpenAI与甲骨文的合作,市场均在股价层面给予了积极反馈。 但市场也出现了质疑声音——称英伟达、OpenAI与甲骨文存在"收入循环",财务数字"操作"大于实 际营收。 9月25日,在播客BG2最新一期节目中,BG2主播、Altimeter Capital创始人Brad Gerstner, Altimeter Capital合伙人Clark Tang与英伟达CEO黄仁勋展开了一次对话。黄仁勋在对话中回应了当 下市场关心的问题。 黄仁勋认为,投资OpenAI实际上是一个很好的机会,并认为OpenAI将是下一家数万亿美元级别的 Hyperscaler。 此外,黄仁勋也特别解释了为什么ASIC芯片并不完全和英伟达GPU是竞争关系——因为英伟达是AI 基础设施提供商,其提供的能力范围已经不仅仅是 ...
2nm后的晶体管,20年前就预言了
半导体行业观察· 2025-09-27 01:38
公众号记得加星标⭐️,第一时间看推送不会错过。 编者按: 随着芯片制造工艺来到了2nm后,GAA晶体管开始逐渐进入主流。到翻看这个技术的发 展,最早在2006年就有相关研究发布。当中论文的参与者还有一个华人。 在本文中,我们回顾一下20年前是如何看待这个晶体管的。 早期研究展示了下一代晶体管设计的新方法 随着微电子行业开始在下一代智能手机中采用环栅晶体管设计,劳伦斯伯克利国家实验室(伯克利 实验室)近 20 年前的开创性研究展示了一种创建这些先进结构的创新方法。 这项名为"环栅场效应晶体管"(GAA-FET)的技术代表着一项关键的架构进步,有望将数十亿个 晶体管封装到智能手机和笔记本电脑的微型芯片中。"环栅"设计增强了对晶体管沟道的控制,从而 提高了性能并降低了功耗。虽然目前业界仍在通过传统的自上而下的制造方式来实现GAA-FET, 但伯克利实验室早期的自下而上方法展示了这种几何结构利用化学合成实现这些复杂结构的潜力。 图示:在环栅 (GAA) 结构(右图)中,栅极环绕纳米级硅通道的四边,纳米级硅通道以三条灰色纳米线 与黄金矩形相交的形式呈现。这些通道是电流的通道。在鳍式场效应晶体管 (FinFET) 结构( ...
双“英”恩仇:英特尔和英伟达的三十年
经济观察网· 2025-09-26 16:50
153 虽然黄仁勋本人只是轻描淡写地用一句"英伟达很高兴成为英特尔的股东"来概括这一事件,但只要是对 芯片行业有所关注的人都知道,这次芯片界两大巨擘在历经三十年恩怨情仇后的惊人握手,绝不会只是 一场简简单单的交易。它不仅会震动华尔街的股市曲线,更会在全球科技圈掀起巨大的波澜。 英特尔和英伟达,一个在PC时代铸就了庞大的帝国,将"Intel In-side"的印记深深植入亿万用户的内 心;另一个则在像素与帧数的洪流中崛起,用精湛的图形处理技术点亮了虚拟世界。为了争夺芯片市场 的主导权,它们曾互为敌手二十余年。如今它们放下恩怨,很可能会带来整个芯片行业的一场重大洗 牌。在这个节点上,重新回望双"英"之间多年的博弈,或许可以帮助我们更好地看懂芯片行业的过去、 现在和未来。 陈永伟 北京时间9月19日凌晨,英伟达创始人黄仁勋与英特尔首席执行官陈立武共同召开了一场线上发布会。 会上,黄仁勋宣布了一个爆炸性的消息:英伟达将向老对手英特尔注资50亿美元,并与其携手开发革命 性的"Intel x86 with RTX"芯片。 一、起初的岁月静好 1992年底,加州圣何塞市丹尼餐厅的服务生发现,有三位年轻工程师三天两头来店里。 ...
台积电分享在封装的创新
半导体行业观察· 2025-09-26 01:11
公众号记得加星标⭐️,第一时间看推送不会错过。 来源 : 内容 编译自 semiwiki 。 在日前的TSMC OIP生态论坛上,台积公司资深院士兼研发/设计与技术平台副总裁Dr. LC Lu在一个 演讲中指出,人工智能的普及推动了电力需求的指数级增长。从超大规模数据中心到边缘设备,人工 智能正渗透到各个领域,为日常生活中的各种新应用注入新的活力。 这些不断发展的模型,包括具身人工智能、思维链推理和代理系统,需要更大的数据集、更复杂的计 算和更长的处理时间。这种激增导致人工智能加速器在五年内每封装功耗增加了3倍,部署规模在三 年内增加了8倍,因此能源效率对于人工智能的可持续增长至关重要。 对此,台积电把战略重点放在先进逻辑和3D封装创新,并结合生态系统协作,以应对这一挑战。从 逻辑微缩开始,台积电的路线图非常稳健:N2将于2025年下半年投入量产,N2P计划于明年投入量 产,A16将于2026年底实现背面供电,A14则进展顺利。 至于N3 和 N5 的增强功能持续提升价值。从 N7 到 A14,等功率下的速度提升了 1.8 倍,而功率效 率提升了 4.2 倍,每个节点的功耗比上一代降低约 30%。A16 的后 ...
台积电1.4nm,要来了
半导体芯闻· 2025-09-25 10:21
如果您希望可以时常见面,欢迎标星收藏哦~ 来源:内容来自半导体芯闻综合。 市场传出,台积电相当于1.4纳米的「A14」制程的良率进展已经超前。根据The Futurum Group 半 导 体 分 析 师 Ray Wang 透 过 社 交 平 台 X 公 布 的 讯 息 , 台 积 电 A14 制 程 的 「 良 率 表 现 」 (yield performance)进展已经超前。 根 据 Wang 提 供 的 讯 息 , 台 积 电 A16 制 程 整 合 了 片 电 晶 体 、 超 级 电 轨 (SPR) 及 创 新 的 背 面 接 面 (backside contact)设计,相较于N2P制程,A16的速度提升8~10%、功耗降低15~20%,芯片密度 增加约1.1倍,非常适合用于需要复杂讯号传输、稳定供电的高效能运算(HPC)产品。 相较之下,A14完整接续N2制程,专为AI及智能型手机应用量身打造,具备进阶的NanoFlex Pro 单元架构。 吴诚文解释,一是过去台湾半导体产业多仰赖国外,但现在晶圆制造、封测连结本地自有供应链比 重增加,尤其三大园区有些厂商过去不在供应链中,但半导体业发展快速、且 ...
百度及AI的前途
36氪· 2025-09-24 10:53
近来百度搜索全面AI化,作为核心业务,内部称大搜,确如百度AI Day上所称,为十年来最大变化。 然而众所周知,搜索的关键字零散,隐约指向用户的问题,而AI预期的Agent模式,能够辅助执行完整的任务,差距不可以道里计,大约不会受 制于搜索框。尽管此次改版扩框,支持长文本和多模态输入,恐怕仍不够激进,是一种过渡状态。 同期百度文库网盘业务发力,虎嗅商业消费组做了采访,《百度暗藏一支1200人的劲旅》,这标题略抽象,仿佛在说司马懿图谋造反。文库的野 望是做"一站式AI创作平台",已经开发内容操作系统和系列创作工具。 或许后者更具想象空间。当下号称自媒体UGC(用户生成内容),仍遵循媒体逻辑,将用户区分为受众和作者,这是因为内容制作仍有一定门槛, 而字节始作俑的算法分发模式,让流量变现闭环。内容生产没有质量,也有数量。若能更进一步,完全消除门槛,且创新分享方式,突出内容本 身的逻辑,超越流量,那不啻于一场内容革命。 AI的序幕刚刚拉开,判断具体业务成败还为时过早,不妨先回顾产业史,确认真问题。互联网连接万物,连接的对象和方式,可分为信息,人与 商品(服务)三类,要满足用户简单的需求,供给端并不简单,构成纷繁的生态 ...
芯片设备三巨头:最新观点
半导体行业观察· 2025-09-21 02:59
核心观点 - 半导体设备产业正经历由AI制程需求和地缘政治驱动的深层变革 三大设备巨头基于不同技术路线判断做出战略押注 行业竞争逻辑从纯技术导向转为技术政治复合型竞争[2] 技术路线分歧 - Applied Materials押注先进封装技术 投资15亿美元开发CoWoS技术 认为AI芯片复杂性将推动产业从2D转向3D整合[4] - KLA Corporation聚焦制程检测需求 台积电3纳米制程检测步骤比7纳米增加60% 电子束检测设备可发现10纳米以下缺陷[5] - Lam Research采取战略保留 同时关注3D NAND垂直蚀刻(深宽比超100:1)和先进逻辑3D架构 等待市场需求明朗化[6] 地缘政治影响 - Applied Materials中国营收占比从32%降至18% 每季度损失10亿美元收入 同时失去技术验证和工艺优化机会[8] - KLA面临5亿美元损失 中国晶圆厂重建检测标准体系 可能导致全球出现两套平行品质管控系统 推高研发成本[8] - Lam Research中国营收占比从32%缩减至24% 服务支援业务受严重冲击 损失未来十年持续服务收益(设备价值两倍以上)[9] AI驱动制造变革 - NVIDIA H100芯片含800亿个电晶体 采用台积电4纳米制程 异质整合要求对准精度达1微米以下[11] - AI芯片良率要求推动检测从统计抽样转向全面检测 KLA预计检测步骤将比传统芯片增加40%以上[11] - 3D电晶体制造需要原子级对准精度 Lam Research的Halo工具实现深宽比超100:1的垂直通道蚀刻[12] 产业竞争重构 - 技术领先不再是唯一胜负标准 政治风险管控能力同等重要 行业进入技术与政治并重的复合竞争阶段[13] - 中国市场技术生态链断裂正在重塑全球半导体设备产业的商业逻辑和服务模式[9] - 全球半导体设备产业面临技术标准分化风险 所有参与者的研发成本和技术复杂度都将大幅增加[8]
VLA搞到现在,可能还是情绪价值的内容偏多一些......
自动驾驶之心· 2025-09-20 16:03
摩尔定律不仅体现在芯片算力上,也体现在整个计算机行业。一旦数据集固定下来,以现在的AI技术和庞大算 力,其测试指标的收敛速度也会越来越快。 这两天和星球大佬聊了下关于端到端和VLA的看法,感受颇深,分享给大家: 关于端到端的讨论 学术界的端到端现在是遍地开花的状态,什么流派都有,毕竟【端到端】只是一个范式,你只要实现用一个模型 把传感器输入和轨迹规划的输出串起来,这就是端到端。 所以做什么的都有。 但是,AI进入大模型时代后,相信大家都有一个共识,那就是数据集的迭代速度一定不能比技术迭代慢太多, 技术日新月异的时候,如果数据集反反复复还是那几个,那么毫无疑问数据集一定会阻碍技术的迭代。 所以才有一些研究团队在发论文的同时发布一个数据集,这样可以保持很长一段时间的高impact输出。 学术界的端到端现在处在方法远比问题多的状态。 工业界的端到端更加务实,车上的算力限制就能把相当一部分热门模型拒之门外。但是, 工业界最得天独厚的 优势就是有海量的数据,这给模型研发提供了无限可能。 要知道,chatgpt的成功很大程度上归功于互联网给了我们收集海量数据的机会。为什么超大规模transformer模型 率先在NLP领 ...