Workflow
半导体行业观察
icon
搜索文档
反潮流的TSV
半导体行业观察· 2025-12-10 01:50
文章核心观点 - 半导体技术发展的瓶颈已从晶体管微缩转向互连,先进封装成为新的前沿领域 [2] - 硅中介层和硅通孔是实现高密度2.5D/3D集成的关键技术,能显著提升带宽和系统性能 [2][4] - 下一代发展趋势是采用更大尺寸的硅通孔,其直径可达50μm,深度可达300μm,以应对高性能计算、人工智能等领域对电气性能、散热和制造良率的更高要求 [2][11][16] 互连技术演进历程 - 互连技术从20世纪标准的引线键合,发展到倒装芯片封装,再到21世纪初出现的硅中介层 [4] - 硅中介层提供了重分布层用于细间距布线、密集型硅通孔阵列用于垂直集成,成为高性能集成的平台 [4] - 硅中介层和硅通孔的创新推动了如Xilinx FPGA Virtex 7、GPU和AI加速器等突破性技术的出现 [4] 硅中介层的功能与材料 - 中介层是连接硅芯片和印刷电路板的中间层,为异构集成组件中的芯片提供安装表面、连接和重新连接到封装基板的功能 [6] - 中介层通常由硅、玻璃或有机衬底制成,完全由代工厂制造,台积电是主要供应商 [7] - 硅中介层的一个主要应用是将高带宽内存连接到高速处理器,单个HBM传输速率最高可达256 GB/s,多个HBM与GPU集成可实现1TB/s或更高的数据传输速率 [7] 更大尺寸硅通孔的优势与驱动 - 传统硅通孔直径通常为5-10μm,深度为50-100μm,正向下一代直径可达50μm、深度可达300μm的硅通孔过渡 [11] - 更大尺寸硅通孔的优势包括:支持更高的数据速率和信号并行传输、承载更大电流且电阻更低、降低电感以增强高频信号完整性、更有效地散热、简化制造工艺提高良率、使更厚的中介层更坚固耐用 [11][15] - 小型硅通孔难以满足人工智能、高性能计算、5G基础设施及汽车电子等领域对电流、散热、带宽和信号完整性的高要求 [11][16] 更大尺寸硅通孔的挑战与应用 - 更大硅通孔的挑战包括:铜和硅热膨胀系数不匹配加剧机械应力、减少中介层上的可用布线空间、因使用更多铜而增加材料成本 [13] - 预计更大尺寸硅通孔将应用于需要海量带宽和可靠电源的高性能计算服务器和百亿亿次级超级计算机、训练大型AI神经网络所需的超高速HBM链路、需要信号完整性的5G基础设施系统,以及需要坚固封装和可靠散热的汽车高级驾驶辅助系统和自动驾驶系统 [16] - 未来中介层将向集成更多功能与材料、采用对抗应力的新材料、嵌入先进冷却技术以及实现成本缩放以应用于消费电子等方向演进 [16]
H200获批出口中国,英伟达GPU:迎来新争议
半导体行业观察· 2025-12-09 01:50
美国政府拟批准英伟达对华出口H200芯片 - 美国政府计划允许英伟达向中国出口其H200 AI芯片,此举被视为在维持其中国市场准入与限制中国AI发展之间的一种折衷方案 [2] - 该决定是在美国总统特朗普与英伟达CEO黄仁勋会晤后做出的,部分官员支持该方案,认为其能让英伟达与中国公司竞争,同时避免中国在AI领域超越美国 [2] - H200芯片的性能据智库估计几乎是此前获准对华销售的H20芯片的六倍,但仍低于英伟达顶级的Blackwell及未来的Rubin系列芯片,后两者仍在限制名单内 [2][3] - 此举可能为英伟达带来数以十亿美元计的销售额,并缓解中国科技巨头获取顶级AI训练芯片的困难 [4] - 英伟达CEO黄仁勋强调中国市场对公司的未来至关重要,因其拥有世界顶尖的AI研究人员和巨大的需求规模,并表示“你无法取代中国” [4] 市场对英伟达Blackwell GPU出货量的质疑 - 有博主对英伟达CEO黄仁勋关于已出货600万块Blackwell GPU的说法提出质疑,认为其与公司财务数据不符 [5][6] - 黄仁勋在2025年10月表示,过去四个季度已出货600万块Blackwell GPU,并预计Blackwell及Rubin系列总销售额将达5000亿美元 [6] - 质疑点在于:自Blackwell发布以来,英伟达报告的数据中心收入为1110亿美元,博主计算这仅对应约250万到350万颗Blackwell芯片,与600万的总出货量存在巨大缺口 [6][8] - 即使加上英伟达在2024年第四季度报告的超过100亿美元的Blackwell收入,博主估算总出货量也仅接近400万块,仍不匹配 [8] - 博主进一步从能源消耗角度分析,指出要为美国数据中心中约390万到420万块Blackwell GPU供电,需要约85到110吉瓦的电力容量,而美国2024-2025年新建数据中心容量合计仅约8.5吉瓦,存在巨大差距 [10][11] 关于AI芯片会计处理与折旧的争议 - 知名投资者迈克尔·伯里对AI芯片的会计处理方式提出质疑,核心观点在于AI硬件更新换代速度过快,其折旧年限可能被高估 [14][15] - 伯里认为,购买先进GPU的公司通常按年折旧,较长的折旧周期(如5-6年)会降低短期账面成本、虚增利润,而更合理的经济使用寿命可能接近三年 [15][16] - 这种会计差异可能导致AI采用者的实际投资回报率低于表面值,并可能在2026年至2028年期间引发资产减值或采购热情下降 [16] - 争议还涉及“供应商融资”模式,即怀疑AI生态系统中可能存在人为制造需求的激励机制,但英伟达对此予以坚决否认 [16][17] - 《华尔街日报》也报道了这场关于AI芯片折旧速度的会计风波,指出Meta、Alphabet、微软和亚马逊等科技巨头近年来均延长了服务器等资产的折旧年限 [18][19] - 例如,Meta将其服务器和网络资产的预计使用寿命从2020年的3年延长至2025年的5.5年,此举使其2025年前九个月的折旧费用减少了23亿美元 [18] - 报道指出,直线折旧法可能无法反映AI芯片价值早期急剧下降的经济现实,加速折旧法或许更为合适,但最终差异可能不会太大 [22] - 会计折旧是基于估计和假设的人为构建概念,精确性罕见,但折旧方法的争议本身不会改变AI投资最终是否被浪费的结果 [23]
Marvell股价暴跌
半导体行业观察· 2025-12-09 01:50
文章核心观点 - 华尔街对迈威尔科技(Marvell Technology)的竞争地位转趋悲观,主要担忧其可能失去亚马逊(Amazon)关键客制化芯片设计订单,导致股价下跌,但公司长期数据中心业务增长前景仍受关注 [2][3][4] 分析师评级与市场反应 - Benchmark分析师Cody Acree将迈威尔股票评级由买进下调至持有,理由是高度确信公司已失去亚马逊Trainium 3和Trainium 4设计案,相关订单可能转向台湾的世芯(Alchip) [2] - 降评导致迈威尔股价在周一(8日)下跌6.99% [2] - Acree建议投资人在公司上周公布财报后股价表现异常亮眼的情况下先行获利了结,认为市场对公司近期释放的亚马逊稳定讯号过度乐观且误判 [2] 亚马逊业务风险分析 - 亚马逊是迈威尔XPU(客制化芯片)业务的最大客户 [3] - 分析师认为,迈威尔对亚马逊年度营收增长的指引主要依赖Trainium 2的持续出货以及Kuiper低轨卫星计划,而非市场普遍认为已顺利转换到Trainium 3的设计 [3] - 亚马逊与世芯合作,是希望在即将到来的芯片专案中采取更具成本效益的设计、晶圆代工与后端支援模式 [2] - 亚马逊将为Trainium 3与4采用Synopsys的SerDes技术,这将进一步削弱迈威尔的相关业务 [3] - Trainium 2明年的出货量可能仍足以支持迈威尔的短期展望,因为客户目前仍在评估Trainium 3的气冷版本,而其液冷版本至少要到2026年中才会推出 [3] 公司长期展望与新客户潜力 - 迈威尔预期其XPU业务将在2028财年迎来重新加速,来自一位新崛起的超大规模云端客户,该项目将在后续年度逐步增量 [4] - 迈威尔首席执行官Matt Murphy表示,公司2028财年的数据中心营收可能会较前一年明显加速 [4] - TD Cowen分析师Joshua Buchalter与其他分析师认为,迈威尔的新客户可能是微软,用于该公司的Maia AI加速器 [4] - 收购Celestial AI,加上对2028年的展望,为多头提供了不少可以引用的利多论点 [4] 竞争环境与不确定性 - 《The Information》周五报导,微软正考虑由博通(Broadcom)作为可能的芯片设计合作伙伴,这进一步拖累了迈威尔周一的股价 [4] - 尽管长期展望正面,但分析师指出迈威尔在明年下半年仍有很多需要证明的地方,届时部分芯片项目将开始加速生产 [4]
这些芯片,面临涨价潮
半导体行业观察· 2025-12-09 01:50
文章核心观点 - 全球科技巨头在AI基础设施领域的激烈投资竞争,正对个人电脑的内存配置产生重大影响,特别是内存封装技术[2] - 内存封装技术虽具性能优势,但随高性能内存需求增长,其成本和采购负担已超过收益,预计将对苹果和高通等采用该技术的公司产生重大影响[2][5] - 内存价格上涨和供应短缺预计将影响采用封装内存技术的处理器,可能导致相关PC出货量下降和产品价格上涨[4][5] 内存封装技术发展现状 - 内存封装技术将存储器与CPU或SoC紧密集成,相比传统分离方法,具有降低延迟、提高带宽及缩小主板尺寸以优化笔记本电脑内部空间的优势[2] - 苹果公司在2020年推出的自研M系列芯片中推广了该技术[3] - 英特尔为提高电池续航和速度,在去年发布的Core Ultra 200V处理器中也采用了相同架构,集成了基于tile的SoC和采用EMIB技术的LPDDR5X内存,提供16GB到32GB的内存容量[3] - 高通计划在明年发布的下一代PC处理器骁龙X2 Elite Extreme中采用同样方法,将高达128GB的LPDDR5X内存集成到同一SoC封装,提供228GB/s的极高带宽和低延迟[3] 内存封装技术的挑战与转变 - 内存封装技术存在缺点,处理器制造商从三星、SK海力士和美光等供应商处购买和集成内存会增加成本[3] - 处理器制造商在内存供应价格上的议价能力不如PC制造商[4] - 决定电脑内存容量和运行速度的权力从电脑制造商转移到了处理器制造商,例如Core Ultra 200V最大内存容量限制为32GB[4] - 英特尔前任首席执行官表示Core Ultra 200V是一次性产品,未来产品不会集成内存[4] - 英特尔下一代酷睿Ultra系列3处理器将内存和处理器SoC分离,使PC制造商重新掌控内存容量和速度[4] 内存市场变化对行业的影响 - 今年下半年开始出现的内存和闪存供需问题预计将对采用封装内存技术的处理器产生重大影响[5] - 内存价格上涨和供应短缺可能导致搭载高通骁龙X2 Elite Extreme处理器的PC出货量下降[5] - 高通在2021-2022年左右完成该处理器内存I/O架构开发时,LPDDR5X内存供应价格预期不高,但当前供应价格和数量均不理想[5] - 苹果公司去年下半年将PC标准内存容量从8GB提升至16GB,预计面临巨大成本压力,计划明年发布的新PC产品价格势必大幅上涨[5]
给HBF泼盆冷水
半导体行业观察· 2025-12-09 01:50
高带宽闪存(HBF)技术概述 - 高带宽闪存(HBF)技术正由闪迪和SK海力士推广和标准化,被视为GPU本地高带宽内存(HBM)的补充[2] - 英伟达作为最大的HBM买家和HBF重要潜在用户,尚未就HBF发表公开评论[2] HBF技术面临的挑战 - HBF面临三大障碍:GPU加速器工作温度高于NAND闪存耐久性;TLC和QLC NAND闪存的写入耐久性远不及DRAM,限制堆栈寿命;不同类型NAND闪存兼容性差,导致控制器供应商难以找到足够大的HBF控制器市场[2] 行业专家观点与市场展望 - 被誉为“HBM之父”的金正浩教授认为,在AI时代权力平衡正从GPU转向内存,内存角色愈发重要[4] - 金正浩预测HBF技术将在2026年初取得新进展,并在2027至2028年间正式亮相[4] - 在AI推理时代,内存容量至关重要,优化内存使用成为决定性能的关键因素,HBF被视为克服AI集群存储容量瓶颈的关键技术[4] - 金正浩认为HBF将与HBM一起成为下一代重要的内存技术,推动半导体制造商增长[4] - 金正浩大胆预测“HBM时代即将结束,HBF时代即将到来”[6] HBF技术原理与开发进展 - HBF与HBM概念相似,均利用硅通孔技术垂直堆叠芯片,但HBF采用NAND闪存,因此容量更大、成本更低[5] - 2025年8月,闪迪和SK海力士签署谅解备忘录,共同制定HBF技术规范并推动标准化,目标是在2026年下半年发布样品,预计首批采用HBF的AI推理系统于2027年初亮相[5] - 在2025年10月中旬的OCP全球峰会上,SK海力士发布了包含采用HBF技术的AIN B系列在内的全新“AIN系列”存储产品[5] - 三星电子已开始对其自主研发的HBF产品进行早期概念设计,计划利用其在类似高性能存储技术领域的研发经验来满足数据中心需求,但项目仍处早期阶段,详细规格和量产时间表未定[5] HBF在AI架构中的角色与未来愿景 - NAND闪存速度比DRAM慢,但容量是其十倍以上,通过堆叠数百甚至数千层,HBF可满足AI模型的海量存储需求,成为基于NAND闪存的HBM替代品[6] - 金正浩设想未来AI架构将采用多层内存层次结构:GPU内部SRAM如同桌面笔记本电脑,速度最快但容量最小;HBM如同附近书架,提供快速访问和计算;HBF如同地下图书馆,存储深层AI知识并持续向HBM提供数据;云存储则如同公共图书馆,通过光纤网络连接各数据中心[6] - 金正浩预见GPU将以互补配置集成HBM和HBF,标志着AI计算和内存融合的新时代[6]
苹果芯片负责人,否认离职
半导体行业观察· 2025-12-09 01:50
核心高管动态 - 苹果芯片负责人约翰尼·斯鲁吉通过内部备忘录明确表示,他热爱在苹果的工作,且近期没有离职计划,直接回应了彭博社关于其考虑离职的报道 [2] - 彭博社此前报道称,斯鲁吉已告知首席执行官蒂姆·库克,他正在认真考虑在不久的将来离职,若离职将加入另一家公司 [4][5] - 为挽留斯鲁吉,公司正提供丰厚的薪酬待遇和更大的责任机会,部分高管建议提拔其担任首席技术官,这将使其成为公司第二号人物 [5] 近期高管离职潮 - 过去几周内,公司出现多位高管离职,包括人工智能负责人约翰·詹南德里亚、用户界面设计主管艾伦·戴伊(将加入Meta)、总法律顾问凯特·亚当斯、环境、政策和社会事务副总裁丽莎·杰克逊 [3] - 首席运营官杰夫·威廉姆斯于今年秋季退休,此前首席财务官卢卡·梅斯特里也已离职 [3][4] - 有传言称首席执行官蒂姆·库克可能最早在明年卸任,转任董事长一职 [4][5] 关键人才流失 - 公司硬件设计团队“几乎全军覆没”,许多员工离职跳槽到其他公司,或追随前设计总监乔纳森·艾维加入其工作室LoveFrom [7] - 人工智能部门内部出现“更广泛的崩溃”,已有十几位顶尖的人工智能研究人员离职,包括人工智能模型负责人庞若明及其同事、Siri和搜索主管罗比·沃克及其继任者杨克(跳槽至Meta)、人工智能机器人软件团队负责人张健(加入Meta) [6] - 硬件工程方面,负责显示技术的关键总监程晨(负责Vision Pro头显光学系统)和一位高级硬件工程主管唐坦均已加入OpenAI [7] - 公司甚至失去了旨在维护公司运营模式和文化的内部项目——苹果大学的院长理查德·洛克 [7] 公司面临的挑战与应对 - 彭博社指出,所有人员离职累积起来,使得公司正经历“库克任期内最动荡的时期之一”,部分人员流失“令人深感担忧” [5] - 人员流失部分原因是资深高管接近退休年龄,但公司目前仍面临“令人不安的人才流失” [5] - 公司十年来都没有成功推出过新的产品类别,这使得其容易被更灵活的竞争对手挖走人才,这些竞争对手被认为更有能力开发下一代设备和人工智能技术 [5] - 公司高层已关注到人员流失问题,并指示人力资源部门加大招聘和留住人才的力度 [7]
Naveen再创业,搞了颗模拟AI芯片
半导体行业观察· 2025-12-09 01:50
公司概况与融资 - 连续创业家Naveen Rao联合创办了致力于开发新型模拟芯片的人工智能公司Unconventional AI [2] - 公司联合创始人包括麻省理工学院副教授Michael Carbin、斯坦福大学助理教授Sara Achour和前谷歌工程师MeeLan Lee [2] - 公司于2024年9月首次曝光,并于两个月后正式宣布已筹集4.75亿美元的种子资金,公司估值达到45亿美元 [2] - 公司获得了Andreessen Horowitz的投资,并计划筹集10亿美元资金 [2] 创业背景与核心问题 - 创始人Naveen Rao曾于2023年以13亿美元的价格将其AI初创公司Mosaic ML出售给Databricks,并于2016年以约4亿美元的价格将Nervana Systems出售给英特尔 [3] - 公司旨在解决的核心问题是:使用传统数字计算机扩展当今基于神经网络的人工智能工作负载效率相对较低,且消耗大量电力 [3] - 联合创始人认为,按照目前的增长速度,世界上的能源无法支撑人工智能工作负载的进一步增长 [3] 技术愿景与路径 - 公司致力于开发“一种更高效的人工智能专用计算基础”,目标是开发“与硅的固有物理特性相匹配的软件接口”,以实现“生物尺度的能源效率” [3] - 技术愿景的参照物是人脑,其处理数据所需的能量预算约为20瓦,相当于一个昏暗灯泡的亮度 [3] - 公司认为模拟计算本质上比数字计算更高效,计划利用底层介质的物理特性来进行计算 [4] - 公司计划用五年时间研发一款新的模拟芯片,并将与台积电合作,其首款原型芯片“很可能是迄今为止人们制造过的最大的模拟芯片之一” [6] 技术理念与差异化 - 公司认为早期基于真空管的模拟计算机(如ENIAC)效率很高,但由于制造工艺的不稳定性而无法扩大规模,导致数字计算机占据主导 [3] - 创始人指出,数字计算机基于经典的冯·诺依曼架构,如今又面临着与功耗相关的扩展性问题 [3][4] - 创始人认为,智能(如神经网络)本质上是随机且分布式的,用高度精确和确定性的数字技术来处理它可能并非最佳方式 [6] - 公司相信可以在电路中找到合适的同构模型来支持智能,其方法类似于用风洞模拟物理问题,而非完全依赖计算流体动力学 [6] 团队与研发挑战 - 公司需要招募理解能量模型、流动模型、梯度下降等不同方法的工程师,以及能够思考如何构建耦合系统并将其与神经网络联系起来的理论家 [7] - 研发挑战涉及弥合理论与实际系统架构、模拟/数字电路开发之间的差距 [7] 行业动态与竞争 - 并非唯一研发模拟计算机芯片的企业,例如Mythic公司自2020年起研发模拟处理器,其MM1076芯片声称性能比传统CPU、GPU和TPU高出一个数量级,并应用于边缘AI场景 [7] - 2024年10月,一组中国研究人员研制出一种基于电阻式随机存取存储器(RRAM)技术的模拟芯片,声称其性能比英伟达GPU高出1000倍,同时能耗降低100倍 [8] - 该中国团队的研究成果发表在《自然》杂志上,其模拟矩阵计算(AMC)系统能够一步解决矩阵运算问题,无需迭代,有助于克服冯·诺依曼瓶颈 [8]
联电官宣,发力硅光
半导体行业观察· 2025-12-09 01:50
公司战略与技术布局 - 联电宣布与比利时微电子研究中心签署技术授权协议,取得imec iSiPP300硅光子制程,该制程具备共封装光学相容性 [2] - 通过授权合作,联电将推出12吋硅光子平台,瞄准下世代高速连接应用市场 [2] - 联电将结合imec经验证的12吋硅光子制程技术与自身绝缘层上覆硅晶圆制程,为客户提供高度可扩展的光子芯片平台 [2] - 联电正与多家新客户合作,预计在此平台上提供用于光收发器的光子芯片,并于2026及2027年展开风险试产 [2] 行业趋势与技术驱动 - AI数据负载日益增加,传统铜互连面临瓶颈,硅光子技术以光传输数据,成为数据中心、高效能运算及网路基础设施在超高频宽、低延迟及高能源效率的解决方案 [2] - 联电未来系统架构将朝CPO与光学I/O等更高整合度的方向迈进,提供资料中心内部及跨数据中心需要的高频宽、低能耗且高度可扩展的光互连应用解决方案 [2] 技术细节与平台优势 - imec的iSiPP300平台具备精巧且高效能的元件,包括微环型调变器,以及锗硅电致吸收调变器,搭配多样化低损耗光纤介面及3D封装模组 [3] - 与联电的合作有助扩大硅光子解决方案市场,加速下世代运算系统的导入 [3]
摩尔线程首届MDC大会,新一代GPU架构即将揭晓
半导体行业观察· 2025-12-09 01:50
大会概况 - 摩尔线程将于2025年12月19日至20日在北京中关村国际创新中心举办首届MUSA开发者大会(MDC 2025)[1] - 大会是国内首个聚焦全功能GPU的开发者盛会,核心理念为“创造、链接、汇聚”,旨在汇聚全球AI与GPU领域开发者,共同探索国产算力突破路径[1] - 大会是公司MUSA技术体系与全栈能力的集中呈现,致力于打造连接技术创新、开发者共创与产业应用的战略平台[1] 主论坛内容 - 主论坛将聚焦智能算力,公司创始人、董事长兼CEO张建中将首次系统阐述以MUSA为核心的全栈发展战略与未来愿景[3] - 主论坛将重磅发布新一代GPU架构,并推出涵盖产品体系、核心技术及行业解决方案的完整布局[3] - 演讲将分享公司在AI计算、图形渲染、科学计算及多场景融合中的落地实践、生态进展与前瞻思考[3] 技术专场与开发者赋能 - 大会设立超过20场技术分论坛,议题覆盖智能计算、图形计算、科学计算、AI基础设施、端侧智能、具身智能、开发者工具与平台等关键领域[5] - 大会将设立“摩尔学院”,通过体系化的技术共享、资源整合与人才培养,共同构建繁荣、可持续的国产GPU应用生态[5] 科技嘉年华与现场体验 - 公司将联合生态伙伴共同打造超过1000平方米的沉浸式“MUSA嘉年华”[7] - 现场设置多元主题展区,内容覆盖AI大模型&Agent、具身智能、科学计算、空间智能等前沿技术领域,并延伸至工业智造、数字孪生、数字文娱、智慧医疗等热门应用场景[7] - 通过互动性Live Demo展示具身智能(如机械臂/机器狗/机器人矩阵、数字分身实时交互与现场3D建模)、数字文娱(国产GPU点燃游戏激情)等行业应用[12][13] - 展区将展示全功能GPU在智慧农业、工业智造、智慧教育、智慧医疗、智慧出行、专业视觉、互联网、运营商等千行百业的深度赋能[19] 公司背景与愿景 - 摩尔线程以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行业数智化转型提供强大的AI计算支持[24] - 公司的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台[24]
大厂自研芯片加速,逃离英伟达
半导体行业观察· 2025-12-08 03:04
文章核心观点 - 全球主要科技巨头正加速推进自研或定制AI芯片,以应对AI热潮带来的半导体需求,旨在降低对英伟达的依赖、控制成本并提升供应链自主性 [1][2] - 英伟达首席执行官黄仁勋对定制芯片的竞争威胁持淡化态度,强调其公司在工程能力、技术栈广度和CUDA软件生态上的综合优势难以被复制 [4][6] 科技巨头自研AI芯片动态 - **微软**:正与博通洽谈合作,共同研发新一代客制化AI芯片,旨在为数据中心打造更具成本效益和掌控度的运算核心,以应对生成式AI模型规模膨胀带来的供应链压力 [1] - **谷歌**:母公司Alphabet推出Ironwood TPU v7,被视为首款能正面挑战英伟达Blackwell GPU的专用加速芯片,正扩大客户使用范围并强化AI超级运算竞争力,意图切入数据中心市场 [2] - **亚马逊**:旗下AWS已正式开放客户使用新一代AI加速芯片Trainium3,并将其部署至部分数据中心,该芯片主打低成本、高能效,被视为英伟达H100、B100的替代方案,AWS宣称其在特定AI训练场景的效能与能耗比优于市面主流GPU [2] - **OpenAI**:正与博通合作开发自家客制化AI芯片,预计明年下半年开始部署,此举旨在降低因GPT模型需求暴增而购买大量英伟达GPU所产生的成本,并提升运算自主性 [3] 英伟达对竞争的看法 - 英伟达首席执行官黄仁勋认为,定制芯片的开发团队在工程能力上难以与英伟达竞争,世界上真正擅长构建复杂AI系统的团队并不多 [4] - 黄仁勋指出,对于云服务提供商而言,在数据中心部署“随机ASIC”远不如选择英伟达技术栈理想,因为英伟达产品应用范围更广 [6] - 黄仁勋强调,即便竞争对手能复制英伟达的计算硬件能力,英伟达拥有的CUDA强大软件栈才是真正吸引业界的关键所在 [6] - 黄仁勋声称英伟达致力于在AI预训练、后训练和推理等所有主要细分领域保持“不可替代”的地位 [6]