MTIA
搜索文档
几颗“边角料”芯片,竟让英特尔大涨10%
虎嗅· 2025-12-01 04:10
文章核心观点 - 市场对英特尔为苹果代工低端M5芯片的传闻反应强烈 英特尔股价单日大涨10.2% [1] - 市场关注的并非短期订单利润 而是英特尔作为台积电替代供应商的叙事从0到1的估值重构机会 [3] - 苹果 谷歌 Meta等科技巨头对英特尔的潜在合作意向 可能打破其IDM模式的诅咒 开启代工业务的价值重估 [16] 苹果的背书与合作细节 - 苹果计划最早在2027年第二至第三季度让英特尔采用18AP制程代工最低端M系列处理器 预计今年相关设备出货量约2000万台 [4][6] - 基础版M系列芯片用于MacBook Air和iPad Pro 结构相对单一 是验证先进制程良率最友好的产品 [4] - 双方合作已进入实质性流片验证阶段 苹果已取得英特尔18AP制程的PDK 0.9.1GA工具包 并等待2026年发布的PDK 1.0/1.1 [4][5][6] - 对英特尔而言 拿下M系列相当于获得进入苹果高端俱乐部的门票 为后续14A等更先进节点合作铺路 [4] 库克的战略考量与行业趋势 - 苹果此举旨在回应美国"制造业回流"政策 将最低端M系列交由亚利桑那州英特尔美国工厂生产 既兑现"美国芯"承诺又控制试错成本 [7] - 建立"台积电+英特尔"双供应商制度可降低苹果对台积电的单一依赖风险 目前苹果90%以上先进制程产能集中在台积电 [8][9] - 谷歌和Meta也被爆出考虑采用英特尔封装解决方案 以应对台积电CoWoS先进封装产能被英伟达和AMD垄断的局面 [9][10] 英特尔的估值重构逻辑 - 传闻打破了英特尔的"IDM诅咒" 其IDM 2.0战略此前因固定成本高 折旧周期长在AI时代被视为笨重模式 [11][13] - 2025年英特尔晶圆代工外部营收预计仅为1.2亿美元 不到台积电同期收入的千分之一 巨额资本支出与回报严重不匹配 [14][15] - 顶级客户的订单预期使英特尔的设备折旧有望转为未来现金流 股价性质转变为包含"2027年代工业务成功"的看涨期权 [16][17] - 若14A工艺能赢得外部客户 代工业务估值倍数可向台积电看齐 市值有进一步提升空间 [16][17][18]
ASIC终于崛起?
半导体行业观察· 2025-11-28 01:22
英伟达市场地位分析 - GPU被定义为人工智能时代的核心产品,如同个人电脑时代的Windows操作系统 [1] - 英伟达在基于GPU的人工智能芯片市场占据90%份额,其GPU单价高达3万至4万美元 [1] - 公司凭借GPU产品成为全球市值最高的企业 [1] 竞争格局变化 - 各大科技巨头开始自主研发专用集成电路或拓展半导体供应商,英伟达统治地位出现动摇迹象 [1] - 人工智能开发模式从训练转向推理,更适合使用能效更高的专用芯片,这正在动摇英伟达的垄断地位 [1] - ASIC专为特定用途设计,在能效和成本方面优于英伟达的GPU [1] 科技公司自研芯片进展 - 谷歌定制芯片TPU性能优于GPU且功耗更低,人工智能初创公司Anthropic计划使用多达100万个TPU开发模型 [3] - Meta已将谷歌TPU引入数据中心,并开发出自有AI芯片MTIA用于AI开发和服务 [3] - OpenAI计划与博通合作于明年年底生产自研芯片,亚马逊AWS运营着配备50万颗Trainium2芯片的AI数据中心 [3] - 阿里巴巴和百度等中国公司使用自主研发半导体训练AI模型,旨在减少对英伟达依赖 [3] 技术经济性比较 - 安装24000块英伟达最新Blackwell GPU需8.52亿美元,而同等规模谷歌TPU成本仅为9900万美元 [5] - 定制芯片比GPU更便宜节能,在运营方面更具优势,有望缓解人工智能基础设施过度投资引发的泡沫担忧 [5] - 推理阶段所需性能水平远不及训练阶段,TPU和NPU等高能效轻量化半导体器件受到更多关注 [5] 半导体技术特性对比 - CPU被比喻为技艺精湛的大厨能处理各种任务但耗时较长,GPU相当于1000名兼职工人同时高效运转 [8] - TPU是专门执行特定任务的机器,不需要像GPU那样多的兼职工人但仍需大型工厂运行 [8] - NPU模拟人脑结构,体积小重量轻功耗低,非常适合智能手机和家用电器应用 [8] 产业链格局演变 - 随着大型科技公司与芯片设计公司合作生产自有芯片,博通等芯片设计公司正崛起成为新竞争对手 [6] - 以英伟达为中心的AI生态系统预计将发生变化,目前台积电代工英伟达芯片的格局已十分稳固 [6]
The One AI Risk Nvidia Bulls Keep Pretending Isn't Real
Benzinga· 2025-11-25 19:19
文章核心观点 - 英伟达面临的核心风险并非来自竞争对手的GPU,而是来自超大规模云服务商(超算中心)为摆脱其高利润率“征税”而转向自研AI芯片(如谷歌的TPU),这将逐步侵蚀英伟达的定价权和利润率,而非直接取代其计算份额 [1][5][6] 行业竞争格局与趋势 - 超大规模云服务商已普遍采纳类似苹果的“平台所有者不应永远向供应商支付溢价利润”的准则,正在积极开发自研AI芯片以控制成本和基础设施 [2][4] - 谷歌开发TPU并非为了在硬件性能上击败英伟达,而是为了停止每个季度向英伟达支付数十亿美元的计算支出,从而按照自身条款、基础设施和成本运行AI [2] - 亚马逊拥有Trainium和Inferentia芯片,Meta拥有MTIA芯片,微软正在资助Maia芯片的开发,行业转向自研芯片的趋势已经发生,而非推测 [4] - 没有公司愿意成为最后一个支付GPU“过路费”的企业,一旦有主要厂商(如谷歌)率先成功,其他厂商将迅速跟进 [4] 对英伟达的潜在影响 - 自研芯片(如TPU)无需在性能上完全匹配GPU,只需对内部大规模工作负载达到“足够好”的水平,同时价格仅为英伟达产品的一小部分,这将导致英伟达的定价权被缓慢侵蚀 [3] - 英伟达不需要失去计算市场份额就可能失去利润率领导地位,只需超大规模云服务商建立起足够可信的替代方案来设定价格上限 [5] - 公司面临的风险并非变得过时,而是变得“可以议价”,一旦超大规模云服务商拥有真正的议价杠杆,其长期维持70%以上毛利率的能力将受到威胁 [1][6] - AI需求的故事无懈可击,但AI定价权的故事则不然 [6]
机构:ASICs有望从CoWoS部分转向EMIB技术
证券时报网· 2025-11-25 12:35
AI HPC先进封装技术趋势 - AI HPC对异质整合的需求高度依赖先进封装技术,其中台积电的CoWoS解决方案是关键[1] - 随着云端服务业者加速自研ASIC,为整合更多复杂功能芯片,对封装面积的需求不断扩大[1] - 已有云端服务业者开始考量从台积电的CoWoS方案转向英特尔的EMIB技术[1] CoWoS技术发展与市场应用 - CoWoS方案通过中介层连结主运算逻辑芯片、存储器、I/O等不同功能芯片并固定在基板上,已发展出CoWoS-S、CoWoS-R与CoWoS-L等技术[1] - 随着英伟达Blackwell平台2025年进入规模量产,市场需求高度倾向内嵌硅中介层的CoWoS-L[1] - 英伟达下世代Rubin平台也将采用CoWoS-L技术,并进一步推升光罩尺寸[1] CoWoS面临的挑战 - AI HPC需求旺盛导致CoWoS面临产能短缺、光罩尺寸限制以及价格高昂等问题[2] - CoWoS多数产能长期由英伟达GPU占据,导致其他客户遭到排挤[2] - 封装尺寸以及美国制造需求,促使谷歌、Meta等北美云端服务业者开始积极与英特尔接洽EMIB解决方案[2] EMIB技术的优势 - EMIB结构简化,舍弃昂贵且大面积的中介层,直接使用内嵌在载板的硅桥进行芯片互连,简化整体结构,良率相对CoWoS更高[2] - EMIB热膨胀系数问题较小,因只在芯片边缘嵌硅桥,整体硅比例低,硅与基板接触区域少,热膨胀系数不匹配问题较小,不易产生封装翘曲与可靠度挑战[2] - 在封装尺寸上,CoWoS-S仅能达到3.3倍光罩尺寸,CoWoS-L目前发展至3.5倍,预计2027年达9倍;而EMIB-M已可提供6倍光罩尺寸,预计2026年至2027年可支援到8倍至12倍[3] - 价格部分,因EMIB舍弃价格高昂的中介层,能为AI客户提供更具成本优势的解决方案[3] EMIB技术的局限性与市场定位 - EMIB技术受限于硅桥面积与布线密度,可提供的互连带宽相对较低、讯号传输距离较长,并有延迟性略高的问题[3] - 目前仅ASIC客户在较积极评估洽谈导入EMIB技术[3] - 英特尔自2021年宣布设立独立的晶圆代工服务事业群,耕耘EMIB先进封装技术多年,已应用至自家服务器CPU平台Sapphire Rapids和Granite Rapids等[3] - 随着谷歌决定在2027年TPUv9导入EMIB试用,Meta亦积极评估规划用于其MTIA产品,EMIB技术有望为英特尔代工服务业务带来重大进展[3] - 英伟达、超威等对带宽、传输速度及低延迟需求较高的GPU供应商,仍将以CoWoS为主要封装解决方案[3]
人工智能数据中心扩容专家讨论核心要点-Hardware & Networking_ Key Takeaways from Expert Discussion on Scaling Up AI Datacenters
2025-11-18 09:41
行业与公司 * 行业为人工智能数据中心硬件与网络设备[1][3] * 会议是与Scale AI的数据科学家Sri Kanajan进行的专家讨论 聚焦于AI数据中心的扩展[1] 核心观点与论据 **资本支出向推理计算转移** * 计算资本支出向推理转移的速度快于预期 蒸馏、思维链和多步技术以及推理时优化带来了更大的近期收益 而训练工作的回报正在递减[3] * 专家预计增量计算资源用于推理的份额将在约2027年超过训练 2025-2026年已出现向推理的混合支出[3] * 运营商因成本、供应商广度和更容易扩容而越来越倾向于为推理工作负载使用以太网 同时将InfiniBand集中在训练集群所需的地方[3] **模型效率与成本权衡** * 企业正从使用最大/最好的模型转向通过量化和蒸馏微调更小的模型 愿意为推理工作负载相关成本的大幅降低而接受轻微的质量折衷[3] * 更多AI解决方案正与向量数据库、上下文检索、工作流级集成和实时数据访问一起部署 以释放全部投资回报率[3] **硬件与网络标准化** * 在推理相关网络中出现硬件标准化 训练仍由NVLink和InfiniBand主导 而对于推理ASIC 以太网/PCIe和UALink/UEC正获得份额[3] * 专家预计明年将有更多机架级标准化 白牌服务器势头通过OCP计划扩大 Celestica正在推动较低性能级别交换机的标准化 而Arista的交换机仍受青睐于极高性能场景[3] * 对于超过1.6T的速率 可能需要共封装光学器件 而在400G/800G速率下 许多运营商仍可使用可插拔光学器件满足需求[3] **约束条件从GPU供应转向电力** * GPU交付时间已显著缩短 高带宽内存仍然紧张 但整体供应正在改善 主要约束是电网供电和场地能源 许多数据中心因无法获得足够电力而未充分利用[3] * 这种情况有利于推理 因为训练所需的电力高出数个量级(专家表述为超过5-10倍)且需要同步、同地计算 绝大多数训练仍在单个数据中心内进行[3][4] * 推理通过缓存、嵌入和边缘友好数据存储将计算分区跨服务器或集群 能更好地容忍跨地域扩展[4] **GPU资产寿命与存储架构** * GPU资产寿命正在变长 买家现在计划GPU使用寿命为五到六年 高于之前的大约四年 随着新一代GPU上市 资产从训练转移到较低优先级训练任务 再到推理 最后到内部工作负载[5] * 存储继续是混合决策 HDD在成本上仍保持领先 闪存主导训练和密集型推理需求 而硬盘仍适用于不常访问的数据集、日志记录和嵌入 其中每太字节成本至关重要[5] * HDD方面的进步 包括HAMR技术 正在帮助HDD在闪存使用扩大的情况下保持成本领先地位[5] 其他重要内容 **潜在受益公司** * Broadcom被视为向推理转移的主要受益者 因其在定制ASIC方面的工作 包括与Google、亚马逊和Meta的合作[5] * Marvell也应受益于更标准化的推理工作负载和集群更倾向于以太网/PCIe而非NVLink/InfiniBand[5] * Celestica可能随着白牌服务器在OCP设计中的广泛采用而扩大份额[5] * Arista将继续主导最高性能的训练网络 但向推理中以太网的混合转移可能会驱动更广泛的受益领域[5] **分析师覆盖范围** * 报告作者Samik Chatterjee覆盖的股票包括Arista、Celestica等多家硬件与网络公司[10]
AI Spending Is Shifting — And Broadcom, Marvell Are Positioned To Win
Benzinga· 2025-11-14 16:45
AI数据中心支出重心转移 - AI基础设施支出正从模型训练快速转向模型推理 预计到2027年推理将占增量计算支出的主要份额 2025至2026年已开始呈现此趋势 [2][3] - 推动因素包括蒸馏、量化、思维链和多步优化等技术使推理成本更低、效率更高 而训练周期呈现收益递减 [2] - 公司不再追求最大模型 而是寻求能够完成任务的最廉价模型 [3] 受益公司分析 - 博通因专注于为谷歌、亚马逊和Meta开发推理定制ASIC而成为主要受益者 在更小、更廉价、更高效模型需求下占据优势 [4] - 迈威尔科技受益于推理工作负载大量依赖以太网和PCIe 而非昂贵的面向训练的NVLink和InfiniBand结构 [5] - 天弘科技因行业转向白牌、OCP对齐硬件而定位良好 运营商寻求可从多个供应商采购的更廉价、标准化推理机架 [6] - 阿里斯塔网络继续锚定最高性能训练网络 但推理向以太网的广泛混合转变为未来更多网络受益者打开大门 [6] 行业驱动因素 - 电力限制推动转变 训练功耗比推理高5至10倍 许多数据中心电网容量无法支持大型训练集群全负荷运行 [7] - 推理在分布式服务器和边缘集群中扩展性更好 使其不仅更廉价且更易于部署 [7] - AI下一阶段重点是使AI更廉价、快速和易于运行 而非构建最大模型 [8]
中国人工智能:加速计算本地化,助力中国人工智能发展-China AI Intelligence_ Accelerating computing localisation to fuel China‘s AI progress
2025-10-19 15:58
涉及的行业与公司 * 行业:中国人工智能(AI)与计算芯片行业、全球AI芯片设计、半导体设备[1][2][3][4] * 公司:阿里巴巴(Alibaba)、百度(Baidu)、科大讯飞(iFlytek)、地平线(Horizon Robotics)、北方华创(NAURA)、中微公司(AMEC)、华为(Huawei)、寒武纪(Cambricon)[1][4][7][9][14][15] * 全球科技巨头:谷歌(Google)、亚马逊(Amazon)、Meta、微软(Microsoft)[2][6] 核心观点与论据 中国AI计算本土化进程加速 * 尽管进口AI芯片存在不确定性,但国内计算能力仍在发展,主要受国家政策支持及大型科技公司/本土供应商对研发投入的承诺驱动[1] * 国内GPU厂商与互联网公司的持续研发投入推动芯片性能快速提升,尽管与顶尖水平仍有差距[1][3] * 通过超级节点(如阿里巴巴的Panjiu 128卡超级节点、华为的CloudMatrix 384)进行系统级扩展,提升单个机架的GPU数量,部分抵消了单个国产GPU的性能差距,提供更高的机架级计算能力[1] * 这种设计使国产芯片能够支持更复杂的推理场景(如长上下文和多模态模型),并有望长期支持训练工作负载[1] * AI模型开发者(如DeepSeek)正优化算法以适应国产GPU,例如采用本土团队开发的GPU内核编程语言TileLang,更好地适配华为昇腾和寒武纪等本土计算生态[1] 全球及中国科技巨头加速自研AI芯片 * 主要互联网公司加速内部ASIC开发,以优化内部工作负载并提升性价比[2] * 谷歌是自研AI芯片的早期先驱(2016年TPU v1),已迭代多代,从推理扩展到训练,当前TPU v7 Ironwood支持大规模模型部署[2][6] * 亚马逊推出Trainium用于训练和推理,Meta(MTIA)和微软(Maia)也开发了定制AI芯片[2][6] * 百度已开发三代昆仑芯片,最新昆仑P800支持其模型并实现了30,000卡集群[2][7][8] * 阿里巴巴也开始部署自研芯片用于AI训练工作负载[2][10][11] 国产AI芯片进展与挑战 * 硬件性能:前沿国产GPU的计算能力现已匹配英伟达安培架构(如A800),下一代目标瞄准霍珀架构(如H800),但仍落后于英伟达2024年发布的最新Blackwell系列一代[3][13] * 软件生态:部分国产芯片厂商已构建自有软件栈或通过翻译工具增加CUDA兼容性,提高了工程师的迁移效率,但不同生态系统间的碎片化意味着模型通常需要重新编译和优化,限制了可扩展性[3] * 供应链能力:除了芯片设计质量,中国在先进制程工艺和高带宽内存生产方面的能力仍处于早期阶段[3] 具体公司进展与订单 * 百度:第三代昆仑P800芯片与百舸平台紧密协作,在模型适配、网络和算子优化方面具有优势,展示了30,000卡P800集群和64卡超级节点机架[7][8] 昆仑芯片获得中国移动电信AI项目价值超过10亿元人民币的芯片订单[8] * 阿里巴巴:其半导体部门T-Head通过收购和整合,建立了全栈芯片组合,包括含光800 AI芯片等[9][10] 最新AI芯片PPU据报道在关键硬件规格上接近英伟达A800,具备96GB内存和700GB/s芯片间带宽[10] 发布了Panjiu超级节点(128 AI芯片/机架)和灵骏AI集群[11] 与中国联通等合作,在青海西宁投资3.9亿美元建设数据中心,使用阿里巴巴等中国公司的芯片[12] 投资观点与风险提示 * 看好阿里巴巴和百度,因其自研芯片的持续进展可能加强其在AI价值链中的定位和持续的AI投资[4] * 强调科大讯飞的独特定位,因其在将国产硬件与其大语言模型开发对齐方面取得领先进展[4] * 在科技公司中,偏好地平线(边缘AI)、北方华创和中微公司(中国半导体设备厂商)[4] * 行业风险包括:竞争格局演变和竞争加剧、技术及用户需求快速变化、货币化不确定性、流量获取和内容及品牌推广成本上升、IT系统维护、国际市场扩张、市场情绪不利变化、监管变化[16] * 投资中国半导体行业风险较高,包括快速的技术变革、日益激烈的竞争、宏观经济周期暴露、财务结果难以预测、估值挑战以及政治风险(如政府政策和供应链限制)[17] 其他重要内容 * 报告包含了英伟达与阿里巴巴、百度、寒武纪等中国厂商的AI芯片技术规格详细对比[13][14] * 报告列出了华为昇腾芯片的未来路线图(Ascend 910C 至 970),显示了其性能提升计划[15] * 报告附有全球及中国云服务提供商AI ASIC发展路线图[6]
“英伟达税”太贵?马斯克领衔,AI巨头们的“硅基叛逆”开始了
创业邦· 2025-09-11 03:09
文章核心观点 - AI巨头自研芯片的深层战略考量正改变产业估值逻辑和权力格局 远超解决芯片短缺和降低成本的表面动机 [9][10] - 推理成本将超越训练成本成为AI商业化最大瓶颈 自研芯片首先瞄准推理环节 [25] - 2026年晶圆产能争夺战将决定AI算力竞争胜负 考验供应链管理和资本实力 [27] 巨头自研芯片战略动机 - 摆脱性能枷锁:通过软硬协同实现极致性能功耗比 在数据中心节省数亿至数十亿美元电费和运营成本 [11][13] - 重构经济模型:将不可控运营成本转化为可控资本开支 改变长期成本结构并构建财务护城河 [14][16] - 构筑数据壁垒:芯片架构成为AI战略的物理化身 形成"数据-模型-芯片"正向飞轮固化竞争优势 [17] 半导体产业链格局变化 - 台积电成为AI时代产能分配核心:3nm工艺产能被苹果及Google Meta 亚马逊 微软等AI巨头瓜分 [19][21] - 英伟达面临围城之势:CUDA生态优势在封闭场景下被削弱 但迁移成本仍构成护城河 [22][24] - 博通成为隐形赢家:为巨头提供定制化ASIC芯片设计服务 深度绑定多家AI领军企业 [26] AI商业化趋势与产能竞争 - 推理成本占比将达80%-90%:AI应用生命周期总成本中推理成为持续性海量消耗 [25] - 2026年产能决战:台积电3nm/2nm产线将汇集苹果 英特尔 英伟达及AI巨头自研芯片 [27] - 供应链能力成为关键:产能绑定协议和预付款规模将决定算力落地能力 [27]
GPU王座动摇?ASIC改写规则
36氪· 2025-08-20 10:33
行业观点分歧 - 英伟达CEO黄仁勋认为全球90%的ASIC项目会失败 强调ASIC缺乏灵活性与扩展性 难以应对AI快速迭代 [2][3] - 市场认为ASIC迅猛发展对英伟达构成威胁 云巨头助推下AI算力市场迎来新临界点 [4][5] 市场份额与出货量 - 当前英伟达GPU占AI服务器市场80%以上 ASIC仅占8%-11% [6] - 2025年谷歌TPU出货量预计150-200万台 AWS Trainium2约140-150万台 英伟达AI GPU供应量500-600万台 [6] - 谷歌和AWS的AI TPU/ASIC总出货量已达英伟达AI GPU出货量的40%-60% [7] - 预计2026年ASIC总出货量将超越英伟达GPU Meta和微软分别于2026/2027年大规模部署自研ASIC [7] ASIC技术优势 - ASIC在AI推理场景具碾压性优势:谷歌TPU v5e能效比是英伟达H100的3倍 AWS Trainium2推理性价比高30%-40% [18] - 谷歌TPUv5和亚马逊Trainium2单位算力成本仅为英伟达H100的70%和60% [18] - 大模型推理芯片需求是训练集群10倍以上 ASIC定制化设计可降低单芯片成本 [18] - 2023年AI推理芯片市场规模158亿美元 预计2030年达906亿美元 复合年增长率22.6% [18] 训练市场格局 - 英伟达占据AI训练市场90%以上份额 Blackwell架构支持1.8万亿参数模型 NVLink6实现72卡集群互联 [19] - CUDA生态壁垒难以撼动:90%以上AI框架原生支持CUDA 用户迁移成本极高 [19] 头部企业ASIC布局 - 谷歌TPU从"名不见经传"发展为具备与英伟达GPU较量实力 [10] - Meta2023/2024年推出MTIA V1/V2芯片 计划2026年推出搭载HBM的MTIA V3扩展至训练与推理任务 [23] - AWS布局推理芯片Inferentia和训练芯片Trainium Trainium3性能较上一代提升2倍 能效提升40% [24] - 微软发布首款自研AI芯片Azure Maia 100(1050亿晶体管)和Azure Cobalt 采用5nm制程 [25] - 华为昇腾910B和寒武纪思元590代表国内ASIC芯片技术突破 [26][27] ASIC芯片供应商 - 博通以55%-60%份额位居ASIC市场第一 定制AI芯片销售额占AI半导体收入70%达308亿美元 [28] - 博通与谷歌/Meta/字节跳动合作 新增OpenAI/苹果客户 正与Meta推进第三代MTIA芯片研发 [28] - Marvell以13%-15%份额位列第二 数据中心业务占比75% ASIC收入主要来自AWS Trainium2和谷歌Axion处理器 [29] - Marvell与亚马逊合作的Inferential ASIC项目2025年量产 与微软合作的Maia项目预计2026年推进 [29]
挑战英伟达(NVDA.US)地位!Meta(META.US)在ASIC AI服务器领域的雄心
智通财经网· 2025-06-18 09:30
AI服务器市场竞争格局 - 英伟达在AI服务器领域占据超过80%的市场价值份额 ASIC AI服务器的价值份额约为8%-11% [1][3] - 谷歌TPU和亚马逊Trainium2 ASIC在2025年合计出货量预计达到英伟达AI GPU的40%-60% 谷歌TPU可能达到150-200万台 亚马逊Trainium2约140-150万台 英伟达AI GPU供应量预计500-600万台 [3] - 云服务提供商正积极部署自研AI ASIC解决方案 Meta计划从2026年开始 微软从2027年开始 [1][4] AI ASIC技术发展趋势 - 英伟达推出NVLink Fusion技术 开放专有互连协议 支持与第三方芯片连接 试图维持云计算市场地位 [4] - 英伟达在单位芯片面积计算能力和互连技术(NVLink)方面保持领先 晶体管密度达130MTr/mm² 远超竞争对手 [6][7] - ASIC解决方案正采用更复杂规格 如更大中介层 Meta的MTIA V1 5中介层尺寸超过5倍光罩尺寸 接近英伟达Rubin GPU水平 [10][12] Meta MTIA项目进展 - Meta计划推出三代MTIA芯片 V1(2025年底) V1 5(2026年中) V2(2027年) V1 5性能显著提升 系统功率达170KW [13][14][19] - MTIA V1采用刀片架构 16个计算刀片和6个交换机刀片 主板采用36层PCB和高等级材料 [16][18] - 供应链预计2026年MTIA总产量目标200万套 但CoWoS晶圆供应可能仅支持3-4万片 存在量产挑战 [22][23] 供应链机会 - 广达负责Meta MTIA V1和V1 5的计算托盘及CDU制造 并主导V1 5整机架组装 [24] - 欣兴电子成为Meta 谷歌及AWS ASIC基板主要供应商 在英伟达Blackwell GPU份额达30%-40% [24] - 联茂电子主导Meta和亚马逊ASIC覆铜板供应 Meta PCB要求36/40层 M8混合覆铜板 [25] - Bizlink有望为Meta MTIA提供有源电缆(AEC)产品 用于机架扩展和升级连接 [26]