IO资本赵占祥:绕开HBM依赖,国产AI芯片正在走哪些新路线?丨GAIR 2025
英伟达英伟达(US:NVDA) 雷峰网·2025-12-18 10:10

文章核心观点 - 在先进制程受限的背景下,国产AI芯片需依靠新的技术路径,而非单纯沿袭GPU路线追赶英伟达 [3][14] - 端侧AI芯片市场潜力巨大,是中国芯片厂商实现商业闭环和建立产业影响力的关键战场 [1][4][6] - 中国在AI硬件领域拥有工程师红利和深度服务能力,这构成了与海外厂商竞争的核心优势 [8][16] 云端AI芯片技术路线 - TPU路线:以超节点性能为目标,通过系统级设计提升整体性能,减少对先进制程、HBM及NVLink的依赖,性价比据称远超英伟达十倍以上 [18][19] - 混合键合路线:采用Hybrid Bonding技术提升带宽,以存力抵消算力不足,据称英伟达芯片成本的一半花在HBM上 [4][19] - 大容量SRAM推理芯片路线:以SRAM为核心,相比GPGPU具备低时延(<1ms)、低成本(单位成本性能提升10倍)和低功耗优势,且不依赖HBM和先进制程 [3][19] - 大规模分布式互联方案:采用基于以太网、允许丢包的互联方案,旨在支持百万卡级别的超大规模集群,解决传统无损网络在万卡规模下的瓶颈 [19] 端侧与边缘AI芯片发展 - 端侧市场基础:全球PC与平板年出货量约4亿台,手机超10亿台,为端侧芯片提供了海量需求基础 [6] - 边缘计算场景:家庭NAS可能从存储中心演进为计算中心,摄像头等设备需要大模型计算能力从被动监控转向主动认知,为国产方案提供落地机会 [22] - 端侧芯片技术路线: - 苹果NPU路线:强通用性、高能效比(相比传统CPU/GPU有10倍以上优势)、面积小(为其他AI芯片的1/2至1/4)[24] - 3D DRAM+PIM路线:通过3D堆叠封装与存内计算,在更小面积、更低成本和功耗下实现更高算力 [9][24] - 三维存算一体架构:在存储芯片中集成计算逻辑,使内存芯片本身承担AI计算,无需额外增加AI芯片,Token生成能力可达每秒百个 [26] - LPDDR-PIM方案:在DRAM的每个Bank旁放置计算板块,带宽可达1-2TB/s,支持在手机上运行30-70亿参数的大模型 [26] 末端AI芯片与IP模式 - 核心诉求:超低功耗处理能力,产品涵盖毫瓦级(10–300 GOPS)与微瓦级(几个GOPS)功耗的AI处理器核 [28] - 商业闭环路径:IP授权模式是关键,凭借“量大”形成闭环,例如蓝牙耳机芯片年出货达30亿颗,即使每颗收取0.1元授权费,年收入也可达3亿元 [11] 先进封装与产业链机会 - 产能紧张:先进封装产业链产能已拉满,部分设备厂商订单排期至明年下半年 [28] - 关键技术与器件: - 硅电容:需求巨大,例如苹果单个主芯片需8–11颗硅电容,用于高性能SoC、AI算力芯片及高速光模块 [29] - 混合键合:可实现数十至数百TB级别的带宽能力 [30] - 检测设备:对微凸块3D检测和全流程缺陷检测要求提高,超声波检测技术应用扩大 [30] - 光电合封:相比传统光模块,功耗降低约3.5倍,集成度提升约63倍,可靠性提升约10倍,部署时间缩短约1.3倍,被认为是下一代AI算力基石 [32] 中国厂商的生态与竞争优势 - 工程师红利与服务能力:中国芯片厂商能通过深度适配和“堆人”服务满足多样化需求,例如瑞芯微通过极致服务实现良好利润 [8] - 市场与生态优势:软件生态客户集中在国内,为中国芯片厂商创造天然优势,参考蓝牙耳机领域中国占据全球90%市场份额的生态逻辑 [7] - 合作壁垒:对于新入局的NPU创业公司,如何与已占据手机高端市场的主芯片厂商(如高通、联发科)建立合作是重要挑战 [9] 应用落地展望 - AI眼镜:预计明年将迎来销量暴涨,保守估计达几千万部,核心驱动力是成本下降,未来价格有望降至普通眼镜水平 [10] - 可穿戴与智能家居:指环、眼镜、各类传感器和AI硬件是末端AI的主要形态 [10]