Workflow
NPU
icon
搜索文档
MCU巨头,全部明牌
半导体行业观察· 2026-01-01 01:26
公众号记得加星标⭐️,第一时间看推送不会错过。 前言 在很长一段时间里,嵌入式计算的世界是稳定而克制的。 在MCU的几大巨头——TI、英飞凌、NXP、ST、瑞萨眼中,行业正在经历一场革命,AI不再只是跑 在MCU上的软件,而是开始反向塑造MCU本身的架构,不仅是生产工艺从传统40nm迈向22nm、 16nm甚至更先进节点,还集成了包括NPU在内的多个模块,同时新型存储器也从幕后走向台前。 至此,MCU的发展已走出全新脉络。市场真正需要的,不是单纯"更快"的MCU,而是能在坚守传统 优势的基础上,原生支持AI工作负载的全新架构。 为什么要塞NPU? 相信不少人都有一个疑问:为什么连MCU都要塞NPU模块呢? 实际上,这一轮MCU集成NPU的逻辑,与手机、服务器完全不同。在移动端和数据中心,NPU的目 标是追求更高的TOPS数值、更快的推理速度、更复杂的模型支持。但在嵌入式领域,NPU更多是确 保整个系统运行的稳定性。 目前的工业和汽车场景本质是实时控制系统。在电机控制、电源管理、ADAS决策这些应用中,系统 必须在几微秒到几毫秒的固定时间窗口内完成响应。传统架构下,如果让CPU同时承担控制和AI推 理,就会出现 ...
中美AI竞赛:界限日益模糊,下一战关键何在?
财富FORTUNE· 2025-12-31 13:06
文章核心观点 - 当前AI领域存在显著的资本泡沫,部分模型公司在零收入阶段估值已达数亿美元,市场预期将经历价格重置 [2][13] - 尽管存在泡沫,但本轮AI创新由真实的产业需求驱动,且初创企业正加速转向B端,技术“上升”与产业“下沉”的趋势明确,整体发展前景审慎乐观 [3][7] - 中美在AI发展上路径不同但界限正变得模糊,中国在应用层和基础设施有独特优势,美国在技术层和芯片领域领先,硅谷独特的创新生态是其核心优势 [8][10] - AI领域的投资与应用机会目前主要集中在B端,因为B端有未被垄断的产业数据、明确的降本增效需求以及大企业合作并购的活跃生态 [17][18] - AI技术正在多个垂直领域(如医疗、太空科技)快速落地并创造价值,智能体(Agent)被认为是下一个爆发点,但通用人工智能(AGI)仍很遥远 [21][23][32] AI行业现状与泡沫分析 - 多家权威机构评选的年度词汇均与AI相关,如“slop”、“DeepSeek”,而硅谷投资人的年度词汇可能是“泡沫” [2] - AI投资泡沫贯穿全年,体现在美股市场对概念的追捧、科技巨头间的“循环交易”以及巨额融资洽谈,如亚马逊与OpenAI正在洽谈高达100亿美元的投资 [2] - 部分模型公司在产品与收入均为零时,估值已高达数亿美元,市场迟早会迎来价格重置,甲骨文与CoreWeave已出现市值大幅回调 [2][13] - 本轮泡沫与2000年互联网泡沫不同,当时公司缺乏实际收入且偏重C端,而本轮AI创新有真实产业需求支撑,且初创企业加速转向B端 [3][15] - 市场已显现早期调整信号,许多公司在A轮、B轮融资时,投资方会严格考察收入数据质量,未能通过验证的公司将面临融资困难与估值调整 [16] AI技术发展趋势:“上升”与“下沉” - **技术“上升”**:在AI基础设施层,芯片格局正从GPU主导走向多元化,新模型架构在CPU上效率更高,谷歌TPU、高通与英特尔的NPU发展迅猛 [4] - **技术“上升”**:云基础设施的四大难题(算力成本高、能耗大、边缘设备应用难、数据隐私)正逐步解决,例如OpenAI的token价格已从每千个30美元大幅降至9美分 [4] - **技术“上升”**:通信过程中的能耗是计算本身能耗的百倍以上,成为优化重点,新模型与芯片架构不断优化计算效率 [4] - **技术“上升”**:边缘AI快速推进,谷歌等公司正开发参数低于10亿、性能可比肩GPT-4的端侧小模型,未来可在手机本地运行 [4] - **技术“上升”**:数据隐私方面,联邦学习等技术已在金融、医疗等高监管行业部署,配套监管科技同步发展 [4][5] - **应用“下沉”**:在美国,非科技领域如医疗、金融保险、太空科技的AI应用进入快速迭代阶段,初创企业层出不穷,大公司全力冲刺 [6] - **应用“下沉”**:美国大公司与初创企业的合作与并购活跃,Fusion Fund今年有五家公司被大企业收购,其中三家成立不到两年,价格均超过两三亿美元 [6] - **应用“下沉”**:Meta宣布收购通用自主AI智能体公司Manus,交易高达数十亿美元,成为其成立以来规模第三大的收购案,标志着AI正从“工具”加速进化为“行动者” [6] 中美AI发展对比与生态 - 美国在芯片、模型、基础设施层面领先,但电网老化严重,难以满足AI能耗需求,微软、谷歌等巨头不得不转向自建能源系统 [8] - 中国在新能源基础设施、完备的机器人供应链以及全民化的技术应用氛围上已构筑起独特优势 [8] - 在美国,中老年人积极拥抱新技术的现象较少,而中国用户无论处于任何年龄层,都在快速学习使用新技术 [8] - 关于开源模型,中国的DeepSeek、阿里巴巴等公司持续贡献开源模型,而美国科技公司如OpenAI、谷歌、Meta因处于大规模商业化阶段,开源意愿很有限 [8] - 硅谷独特的创新生态在于大公司与初创企业形成新型共生关系:前者为后者提供试错场景和并购出口,后者为前者注入创新活力 [8] - 美国企业CTO的主要职能是投资未来技术,其预算用于采购、合作和并购创新项目,并对合作失败有容错空间 [9][19] - 活跃的并购市场是硅谷的优势,10多人的团队在收入仅数千万美元时获得数亿美元收购的情况屡见不鲜 [19] 投资策略与市场观察 - 作为早期投资人,对估值保持敏感,如果项目估值过高则选择不投,相信企业要遵循自然发展规律,在不同阶段匹配相应估值 [16] - 投资专注于To B项目,涵盖企业级AI、工业自动化与医疗AI等,会深入分析订单质量(如合约年限、预算来源) [17] - 通过构建的CXO社群网络(涵盖45家全球千强企业的CTO)为被投企业带来超过1.5亿美元的订单与战略合作 [19] - 在谈判估值时,不仅能提供订单,还能帮助创始人获取政府补贴等不占股的非稀释性资源,从而以更合理的估值完成投资 [20] - 评估AI公司能否“跑出来”大约需要两年时间,优质公司增长极快 [26] - 投资决策要素排序:最看重市场规模和增量市场时机;其次看团队,尤其是“创始人-产品-市场”契合度;技术需满足“更好、更快、更省”,成本是关键竞争要素 [28] 垂直领域应用与未来展望 - **太空科技**:AI与机器人技术正渗透太空经济,SpaceX已将单次发射成本从数十亿美元降至不到一亿美元,未来很快将降至千万美元级,推动卫星数据应用普及 [20] - **太空科技**:投资了从事卫星交通管理与数据交易的公司,其收入已达数千万美元;还投资了开发全自动化机器人系统在月球提取水并制造太空燃料的公司 [21] - **医疗健康**:今年是医疗大年,AI加速脑部疾病(如帕金森、阿尔茨海默症)领域的创新,涉及诊断与治疗,投资了糖尿病垂直小模型和细胞疗法基础模型公司 [21] - **AI智能体**:代码智能体(Coding Agent)已近乎杀手级应用,目前多数科技公司80%的代码由AI生成,智能体的未来明确,但当前技术仍在发展,预计再有一年时间将趋于成熟 [23] - **AI智能体**:投资了多家智能体基础设施公司,专注于操作系统、成本优化与幻觉消除,一旦基础稳固,应用层将快速涌现 [23] - **未来突破**:期待智能体爆发及各产业(如医疗、金融、保险等占美国GDP超50%的服务业)广泛整合AI,这将是发展的“华彩乐章” [32] - **AGI认知**:距离通用人工智能(AGI)尚远,无需执着追求,各行业可发展垂直应用,在特定场景超越90%的人类就是很大突破 [32] 具体投资案例与绩效 - 自2015年重点布局AI企业,如Otter AI、You.com等,均已成长为独角兽,今年有5家被投AI公司被收购,明年还有3家即将IPO [12] - 投资的一家B2B AI公司,年收入从去年上半年的50万美元增长至现在的1.5亿美元;另一家公司年收入从零增至2000万美元,团队不足10人 [12] - 过去两三年投资的企业中,70%以上年收入增长超过20倍 [12] - 最满意的投资项目是一家赋予AI长期记忆的模型公司,其视频模型可分析视频内容并给出精准总结,主要应用于To B场景如机器人工业安全 [24] - 决策周期最长的项目是一个利用小胶质细胞治疗帕金森症的医疗项目,运用了AI实现个性化治疗,投后获得美国国立卫生研究院(NIH)的政府补贴资金 [24] - 2015年投资了脑机接口公司Paradromics(侵入式),已进入临床实验阶段,可能很快成为独角兽 [29]
东吴证券:AI算力产业链2026年迎多重机遇 国产化与技术创新成核心动力
智通财经网· 2025-12-31 03:41
文章核心观点 2026年AI算力产业链预计将迎来业绩放量,云端与端侧算力、存储、晶圆代工、PCB、光铜互联及服务器电源等多个环节将共同驱动技术升级与价值提升 [1] 云端算力 - 2026年国产算力芯片龙头有望进入业绩兑现期,国产GPU将受益于先进制程扩产带来的产能释放 [2] - 国产算力进入超节点时代,考验GPU厂商单卡实力及Switch芯片的国产化水平,国内外政府可能对此环节有所管控 [2] - AI ASIC服务商在供应链中扮演关键角色,因国产算力芯片参与者为争夺市场份额而抢夺产能资源 [2] 端侧算力 - 端侧AI接力云AI,端云混合架构夯实场景基础,海外大模型有望率先驱动AIoT落地,利好眼镜、汽车、机器人三大先导场景 [3] - 展望2026年下半年,结合消费周期及AI创新等因素,看好可穿戴AIoT等新品发布带来的产业链机遇 [3] - 2026年有望成为NPU(神经网络处理单元)落地元年 [3] 3D DRAM存储 - 2026年AI硬件落地带来存力需求快速提升,高带宽/低成本的3D DRAM有望在多领域放量,成为端侧AI存储放量元年 [4] - 机器人、AIoT、汽车等领域对本地大模型的部署离不开3D DRAM存储的支持,是其从“能用”到“好用”的关键硬件革新 [4] - 多款NPU的流片发布为3D DRAM提供丰富适配场景,手机及云端推理等场景亦将逐步导入,成为2026年下半年及2027年关键场景 [4] 端侧AI模型与生态 - 2026年,云端模型将通过数据质量与后训练优化提升复杂规划能力;端侧通过蒸馏承接云端模型能力,并以结构优化提升执行成功率与时延表现 [5] - Agent路线呈现API和GUI并存 [5] - 生态格局上,终端厂商掌握OS并接管系统级入口;超级APP构建应用内Agent闭环;第三方模型厂则依赖分成机制推进合作 [5] AI终端 - 2026年开启AI终端创新元年,Meta、苹果、谷歌、OpenAI均有新终端新品推出 [6] - AI终端形态以眼镜为代表,同时有AI pin、摄像头耳机等新形态,下一代爆款终端或在大厂创新周期中应运而生 [6] - 新终端的产生离不开关键零组件的升级,建议关注SoC、电池、散热、通信、光学等方向 [6] 长鑫存储产业链 - 长鑫存储重点在研的CBA技术有望释放后续持续扩产动能,通过另辟蹊径的方式缩小与三星和海力士的代际差,保证扩产量级 [7] - 其产业链公司将充分受益,设备环节在受益于充裕扩产之余,部分优质公司还将享受渗透率快速提升 [7] - 部分代工和封测公司将承接长鑫的代工需求 [7] 晶圆代工 - 目前国内先进制程尤其是7nm及以下供给严重不足,在潜在外部压力和国产先进逻辑芯片需求旺盛的背景下,2026年开始出于保供意图的先进扩产将十分丰厚 [8][9] - 中芯国际和华力集团有望持续扩产先进制程,更多主体如永芯、ICRD等将扩产14nm制程 [9] PCB(印刷电路板) - AI服务器对高速信号完整性与低介电性能的要求持续提升,推动PCB材料进入全面升级周期 [10] - M9 CCL凭借超低Df/Dk性能与优异可靠性,正成为AI服务器与高速通信系统的关键基材,有望推动PCB及上游高端材料价值量迅速增长 [10] 光铜互联 - 2026年商用GPU持续增长,CSP ASIC进入大规模部署关键一年,数据中心Scale up催生超节点爆发,铜缆凭借短距低耗成为柜内互连最优解 [11] - Scale out带动集群持续扩容,光模块与GPU配比飙升,1.6T放量让光芯片缺口凸显 [11] - 光与铜双线共振,互联需求迎来量价齐升 [11] 服务器电源(HVDC) - AI数据中心功率密度飙升驱动HVDC(高压直流)供电架构成为核心主线 [12] - 一次电源奠定800V高压直流传输基础,二次电源承担关键电压转换,三次电源精准适配芯片供电需求,全链路升级打开增量空间 [12] - 服务器电源技术升级带来PCB量价齐升,推动电源PCB向厚铜、嵌入式模块、先进散热等高端技术升级,单板价值量显著提高 [12]
2026年电子行业年度十大预测
东吴证券· 2025-12-30 14:02
报告行业投资评级 - 增持(维持)[1] 报告的核心观点 - 报告对2026年电子行业提出十大预测,核心观点认为AI驱动的算力、存力、终端及底层硬件升级将构成全年投资主线,行业将迎来从云端到端侧、从芯片到材料的多维度创新与放量周期 [1][3][4][5] 根据相关目录分别进行总结 1. 云端算力 - 2026年国产算力芯片龙头有望进入业绩兑现期,看好国产GPU受益于先进制程扩产带来的产能释放 [3] - 国产算力进入超节点时代,看好AI ASIC服务商的关键角色,并考验Switch芯片的国产化水平 [3] - 以华为、中科曙光为代表的全栈自研路径已有重磅超节点方案发布,第三方Switch芯片厂商绑定互联网大厂客户 [11] 2. 端侧算力 - 端侧AI将正式接力云AI,端云混合架构成为技术基建核心范式,智能汽车、AI眼镜、机器人将成为率先爆发的核心载体 [15][17] - 海外端侧AI已进入实质性落地阶段,相关SoC厂商如晶晨股份在谷歌智能家居生态中持续深化绑定 [17] - 端侧模型升级催生硬件向专用协处理器演进,看好独立NPU架构领军者瑞芯微,其RK182X系列协处理器可承载3B–7B LLM的推理需求 [18][20] 3. 3D DRAM - 2026年是端侧AI存储放量元年,高带宽/低成本的3D DRAM有望在多领域放量,是端侧应用从“能用”到“好用”的关键硬件革新 [3][27] - 瑞芯微在2025年发布的RK1820和RK1828 NPU已采用3D DRAM架构,内置2.5GB/5GB DDR [22] - 手机、云端推理等场景或将成为2026年下半年及2027年的关键应用场景 [27] 4. 端侧AI模型 - 2026年,云端模型将通过数据质量与后训练优化持续提升复杂规划能力 [29] - 端侧模型通过蒸馏承接云端能力,并结合结构优化与工程化设计改善执行成功率与时延 [29][30] - 生态格局上,终端厂商、超级APP和第三方模型厂将基于入口掌控、闭环构建和分成机制展开竞争与合作 [33] 5. AI终端 - 2026年是AI终端创新元年,Meta、苹果、谷歌、OpenAI在2026年至2028年间均有新终端推出,形态以眼镜为代表,同时包括AI pin、摄像头耳机等 [34][36] - 新终端的产生离不开关键零组件的升级,建议关注SoC、电池、散热、通信、光学等方向 [34] 6. 长鑫链条 - 长鑫存储登陆资本市场将增强扩产确定性,DRAM产业链有望进入新一轮中长期景气上行通道 [38] - 长鑫重点在研的CBA架构是DRAM向3D化演进的关键技术,有望释放持续扩产动能,其产业链公司将充分受益 [3][39] - 设备环节部分优质公司还将享受渗透率快速提升,迎来戴维斯双击 [3] 7. 晶圆代工 - 国内先进制程尤其是7nm及以下供给严重不足,自2026年起出于保供意图的先进扩产将十分丰厚,晶圆代工景气维持 [3][42] - 中芯国际和华力集团有望持续扩产先进制程,同时更多主体如永芯、ICRD等也将扩产14nm [3][42][43] 8. PCB - AI服务器推动PCB材料进入全面升级周期,M9 CCL凭借超低损耗性能成为关键基材,有望推动PCB及上游高端材料价值量迅速增长 [4][47] - 英伟达Rubin架构升级显著推动PCB量价齐升,其NVL576机柜引入正交背板方案,PCB材料必须升级到M9或PTFE,单机柜PCB总价值量成倍增长 [45][46][48] - AI服务器PCB市场规模在2026年有望迈向600亿元 [45] 9. 光铜互联 - AI算力集群Scale up&out迭代持续,Scale up催生超节点爆发,铜缆凭短距低耗成为柜内互连最优解;Scale out带动集群扩容,光模块与GPU配比飙升 [4][50][52] - 以英伟达Rubin NVL 144满配CPX为例,测算3层网络下其芯片与光模块比例可达1:12 [50] - 1.6T光模块进入规模化落地期,高端光芯片供给缺口凸显 [4][52] 10. 服务器电源 - AI数据中心功率密度飙升驱动800V高压直流(HVDC)供电架构成为核心主线,电源系统全链路升级打开增量空间 [5][53][55] - AI服务器功率密度提升推动电源PCB向厚铜、嵌入式模块、先进散热等技术升级,单板价值量显著提高 [5][56] - 英伟达发布800V HVDC架构白皮书,提出清晰的渐进落地路径 [55] 建议关注公司 - 报告列出了涵盖云端算力、端侧算力、存储、AI终端、代工、设备、PCB产业链、光铜互联、HVDC等细分领域的数十家建议关注公司 [5][6]
星宸科技:目前暂未涉及TPU
证券日报· 2025-12-30 08:41
(文章来源:证券日报) 证券日报网讯 12月30日,星宸科技在互动平台回答投资者提问时表示,公司有自研的NPU,搭配可拓 展的算力架构和分布式算力芯片组,最高可覆盖至128T算力(如面向具身智能机器人大小脑等高端智 能场景)。目前暂未涉及TPU。 ...
星宸科技(301536.SZ):目前暂未涉及TPU
格隆汇· 2025-12-30 07:20
星宸科技技术布局 - 公司拥有自研的NPU(神经网络处理器),并采用可拓展的算力架构和分布式算力芯片组 [1] - 其技术方案最高可覆盖至128T算力,面向如具身智能机器人大小脑等高端智能场景 [1] - 公司目前暂未涉及TPU(张量处理器)领域 [1] 相关ETF市场数据 - 食品饮料ETF(515170)跟踪中证细分食品饮料产业主题指数,近五日下跌1.42%,市盈率为19.99倍,最新份额为103.8亿份,较前期减少1.8亿份,净赎回1.0亿元,估值分位处于17.29%的历史低位 [3] - 游戏ETF(159869)跟踪中证动漫游戏指数,近五日上涨0.48%,市盈率为37.50倍,最新份额为87.0亿份,较前期增加5800.0万份,净申购8382.7万元,估值分位为56.54% [4] - 科创50ETF(588000)跟踪上证科创板50成份指数,近五日上涨0.85%,市盈率为160.92倍,最新份额为543.4亿份,较前期增加4.9亿份,净申购7.0亿元,估值分位高达96.36% [5] - 云计算50ETF(516630)跟踪中证云计算与大数据主题指数,近五日上涨1.37%,市盈率为96.29倍,最新份额为2.5亿份,份额与净申赎金额无变化,估值分位为82.17% [5]
绕开光刻机“卡脖子”,中国新型芯片问世!专访北大孙仲:支撑AI训练和具身智能,可在28纳米及以上成熟工艺量产
每日经济新闻· 2025-12-29 10:20
技术突破与核心优势 - 北京大学团队成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,在全球范围内首次将模拟计算的精度提升至24位定点精度[2] - 该芯片将模拟计算的相对误差从1%大幅降低至千万分之一(10⁻⁷),精度提升了5个数量级,首次使模拟计算具备与主流数字计算(如FP32)接轨的数值可靠性[8][13] - 核心创新点包括:器件层面采用可量产的阻变存储器实现“现代模拟计算”范式;电路层面设计全新反馈电路实现快速近似求解;算法层面结合“位切片”与迭代优化算法高效实现高精度矩阵方程求解[15] - 相较于数字计算,模拟计算通过物理定律直接进行运算,无需二进制编码和逻辑门操作,因此在硬件资源开销与能耗上均下降数个量级,能效提升百倍,算力吞吐量提升千倍[6][10] - 该芯片可在28纳米及以上成熟制程量产,能够利用现有芯片生产线,有效绕开先进光刻机等“卡脖子”环节[2][10] 应用场景与市场定位 - 该芯片面向矩阵计算,是AI推理(矩阵乘法)、AI二阶训练(矩阵方程求解)、6G通信、具身智能及科学计算等前沿领域的核心运算单元[2][10] - 该技术特别适用于AI模型的二阶训练加速,因为二阶训练每次迭代都需解矩阵方程,计算量巨大,而该芯片擅长快速矩阵方程求解[19] - 除AI与6G外,超级计算(如气象预报、量子力学模拟)是更庞大且契合的应用场景,因为超算中心的大量算力实质上都用于求解矩阵方程[21] - 目前芯片处于实验室原理验证阶段,矩阵规模为16x16,更适用于中等规模场景,在小规模任务上性能优势不明显,尚未进行大规模应用[11][18] - 团队计划在2年内将芯片阵列规模从16x16提升至128x128,并力争达到512x512,以在具身智能、6G通信等中等规模场景产生实际效用[11][25] 行业影响与战略意义 - 该技术为算力领域提供了一条全新的“模拟计算”技术路线,有助于减少对单一数字计算范式(如GPU)的依赖[4] - 随着摩尔定律趋于终结,晶体管微缩困难,数字计算陷入能耗困局,横向堆叠计算卡(从百卡到十万卡)的方式在能耗和碳排放上不可持续,模拟计算被视为一种潜在的突破路径[5] - 该成果由中国团队在全球范围内首次实现,在模拟计算赛道上处于领先位置,为中国在算力领域提供了“换道超车”的可能性,有望降低对先进制程和英伟达GPU的单一依赖[11] - 新型芯片的问世证实了新路径的可行性,但距离真正大规模应用和“摆脱依赖”仍有很长的路,需要国家、科技界和产业界持续投入进行技术储备,以抓住未来算力需求爆发的窗口期[11][26]
北京君正(300223):计算+存储+感知+执行,多元化全面布局AI
中邮证券· 2025-12-25 08:59
投资评级 - 报告给予北京君正“买入”评级 [5][7][12] 核心观点 - 报告认为北京君正以AI为核心,构建了计算、存储、感知与执行的全栈技术体系,实现多元化全面布局 [3][12] - 在汽车数字化深化背景下,电动化、智能化、网联化推动车规级DRAM向更高容量演进,LPDDR4/4X、DDR4等产品加速替代小容量DDR3,带动单车DRAM价值量稳步提升 [4] 公司基本情况与市场地位 - 公司最新收盘价为107.19元,总市值517亿元,市盈率140.97,资产负债率6.5% [2] - 在利基型DRAM领域,公司排名全球第六,在中国大陆公司中排名第一,在全球车规级利基型DRAM供应商中排名第四 [12] - 在SRAM领域,公司排名全球第二,在中国大陆公司中排名第一,在全球车规级SRAM供应商中排名第一 [12] - 在NOR Flash领域,公司排名全球第七,在中国大陆公司中排名第三,在全球车规级NOR Flash供应商中排名第四 [12] - 在IP-Cam SoC领域,公司排名全球第三,在全球电池类IP-Cam SoC供应商中排名第一 [12] 技术布局与业务进展 - **计算领域**:基于RISC-V架构,发力AI-Vision、LLM、AI-MCU/AI-MPU等方向,持续迭代CPU与NPU技术,从NPU 1.0发展到即将推出的NPU 4.0,算力实现从0.1Tops到512Tops的跨越,满足从端级到边缘计算的多样化需求 [3][12] - **存储领域**:不断提升研发、制造与产品实力,积极布局3D-DRAM等新兴方向,通过混合键合技术叠加高带宽、低功耗、端侧AI等能力,以应对AIoT时代对存储带宽的高要求 [3][12] - **感知领域**:深耕Audio/Video处理、AI感知算法及多模态技术,升级ISP成像技术,优化音频识别与增强方案,创新音视频压缩技术,拓展万物识别和多模态识别等算法应用场景 [3][12] - **执行领域**:聚焦电机控制、打印技术与交互体验三大板块,覆盖多种电机类型、打印方式及屏显、语音等交互形式,提供“一揽子”方案 [3][12] 行业趋势与市场机遇 - 汽车ADAS与自动驾驶领域,L1/L2级别仍使用DDR3(1Gb/2Gb),但随着L2渗透率提升及L3落地,LPDDR4/4X(16Gb/32Gb)和DDR4(L)(8Gb)加速替代,LPDDR5也凭借高带宽、低功耗、高稳定性快速切入L3+场景 [4] - 车载娱乐与座舱系统领域,燃油车维持对DDR2(512Mb)/DDR3(1Gb)的需求,电动车已普遍采用DDR3,并向LPDDR4乃至LPDDR5演进,尽管车规可靠性要求延缓换代节奏,但DDR4系列长期替代DDR3的趋势不可逆转 [4] 财务预测与估值 - **收入预测**:预计公司2025-2027年营业收入分别为48.08亿元、58.91亿元、69.73亿元,对应增长率分别为14.13%、22.54%、18.36% [5][9][14] - **净利润预测**:预计公司2025-2027年归属母公司净利润分别为3.82亿元、6.59亿元、8.66亿元,对应增长率分别为4.39%、72.26%、31.49% [5][9][14] - **每股收益(EPS)**:预计2025-2027年EPS分别为0.79元、1.36元、1.79元 [9][14] - **估值指标**:基于预测,公司2025-2027年市盈率(P/E)分别为135.30倍、78.54倍、59.74倍,市净率(P/B)分别为4.11倍、3.93倍、3.72倍 [9][14] - **相对估值参考**:参考A股存储、MCU、SOC、模拟公司进行相对估值分析,可比公司2025年iFind一致预期PS均值为15.74倍 [12] - **历史财务表现**:2024年公司营业收入为42.13亿元,同比下降7.03%,归属母公司净利润为3.66亿元,同比下降31.84% [9][14]
2025年中国AI推理芯片行业政策、产业链、发展现状及发展趋势研判:产业链加速重构,竞争格局将形成"一超三强"的竞争态势[图]
产业信息网· 2025-12-18 01:43
AI推理芯片行业基本概述 - AI推理芯片是专门用于加速人工智能模型推理的高性能计算芯片,其核心特点是注重能效比、低延迟和高吞吐量以满足实时应用需求[1][4] - AI芯片广义涵盖各类AI应用芯片,狭义指针对深度学习优化的加速芯片,主要类型包括GPU、FPGA和ASIC,核心功能是高效执行数据训练与推理任务[2] - 人工智能芯片可根据场景与功能分为云端训练、云端推理、终端训练和终端推理四个类别[2] AI推理芯片行业发展现状与规模 - 当前AI算力需求正从训练阶段向推理阶段发生结构性转变,为行业带来重要战略机遇,AI推理芯片行业正进入爆发式增长阶段[1][4][5] - 2024年中国AI推理芯片相关产品及服务市场规模增长至1626亿元,较2023年增加1052亿元,预计2025年市场规模将增长至3106亿元[1][5] - 从产品结构看,2024年GPU占据81.6%的市场份额,NPU占16%,预计2025年GPU份额为78.40%,NPU份额为19.30%[1][5] AI推理芯片行业产业链 - 行业产业链上游主要包括人工智能算法、半导体材料、EDA工具、半导体IP供应商及相关生产设备[6] - 行业中游为AI推理芯片行业,涵盖芯片设计、制造、封装、测试环节与相关产品及服务[6] - 行业下游广泛应用于数据中心、边缘计算设备和智能终端等领域,为图像识别、语音处理、自然语言处理等AI应用提供计算支持[6] AI推理芯片行业发展环境与政策 - 中国政府将AI芯片视为人工智能领域的核心基础设施,并将其纳入国家科技战略重点[8] - 近年来全国各地相继推出许多相关政策促进AI芯片行业发展,带动AI推理芯片行业快速发展[8] - 列举的相关政策包括《国家"十五五"规划(2026-2030)》《关于深入实施人工智能+行动的意见》及北京、深圳、苏州等地的具体行动方案和措施[8] AI推理芯片行业竞争格局 - 中国AI推理芯片行业呈现"国际巨头主导通用市场,国产力量在细分场景快速突围"的竞争格局,国产替代进程持续提速[8] - 国内本土主要厂商包括华为、百度、海光信息、商汤、旷视科技、依图科技、寒武纪、云天励飞、天数智芯、沐曦股份等[2][8] - 预计到2026年,英伟达、谷歌、高通、华为将形成"一超三强"的竞争态势,在技术路线、市场定位与生态布局上呈现复杂关系[9] AI推理芯片行业发展趋势 - AI推理芯片是产业刚需也是战略高地,随着人工智能技术快速迭代和大规模应用,全球产业链加速重构,市场竞争格局深刻调整[9] - 预计2026年AI推理赛场既是技术创新的竞技场,也是生态布局的博弈场[9] - 行业技术创新将围绕能效优化、架构革新、生态整合三大方向展开,推动推理能力从云端向边缘全域渗透[9]
NPU,大有可为
半导体芯闻· 2025-12-15 10:17
文章核心观点 - PC OEM和芯片供应商正指望消费者对人工智能(AI)的兴趣来推动PC出货量增长,这种增长在几年来从未见过 [3] - 人工智能PC和集成的NPU仍处于早期阶段,但MPR预计NPU将在AI PC中承担大部分AI工作负载 [3] - 硬件加速器的兴起是不可否认的,NPU已经与CPU和GPU一起巩固了其作为现代计算基础设施必不可少的组成部分的地位 [15] - 随着NPU部署越来越广泛,MPR预计PC上运行的大多数AI相关工作负载将转移到NPU,最终GPU上只剩下很少一部分 [19] NPU的兴起与定义 - 神经处理单元(NPU)是一种专门为加速人工智能任务而设计的新型专用计算硬件 [3] - 与其更成熟的前身GPU一样,NPU提供了一个专门优化的专用硬件平台,可以高效执行某些类型的计算 [3] - NPU拥有专为AI工作负载量身定制的专用体系结构,具有专用的乘累加(MAC)单元,通常将MAC单元排列成MAC阵列以匹配大型神经网络的矩阵结构 [6] - 例如,Intel Lunar Lake处理器中的集成NPU具有12,000个MAC单元 [6] - 大多数NPU还具有其他AI专用硬件,例如小数据类型(如:FP8和INT4)的加速以及ReLU、sigmoid和tanh等激活函数 [6] NPU的发展历程 - NVIDIA于2017年推出了第一款独立的NPU,即V100,引入了专用Tensor Core [5] - Apple在2017年推出了第一款集成式NPU,即A11 Bionic SoC中的神经引擎 [5] - 直到2020年Apple的M1,集成式NPU才出现在PC中 [5] - 在智能手机领域,Apple、高通、华为等SoC提供商已将NPU集成到其产品中好几个代次 [8] - 2023年,AMD和Intel分别推出了首款集成NPU的x86 PC处理器Phoenix和Meteor Lake [8] AI PC的竞争与标准 - 为了支持人工智能PC,处理器供应商一直在其异构PC处理器中添加集成的NPU [3] - Intel、AMD和高通都推出了符合微软要求的产品,即集成的NPU提供每秒至少40万亿次运算(TOPS),以支持Copilot+ AI助手 [3] - 微软设定了集成NPU的最低要求,至少要有40TOPS,以确保Copilot+品牌的PC能够高效处理AI任务 [9] - 高通率先推出了骁龙 X Elite和骁龙X Plus处理器,NPU能够达到45TOPS [9] - AMD和Intel紧随其后,分别推出了Strix Point和Lunar Lake处理器 [9] - 整个PC生态系统都高度依赖AI PC的成功;Copilot+ 品牌被认为对于假期前推出的PC的成功至关重要 [9] NPU的技术演变 - 当今的许多NPU本质上都是数字信号处理器(DSP)的进化演变版本,DSP具有专门用于处理计算密集型任务的体系结构 [10] - NPU通常具有一个或多个小型DSP来处理向量运算,而矩阵运算则被卸载到更大的MAC阵列上 [11] - 集成到AMD Strix Point处理器中的XDNA 2 NPU代表了赛灵思XDNA AI引擎的演变,后者本身是从赛灵思DSP演变而来的 [14] - 高通基于Arm平台的Hexagon NPU直接从该公司的Hexagon DSP进行了更直接的演变 [14] - Intel的NPU 4首次集成到Lunar Lake处理器中,其演变源于2016年从Movidius收购的技术,从支持神经网络硬件加速的第一代Movidius IP发展而来 [14] NPU在AI工作负载中的角色与展望 - 目前,机器学习工作负载以及深度学习活动正在以大致相等的比例利用NPU、GPU和CPU,但这种相对平衡将迅速改变 [3] - NPU不会完全取代所有人工智能工作负载的CPU和GPU,LLM训练和推理需要结合CPU密集型任务和NPU密集型任务 [15] - 优化LLM的性能需要仔细考虑load阶段(依赖CPU)、预填充阶段(依赖NPU)和token阶段(依赖NPU和DRAM带宽) [16] - 需要一种利用每个主要处理组件优势的协同方法:NPU针对矩阵乘法,GPU处理并行任务,CPU处理顺序任务 [16] - Intel内部研究表明,独立软件供应商(ISV)计划在2025年将约30%的AI工作负载编写为在NPU上执行,高于今年的25% [18] - 为CPU编写的AI工作负载百分比预计将从今年的约35%下降到明年的约30%,而为GPU编写的AI工作负载百分比预计将在两年内保持在约40%的水平 [18] - AMD预计到今年年底,将有超过150家软件供应商的产品可以利用集成到其Ryzen AI产品中的NPU [18] - 随着NPU的部署越来越广泛,越来越多的软件被编写来利用它们,平衡将发生倾斜,更多的AI工作负载将转移到最优化的计算元素上 [19]