行业里程碑与核心议题 - 2024年GPU销售额首次超越CPU,标志着半导体产业进入由加速计算主导的新周期[1] - 核心议题在于:随着GPU、NPU、ASIC等加速器接管大规模并行计算任务,传统CPU的角色与未来定位受到挑战[1] - GenAI计算重心的转移并未消除对主机处理器的需求,但彻底改变了对CPU性能指标的定义[1] CPU面临的挑战与效率瓶颈 - 传统以CPU为中心的架构在处理AI工作负载时效率低下,存在数据多次搬运的问题,导致昂贵的加速器硬件资源利用率受限,推高系统整体功耗与成本[2] - 现代CPU依赖的“推测执行”技术在处理主要由大规模向量和矩阵运算构成的AI负载时,容易出现预测失败,导致流水线频繁刷新,造成额外的能源浪费与延迟[2] 处理器行业的革新方向 - 第一层革新是微架构层面的“去推测化”,例如“基于时间的确定性执行模型”专利,它摒弃推测机制,采用静态调度策略,指令仅在数据就绪的确定时刻分发,以更低的晶体管开销和功耗实现高可扩展性[3] - 第二层革新是系统级架构的“专用化分流”,例如将网络排序、服务质量管理和数据预处理功能从CPU软件栈剥离,下沉至“网络附加处理单元”等专用硬件,实现数据路径的硬件加速[3] - 主流x86处理器通过集成AMX等专用加速指令集进行自我进化,优化对bf16和int8等低精度数据类型的处理能力,以提升自身处理矩阵运算的效率[4] AI时代CPU的市场需求与应用场景 - 尽管训练端需求高涨,但推理端市场对成本和能效敏感,为新型CPU提供了广阔空间,美国数据中心CPU需求预计将保持7.4%的复合年增长率[5][6] - 对于参数量在7B至13B之间的中小模型或单用户实时交互请求,现代服务器CPU已能提供足够吞吐量,利用公有云中大量利用率低于20%的闲置CPU资源进行推理,具有显著的总拥有成本优势[6] - AI大模型对内存容量的渴求重塑了CPU价值,CPU主内存通过CXL等高速互联技术与GPU共享,充当加速器的L4缓存,内存通道数量、带宽及互联速度成为比核心频率更关键的选型指标[7] - 在边缘计算和终端设备领域,异构协同需求超越单一芯片性能,CPU负责低延迟逻辑控制和实时交互,在语音转文字、复杂逻辑调度及实时运动控制等场景中响应速度优于GPU[7][8] 产业竞争格局与主要参与者 - 专注于AI专用架构的初创企业开始冒头,例如以色列公司NeuReality完成3500万美元A轮融资,总融资额达4800万美元,其NR1芯片被定义为“网络附加处理单元”,集成了Arm Neoverse核心及多个专用引擎,声称能将AI应用总拥有成本改善10倍[9] - 传统巨头进行战略调整与生态融合,英伟达于2025年9月宣布向英特尔投资50亿美元并开展基础设施合作,表明高性能x86 CPU作为异构集群通用底座和生态入口的战略价值依然重要[10] - Arm架构在服务器领域份额持续攀升,预计2025年将占据全球服务器出货量的21.1%,得益于AWS自研Graviton芯片及富士通等厂商的推动,富士通与Scaleway合作利用基于Arm的CPU平台构建高能效AI推理环境[10][11] - 市场呈现复杂生态:在核心AI训练集群中,为保证软件生态兼容性和稳定性,x86 CPU仍是首选;未来市场将是x86与Arm并存、通用CPU与专用AI CPU互补、CPU与加速器深度协同的阶段[11]
CPU,为何“偷偷转型”?
36氪·2025-12-13 04:10