Apple Silicon 五周年,无心插柳长出了一片 AI 市场
苹果苹果(US:AAPL) 36氪·2025-12-08 11:14

苹果macOS 26.2 Beta的AI能力升级 - 苹果在最新的macOS 26.2 Developer Beta中进行了两项重大改进,旨在强化Mac的AI能力,特别是集群化部署[10] - 第一项改进是苹果的开源阵列框架MLX现在可以调用M5处理器的神经网络加速器,使得第三方AI模型也能利用此硬件加速,提升了响应速度和模型微调的灵活性[10][12] - 第二项改进是Mac集群可以使用一种新的基于雷雳5协议的更高速传输通道,以优化集群间的数据传输[10] 神经网络加速器与MLX框架的拓展 - M5处理器在GPU的每个核上都加入了神经网络加速器,实现了跑本地模型“10核赶上24核”的效果[10] - 更新后的MLX框架让开发者能在macOS程序中部署和微调AI模型,并实现纯本地运行,使得不依赖Apple Intelligence的Mac用户也能受益于硬件加速[12] - 这一改进为Mac整体AI能力的进一步提升打下了基础[14] 雷雳5协议优化与集群性能突破 - 此前,Mac集群通过雷雳5物理连接,但macOS仅支持通过TCP-IP协议进行通信,这导致了较高的节点间延迟,限制了负载分配效率,只能使用相对低效的“管线并行”方式[18][20][21] - macOS 26.2 Beta引入了一套新的以雷雳5为基础的连接协议,大幅改进了传输延迟,实现了超低延迟的大带宽交换[23] - 新协议让集群中的每块M3 Ultra处理器都能直接调度全部2TB的统一内存池,效果类似RDMA,但完全依赖现有雷雳5硬件,无需额外网卡或光模块[23][25] - 这一优化使得Exo Labs在其最新软件Exo V3中实现了更高效的“张量并行”负载分配,相比旧的“TCP-IP + 管线并行”方案,极大提升了任务协调效率和每秒生成的token数[25] 实际应用与性能表现 - 借助新协议,Exo V3允许在不同型号的M系列处理器间搭建集群,并可灵活选择TCP-IP或雷雳5协议、管线并行或张量并行方式[27] - 在四台顶配M3 Ultra Mac Studio集群上,Exo V3成功纯本地运行了量化后约800GB内存的Kimi-K2-Thinking模型,这是一个采用混合专家架构的一万亿参数大语言模型,输出速度达到约25 token/秒[27][28][30] - 该模型总参数量为1T,激活参数量为32B,其规模与主流闭源模型如Gemini 1.5和GPT-4(1~2万亿参数MoE架构)相近[28][30] - 运行该万亿参数模型时,四台Mac Studio集群的总功耗仅为500W左右[38] 对企业和商业市场的潜在价值 - 苹果强化Mac的集群AI性能,主要瞄准了“企业本地部署”市场,该市场因商业信息保密和细分化需求,对纯本地化AI解决方案有强烈需求[34][36] - 与传统散装服务器方案相比,Mac Studio集群在空间占用、散热规模和用电成本上具有显著优势,其总拥有成本可能远低于传统方案[38][39] - Mac集群保留了纯本地运行AI模型的所有优势,包括数据私密性、全方位的模型微调能力以及动态负载分配能力,这些特性对企业部署场景至关重要[41] - 对于企业用户而言,这些优势可能比“绝对性能”更为重要[41] 技术积累与战略意义 - Mac成为有竞争力的本地AI工作站,部分源于苹果此前技术积累的“无心插柳”,包括统一内存架构、雷雳5接口以及在GPU核心中集成神经网络加速器等设计[42][48][51] - 这些最初为其他目标(如跨端体验一致性、高规格音画输出、Apple Intelligence)设计的技术,恰好契合了AI模型行业化、规模化应用爆发时对隐私、能效和成本控制的核心诉求[44][46][51] - macOS 26.2是一次纯软件更新,后续所有支持雷雳5的Mac机型都能在集群场景中受益,提升了现有Mac设备(如用于内容创作的Mac Studio)的潜在价值和应用范围[46]