安谋科技Arm China“周易”X3 NPU IP,树立端侧AI新标杆!
半导体行业观察·2025-11-18 01:40

行业背景与核心痛点 - 端侧智能设备对AI计算需求呈爆发式增长,应用场景包括智能汽车、AI PC、物联网和移动终端的大模型应用 [2] - 端侧AI规模化落地的核心痛点包括算力受限、带宽瓶颈和开发门槛高 [2] - NPU作为AI计算专用引擎,正成为推动端侧智能落地的关键力量 [2] 公司战略与产品发布 - 安谋科技于2025年11月13日在上海正式发布专为大模型而生的新一代“周易”X3 NPU IP [3] - 此次发布是公司“All in AI”战略和“AI Arm CHINA”战略发展方向的关键实践 [3][5] - 公司自2018年布局NPU领域以来,已成功交付5代NPU产品并实现终端商业落地,拥有本土全栈式研发团队 [10] - 公司将持续加大投入,整合顶尖研发资源,为生态伙伴提供从硬件、软件到技术服务的全流程解决方案 [8] 硬件架构革新 - “周易”X3采用专为大模型设计的最新DSP+DSA架构,完成了从定点到浮点计算的关键转变 [13] - 单Cluster最高支持4个Core,具备8–80 FP8 TFLOPS的灵活算力配置,单Core带宽高达256GB/s [15] - 自研解压硬件WDC能让大模型Weight软件无损压缩后获得额外15%-20%的等效带宽提升 [15] - 新增W4A8/W4A16计算加速模式,通过低比特量化大幅降低带宽消耗,支持云端大模型向端侧高效迁移 [17] - 集成AI专属硬件引擎AIFF与专用硬化调度器,实现超低至0.5%的CPU负载与低调度延迟 [17] - 支持int4/int8/int16/int32/fp4/fp8/fp16/bf16/fp32等多精度融合计算,灵活适配从传统CNN到前沿大模型的多样化数据类型需求 [23] 软件生态与性能表现 - 搭载全新升级的Compass AI软件平台,广泛兼容TensorFlow、PyTorch、Hugging Face、ONNX等主流AI框架,原生支持Hugging Face模型库 [17] - Compass AI平台已覆盖超160种算子与270多种模型,包括LLM、VLM、VLA及MoE等前沿模型,支持GPTQ等主流量化方案 [19] - 平台已将Parser、Optimizer、Linux Driver等核心组件开源,提供丰富的调试工具和易用的DSL算子编程语言,允许客户开发自定义算子 [19] - 在实际测试中,CNN模型性能较上一代“周易”X2产品提升30%-50%,多核算力线性度达70%-80% [23] - 同算力规格下,AIGC大模型能力提升10倍,Llama2 7B大模型Prefill阶段算力利用率高达72%,Decode阶段有效带宽利用率超100% [23] 应用场景与赋能领域 - “周易”X3 NPU IP的应用场景已全面覆盖基础设施、智能汽车、移动终端、智能物联网四大核心领域 [28] - 在基础设施领域,支持CNN与大模型等多样结构的AI模型加速,为数据中心及边缘计算节点提供核心算力 [30] - 在智能汽车领域,可为ADAS系统的自动泊车功能提供高性能AI算力,也能支持IVI系统的语音与视频智能互动 [30] - 在移动终端领域,可实现AI PC、AI手机的超分渲染,并支持基于大模型的AI Agent应用 [30] - 在智能物联网领域,为智能网关、智能IPC等设备提供本地AI推理能力,提升响应速度并保障隐私安全 [30] - 产品家族技术演进路径清晰:Z1系列赋能AIoT基础感知,X2系列实现端侧多模态AI流畅运行,X3系列展现主流大模型的文生文、文生图、图生文等复杂认知能力 [31] 未来发展方向 - 将持续强化计算架构的通用计算能力与扩展能力,提升单核Scale-up/Down与多核Scale-out性能,探索多Die、多Chip协同技术 [33] - 软件层面将优化编程模型,打造更友好的软件使用界面与层次化完备的接口,支持更多数据格式与网络结构 [33] - 将深化开放生态布局,拓展更多合作模式,推动软硬件协同开发与高效部署 [33] - 公司致力于为中国智能计算“芯”生态的发展助力赋能,为国内“AI+”产业升级构建坚实的智能计算基石 [35]