Workflow
周易X3 NPU IP
icon
搜索文档
安谋科技发布“AI Arm China”战略发展方向,携手产业共创AI未来
半导体行业观察· 2025-11-24 01:34
公司战略发布 - 在ICCAD-Expo 2025上正式发布"AI Arm CHINA"战略发展方向,公司将全力投入AI领域 [3][5] - 战略核心是紧密连接Arm全球生态,深耕中国本土创新,并以AI为文化内核,全员聚焦AI持续创新 [3] - 公司将把握AI加速渗透至千行百业的时代机遇,用AI+思维重构半导体等行业 [6] AI行业趋势与Arm平台优势 - AI正以前所未有的速度从云渗透至边端侧,深度融入基础设施、智能制造、智慧医疗等关键领域 [10] - 模型规模突破万亿参数等趋势对计算平台提出更高要求,需要兼顾高性能、高能效与高扩展性的新一代计算平台 [10] - Arm是唯一能覆盖全范围AI计算需求(从毫瓦级到兆瓦级)的平台,头部云服务商采用的Arm架构芯片可实现高达40%的能效提升 [10][12] - 预计2025年出货到头部超大规模云服务提供商的算力中有近50%基于Arm架构 [12] - 基于Arm架构的芯片累计出货量已超过3250亿颗,Arm在全球拥有超2200万开发者规模的生态系统 [12] 中国市场布局与自研IP成果 - 中国市场是公司的战略落脚点,国内授权客户已超440家,累计芯片出货量突破425亿颗 [14] - 公司已布局四大自研IP产品线,包括"周易"NPU、"星辰"CPU、"山海"SPU和"玲珑"多媒体系列 [14] - 近期发布周易X3 NPU IP,采用专为大模型而生的最新架构,覆盖基础设施、智能汽车等四大场景 [16] - 展示第三代自研CPU IP星辰MC3,提供更强的AI能力、更广的兼容性、更高的面效比和更低的功耗 [16] 产品展示与未来规划 - 展台Demo区展示了联合合作伙伴推出的前沿解决方案及终端品类,实现了端侧AI大模型无需联网的落地体验 [18] - 公司正推进两项重要布局:在香港成立国际研发中心聚焦AI、机器人等领域,上海Office将入驻西岸智塔AI Tower以融入中国AI产业集群 [19] - 各自研IP产品矩阵正全面向AI+方向加速演进,并在多个关键场景取得突破性进展 [19]
安谋科技Arm China“周易”X3 NPU IP,树立端侧AI新标杆!
半导体行业观察· 2025-11-18 01:40
行业背景与核心痛点 - 端侧智能设备对AI计算需求呈爆发式增长,应用场景包括智能汽车、AI PC、物联网和移动终端的大模型应用 [2] - 端侧AI规模化落地的核心痛点包括算力受限、带宽瓶颈和开发门槛高 [2] - NPU作为AI计算专用引擎,正成为推动端侧智能落地的关键力量 [2] 公司战略与产品发布 - 安谋科技于2025年11月13日在上海正式发布专为大模型而生的新一代“周易”X3 NPU IP [3] - 此次发布是公司“All in AI”战略和“AI Arm CHINA”战略发展方向的关键实践 [3][5] - 公司自2018年布局NPU领域以来,已成功交付5代NPU产品并实现终端商业落地,拥有本土全栈式研发团队 [10] - 公司将持续加大投入,整合顶尖研发资源,为生态伙伴提供从硬件、软件到技术服务的全流程解决方案 [8] 硬件架构革新 - “周易”X3采用专为大模型设计的最新DSP+DSA架构,完成了从定点到浮点计算的关键转变 [13] - 单Cluster最高支持4个Core,具备8–80 FP8 TFLOPS的灵活算力配置,单Core带宽高达256GB/s [15] - 自研解压硬件WDC能让大模型Weight软件无损压缩后获得额外15%-20%的等效带宽提升 [15] - 新增W4A8/W4A16计算加速模式,通过低比特量化大幅降低带宽消耗,支持云端大模型向端侧高效迁移 [17] - 集成AI专属硬件引擎AIFF与专用硬化调度器,实现超低至0.5%的CPU负载与低调度延迟 [17] - 支持int4/int8/int16/int32/fp4/fp8/fp16/bf16/fp32等多精度融合计算,灵活适配从传统CNN到前沿大模型的多样化数据类型需求 [23] 软件生态与性能表现 - 搭载全新升级的Compass AI软件平台,广泛兼容TensorFlow、PyTorch、Hugging Face、ONNX等主流AI框架,原生支持Hugging Face模型库 [17] - Compass AI平台已覆盖超160种算子与270多种模型,包括LLM、VLM、VLA及MoE等前沿模型,支持GPTQ等主流量化方案 [19] - 平台已将Parser、Optimizer、Linux Driver等核心组件开源,提供丰富的调试工具和易用的DSL算子编程语言,允许客户开发自定义算子 [19] - 在实际测试中,CNN模型性能较上一代“周易”X2产品提升30%-50%,多核算力线性度达70%-80% [23] - 同算力规格下,AIGC大模型能力提升10倍,Llama2 7B大模型Prefill阶段算力利用率高达72%,Decode阶段有效带宽利用率超100% [23] 应用场景与赋能领域 - “周易”X3 NPU IP的应用场景已全面覆盖基础设施、智能汽车、移动终端、智能物联网四大核心领域 [28] - 在基础设施领域,支持CNN与大模型等多样结构的AI模型加速,为数据中心及边缘计算节点提供核心算力 [30] - 在智能汽车领域,可为ADAS系统的自动泊车功能提供高性能AI算力,也能支持IVI系统的语音与视频智能互动 [30] - 在移动终端领域,可实现AI PC、AI手机的超分渲染,并支持基于大模型的AI Agent应用 [30] - 在智能物联网领域,为智能网关、智能IPC等设备提供本地AI推理能力,提升响应速度并保障隐私安全 [30] - 产品家族技术演进路径清晰:Z1系列赋能AIoT基础感知,X2系列实现端侧多模态AI流畅运行,X3系列展现主流大模型的文生文、文生图、图生文等复杂认知能力 [31] 未来发展方向 - 将持续强化计算架构的通用计算能力与扩展能力,提升单核Scale-up/Down与多核Scale-out性能,探索多Die、多Chip协同技术 [33] - 软件层面将优化编程模型,打造更友好的软件使用界面与层次化完备的接口,支持更多数据格式与网络结构 [33] - 将深化开放生态布局,拓展更多合作模式,推动软硬件协同开发与高效部署 [33] - 公司致力于为中国智能计算“芯”生态的发展助力赋能,为国内“AI+”产业升级构建坚实的智能计算基石 [35]