破解算力资源利用难题,华为联合三大高校发布并开源AI容器技术
观察者网·2025-11-24 02:05

行业背景与问题 - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低问题日益凸显 [1] - 算力资源浪费表现为小模型任务独占整卡导致资源闲置,大模型任务单机算力不足,大量缺乏GPU/NPU的通用服务器算力处于休眠状态 [1] 技术解决方案概述 - 公司发布并开源AI容器技术Flex:ai,其核心是XPU池化与调度软件,基于Kubernetes容器编排平台构建 [3] - 该技术通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配,旨在提升算力利用率 [3] - 技术是与上海交通大学、西安交通大学、厦门大学共同研发的产学合作成果 [1][3] 核心技术突破一:XPU池化框架 - 针对小模型训推场景资源浪费问题,与上海交通大学联合研发XPU池化框架 [4] - 可将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,实现单卡同时承载多个AI工作负载 [4] - 通过弹性资源隔离技术实现算力单元按需切分,使此类场景整体算力平均利用率提升30% [4] 核心技术突破二:跨节点拉远虚拟化 - 针对通用服务器缺乏智能计算单元问题,与厦门大学联合研发跨节点拉远虚拟化技术 [4] - 将集群内各节点空闲XPU算力聚合形成共享算力池,为高算力需求工作负载提供支撑 [4] - 允许通用服务器通过高速网络将AI工作负载转发到远端资源池中的GPU/NPU算力卡执行,促进通用算力与智能算力资源融合 [4] 核心技术突破三:智能调度器 - 针对多品牌、多规格异构算力资源统一调度痛点,与西安交通大学共同打造Hi Scheduler智能调度器 [5] - 调度器可自动感知集群负载与资源状态,结合AI工作负载优先级、算力需求等多维参数,对本地及远端虚拟化资源进行全局最优调度 [5] - 实现AI工作负载分时复用资源,在负载频繁波动场景下保障工作负载平稳运行 [5]