核心观点 - 华为发布并开源AI容器技术Flex:ai 旨在通过提升算力资源利用率与构建开源生态 推动AI技术在各行业的普及和落地 [1][2][9] 技术定位与行业背景 - Flex:ai是一款基于Kubernetes构建的XPU池化与调度软件 定位为AI时代的容器技术 [1][2] - 容器技术可将模型代码、运行环境打包成独立镜像 实现跨平台无缝迁移 解决部署环境配置痛点 [2] - 预计到2027年 75%以上的AI工作负载将采用容器技术进行部署和运行 [2] - 传统容器技术已无法完全满足AI工作负载需求 行业需要专用的AI容器技术 [2] 核心能力与性能提升 - Flex:ai可将AI工作负载场景下的算力资源平均利用率提升30% [1] - 其关键能力包括算力资源切分、多级智能调度、跨节点算力资源聚合 [2] - 算力资源切分可将单张GPU/NPU卡切分为多份虚拟算力单元 切分粒度精准至10% 实现单卡同时承载多个AI负载 [3] - 通过智能调度技术 实现对AI工作负载与算力资源的精准匹配 [2] 竞争优势与技术创新 - 相比英伟达Run:ai 该技术具备虚拟化和智能调度两大独特优势 [5][6] - 虚拟化优势包括本地虚拟化切分和独有的“拉远虚拟化”技术 可将集群内各节点空闲XPU算力聚合形成“共享算力池” [5] - 拉远虚拟化技术使不具备智能计算能力的通用服务器 可通过高速网络将AI负载转发到远端资源池执行 实现通用算力与智能算力融合 [5] - 智能调度可自动感知集群负载与资源状态 结合负载优先级等多维参数 进行全局最优调度 [6] - 在资源占满情况下 该技术能直接抢占其他任务资源 确保高优先级任务完成 [6] 开源战略与生态构建 - 公司将Flex:ai同步开源至魔擎社区 旨在加速AI技术平民化并构建完整的ModelEngine开源生态 [1][7][9] - ModelEngine开源生态包含Nexent智能体框架、AppEngine、DataMate、UCM等AI工具 提供从数据预处理到模型部署的一站式服务 [7] - 开源Flex:ai可提供提升算力利用率的基础能力及优秀实践案例 与业界共同探索行业场景落地 [9] - 通过产学研开发者参与 共同推动异构算力虚拟化与AI应用平台对接的标准构建 形成算力高效利用的标准化解决方案 [9]
见证历史!华为,重大发布
中国基金报·2025-11-21 09:42