Workflow
AI容器技术
icon
搜索文档
华为联合三大高校发布并开源AI容器技术Flex:ai,助力破解算力资源利用难题
新浪科技· 2025-11-24 14:03
行业背景与核心问题 - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低问题日益凸显 [1] - 算力资源浪费成为产业发展关键桎梏,具体表现为小模型任务独占整卡导致资源闲置,大模型任务单机算力不足,大量缺乏GPU/NPU的通用服务器处于算力休眠状态 [1] 技术发布与合作 - 华为公司副总裁周跃峰在2025 AI容器应用落地与发展论坛上正式发布AI容器技术Flex:ai [1] - 华为联合上海交通大学、西安交通大学与厦门大学共同宣布将此项产学合作成果向外界开源 [1] 技术方案与核心突破 - 发布的Flex:ai XPU池化与调度软件基于Kubernetes容器编排平台构建,旨在通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配 [1] - 华为与上海交通大学联合研发XPU池化框架,可将单张GPU或NPU算力卡切分为多份虚拟算力单元,使小模型训推场景下的整体算力平均利用率提升30% [2] - 华为与厦门大学联合研发跨节点拉远虚拟化技术,将集群内各节点的空闲XPU算力聚合形成共享算力池,促进通用算力与智能算力资源融合 [2] - 华为与西安交通大学共同打造Hi Scheduler智能调度器,实现AI工作负载分时复用资源,保障在负载频繁波动场景下AI工作负载的平稳运行 [2]
永信至诚(688244.SH):在AI容器技术领域的相关技术和产品已在多个行业领域实现应用落地
格隆汇· 2025-11-24 08:35
公司AI容器技术储备 - 公司在AI容器技术领域已形成完整技术储备 [1] - 相关技术已应用于元方AI实训及科研平台、元方"原生安全"大模型一体机等AI类产品 [1] 元方AI实训及科研平台技术细节 - 公司研发了统一的基于容器的AI算力统一调度平台 [1] - 平台可将多台服务器的算力进行统一管理 [1] - 平台支持对GPU算力、显存等进行细粒度的切分 [1] - 通过容器技术为算法、模型的研发、实训、科研、竞赛等提供支持 [1] 技术应用价值与市场落地 - 该技术如同"AI算力调度专家",能将昂贵的GPU算力精细拆分、灵活调配 [1] - 通过容器技术提升了算力的有效利用率 [1] - 相关技术和产品已在多个行业领域实现应用落地 [1]
华为发布AI容器技术Flex:AI,国产算力再次突破
中邮证券· 2025-11-24 05:50
行业投资评级 - 行业投资评级为“强于大市”并维持此评级 [1] 核心观点 - 华为发布并开源创新AI容器技术Flex:ai,通过算力切分技术将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,旨在解决行业内算力资源平均利用率仅为30%至40%的难题 [4] - 在无法充分利用整卡算力的AI工作负载场景下,华为Flex:ai技术可使算力资源平均利用率提升30% [4] - Gartner预测,到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行 [5] - 与英伟达Run:ai相比,华为Flex:ai在虚拟化、智能调度等方面具备独特优势,并秉持开源与兼容异构算力理念,可实现对英伟达、昇腾及其他第三方算力资源的统一管理和高效利用 [5] - 该技术是“以软件能力补齐硬件短板”的确定性突破,其核心围绕“XPU池化+算力细粒度切分+全局智能调度”三大支柱,致力于提升AI集群算力利用效率、降低生态迁移门槛、加速模型训练与推理落地进程 [6][7] 行业基本情况与表现 - 行业收盘点位为5068.36,52周最高点为5841.52,52周最低点为3963.29 [1] - 行业指数相对沪深300指数的表现数据涵盖从2024年11月至2025年11月,具体相对值变化区间为-13%至27% [3] 建议关注领域及公司 - 报告建议关注两大方向:AI容器技术领域与国产算力领域 [7] - AI容器领域建议关注公司包括:博睿数据、浩瀚深度、普元信息、青云科技、实达集团、首都在线、中亦科技、南威软件、浪潮数字企业 [7] - 国产算力领域建议关注公司包括:寒武纪、云天励飞、亿都(国际控股)、浪潮信息、曙光数创、超讯通信、瑞晟智能、华丰科技、神州数码、软通动力、烽火通信、广电运通、拓维信息、四川长虹、润建股份、数据港、润泽科技、光环新网、科华数据、奥飞数据、优刻得、立讯精密、安博通等 [7]
华为联合三大高校发布并开源AI容器技术Flex:ai
经济观察网· 2025-11-22 06:17
行业背景与问题 - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低问题日益凸显 [1] - 算力资源浪费成为产业发展关键桎梏,具体表现为小模型任务独占整卡导致资源闲置、大模型任务单机算力不足难以支撑、大量缺乏GPU/NPU的通用服务器处于算力休眠状态 [1] - 供需错配造成严重的资源浪费 [1] 技术发布与核心能力 - 华为公司发布AI容器技术Flex:ai,该技术为XPU池化与调度软件,基于Kubernetes容器编排平台构建 [1] - 技术通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配,可大幅提升算力利用率 [1] - 技术形成三大核心技术突破:算力资源切分实现一卡变多卡服务多个AI工作负载、跨节点算力资源聚合充分利用空闲算力、多级智能调度实现负载与资源精准匹配 [1] 合作模式与开源策略 - 华为公司联合上海交通大学、西安交通大学与厦门大学共同宣布将此项产学合作成果向外界开源 [1] - Flex:ai的全面开源开放将向产学研各界开发者开放所有核心技术能力 [2] - 开源目标是通过汇聚全球创新力量,共同推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案 [2] 战略意义与行业影响 - 此项产学合作成果旨在助力破解算力资源利用难题 [1] - 标准化解决方案将为全球AI产业的高质量发展注入强劲动能 [2]
华为大动作!AI新技术
中国证券报· 2025-11-21 12:59
行业趋势与痛点 - 容器技术作为一种轻量级虚拟化技术,可将模型代码、运行环境打包成独立镜像,实现跨平台无缝迁移并解决环境配置不一致问题 [1] - 研究机构Gartner预测,到2027年75%以上的AI应用将采用容器技术进行部署 [1] - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低问题凸显,包括小模型任务独占整卡导致闲置、大模型任务单机算力不足、大量通用服务器算力处于休眠状态 [1] 公司技术发布 - 华为公司发布AI容器技术Flex:ai,旨在解决大任务单机算力不够用、多任务并发调度等问题 [2] - Flex:ai是基于Kubernetes容器编排平台构建的XPU池化与调度软件,通过对GPU、NPU等算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配 [2] - 该技术可按需挂载GPU、NPU算力资源,按需分配和回收资源,从而提升集群整体资源利用率 [1] 技术影响与展望 - 强扩展性的容器技术将进一步推动AI应用的部署落地 [1] - 华为将此项产学合作成果向外界开源,旨在助力破解算力资源利用难题 [1] - 公司计划与合作高校持续完善Flex:ai软件,推动AI技术平民化 [2]
华为联合高校发布并开源AI容器技术 助力算力利用效率提升
证券时报网· 2025-11-21 11:17
技术发布与开源 - 华为公司于2025AI容器应用落地与发展论坛上正式发布AI容器技术Flex:ai [1] - 该技术由华为联合上海交通大学、西安交通大学与厦门大学共同研发,并宣布将此项产学合作成果向外界开源 [1] 技术核心突破 - 实现算力资源切分,可将单张GPU或NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,使此类场景下的整体算力平均利用率提升30% [2] - 实现跨节点算力资源聚合,将集群内各节点的空闲XPU算力聚合形成共享算力池,促进通用算力与智能算力资源融合 [2] - 实现多级智能调度,通过Hi Scheduler智能调度器对本地及远端的虚拟化GPU、NPU资源进行全局最优调度,实现AI工作负载分时复用资源 [3] 行业背景与痛点 - AI产业高速发展催生海量算力需求,但全球算力资源利用率偏低的问题日益凸显 [1] - 行业面临小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量缺乏GPU/NPU的通用服务器处于算力休眠状态等供需错配问题 [1] 技术方案与效益 - Flex:ai XPU池化与调度软件基于Kubernetes容器编排平台构建,通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现AI工作负载与算力资源的精准匹配 [1] - 技术旨在助力破解算力资源利用难题,大幅提升算力利用率 [1] - 全面开源开放将向产学研各界开发者开放所有核心技术能力,共同推动异构算力虚拟化与AI应用平台对接的标准构建 [3]
见证历史!华为 重大发布
中国基金报· 2025-11-21 09:49
核心技术特性 - 基于Kubernetes构建的XPU池化与调度软件,可将AI工作负载场景下的算力资源平均利用率提升30% [1] - 具备算力资源切分、多级智能调度、跨节点算力资源聚合三方面关键能力 [3] - 算力资源切分粒度精准至10%,实现单张GPU/NPU算力卡同时承载多个AI工作负载 [4] 核心竞争优势 - 相比英伟达Run:ai,具备虚拟化与智能调度两大独特优势 [5] - 虚拟化技术包括本地虚拟化和独有的“拉远虚拟化”技术,可将集群内各节点空闲XPU算力聚合形成共享算力池 [5] - 智能调度技术可自动感知集群负载与资源状态,结合AI工作负载优先级等多维参数进行全局最优调度 [5] 行业影响与定位 - 容器技术作为轻量级虚拟化技术,预计到2027年75%以上的AI工作负载将采用容器技术进行部署和运行 [3] - 技术是能够让AI行业化落地的重要工具之一,可提供提升算力资源利用率的基础能力并与业界结合行业场景完成落地探索 [1][9] - 开源有助于推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案 [9] 生态战略布局 - 发布后同步开源至魔擎社区,旨在构建完整的ModelEngine开源生态 [1][6] - ModelEngine开源生态包含Nexent智能体框架、AppEngine应用编排、DataMate数据工程、UCM推理记忆数据管理器等AI工具 [6] - ModelEngine作为大模型训练、推理和应用开发的AI平台,提供从数据预处理到模型部署的一站式服务 [6]
见证历史!华为,重大发布
中国基金报· 2025-11-21 09:42
核心观点 - 华为发布并开源AI容器技术Flex:ai 旨在通过提升算力资源利用率与构建开源生态 推动AI技术在各行业的普及和落地 [1][2][9] 技术定位与行业背景 - Flex:ai是一款基于Kubernetes构建的XPU池化与调度软件 定位为AI时代的容器技术 [1][2] - 容器技术可将模型代码、运行环境打包成独立镜像 实现跨平台无缝迁移 解决部署环境配置痛点 [2] - 预计到2027年 75%以上的AI工作负载将采用容器技术进行部署和运行 [2] - 传统容器技术已无法完全满足AI工作负载需求 行业需要专用的AI容器技术 [2] 核心能力与性能提升 - Flex:ai可将AI工作负载场景下的算力资源平均利用率提升30% [1] - 其关键能力包括算力资源切分、多级智能调度、跨节点算力资源聚合 [2] - 算力资源切分可将单张GPU/NPU卡切分为多份虚拟算力单元 切分粒度精准至10% 实现单卡同时承载多个AI负载 [3] - 通过智能调度技术 实现对AI工作负载与算力资源的精准匹配 [2] 竞争优势与技术创新 - 相比英伟达Run:ai 该技术具备虚拟化和智能调度两大独特优势 [5][6] - 虚拟化优势包括本地虚拟化切分和独有的“拉远虚拟化”技术 可将集群内各节点空闲XPU算力聚合形成“共享算力池” [5] - 拉远虚拟化技术使不具备智能计算能力的通用服务器 可通过高速网络将AI负载转发到远端资源池执行 实现通用算力与智能算力融合 [5] - 智能调度可自动感知集群负载与资源状态 结合负载优先级等多维参数 进行全局最优调度 [6] - 在资源占满情况下 该技术能直接抢占其他任务资源 确保高优先级任务完成 [6] 开源战略与生态构建 - 公司将Flex:ai同步开源至魔擎社区 旨在加速AI技术平民化并构建完整的ModelEngine开源生态 [1][7][9] - ModelEngine开源生态包含Nexent智能体框架、AppEngine、DataMate、UCM等AI工具 提供从数据预处理到模型部署的一站式服务 [7] - 开源Flex:ai可提供提升算力利用率的基础能力及优秀实践案例 与业界共同探索行业场景落地 [9] - 通过产学研开发者参与 共同推动异构算力虚拟化与AI应用平台对接的标准构建 形成算力高效利用的标准化解决方案 [9]
指数持续承压后短线面变盘节点,AI方向再迎新催化
新浪财经· 2025-11-21 01:31
锂电板块分化 - 锂矿股走强,争光股份、大为股份等涨停,受碳酸锂价格持续上行催化 [1] - 六氟磷锂核心股大跌,天际股份与多氟多双双跌停报收,海科新源、华盛锂电跌幅居前 [1] - 锂电板块筹码结构出现松动疑虑,后续大概率延续分化走势,操作上需去弱留强 [1] AI应用新催化 - 谷歌更新多模态AI模型Gemini 3.0 Pro Image,该模型为推理模型,在生成图像前进行内部推理 [2] - 多模态AI商业化落地加速,有望强化板块产业趋势确定性 [2] - 广告营销、影视传媒、游戏等AI应用方向将受益 [2] 华为AI技术发布 - 华为将发布并开源AI容器技术Flex:ai,旨在通过软件创新统一管理英伟达、昇腾等第三方算力资源 [2] - 该技术发布论坛将于上海举办,相关方向昨日已有所异动 [2]