昇腾服务器

搜索文档
利和兴:华为与新凯来供应商 四大景气赛道共振驱动
全景网· 2025-09-10 11:45
公司与华为合作 - 自2013年起成为华为合格供应商 合作持续超过10年 [2] - 作为华为Mate系列手机测试设备核心供应商 在智能终端检测领域份额超10% [2] - 合作从移动智能终端延伸至5G基站 新能源汽车 数字能源等战略业务 [2] - 成为华为液冷超充设备核心代工商 独家供应测试机柜与充电模块并参与整机组装 [2] - 承担华为全自动充电机器人关键制造任务 [2] - 切入华为光储产业链 为光伏逆变器 储能系统配套精密结构件 [2] 半导体业务布局 - 携手半导体设备企业新凯来切入高毛利精密零部件赛道 成为其核心供应商 [3] - 新凯来在手订单充裕 客户覆盖深圳鹏芯微 中芯国际等国内头部晶圆厂 [3] - 计划通过募投项目加大研发投入与产线建设 未来有望借助产业链并购强化配套能力 [4] 液冷技术发展 - 完成液冷服务器自动维修测试系统研发 成功进入华为昇腾服务器供应链 [5] - 液冷老化测试平台有效解决高功率散热难题 成为服务器稳定运行的重要保障 [5] - 全球液冷市场规模预计2026年突破1000亿元 达2025年的四倍 [5] - 华为昇腾服务器作为国产AI算力关键载体 预计2025年第三季度起加速上量 [5] 人形机器人布局 - 开发高精度传动检测设备 满足机器人关节电机等高精度测试需求 [6] - 参与华为极目机器人的关节驱动研发 [6] - 通过合作伙伴间接切入特斯拉人形机器人供应链 为运动控制模块提供支持 [6] 业务协同与增长前景 - 公司凭借华为核心供应商 半导体零部件国产化 液冷技术卡位 人形机器人布局四重逻辑共振 [7] - 在芯片自主可控 AI算力 液冷技术 人形机器人等高成长赛道迎来新一轮业绩增长动能 [1] - 若获取新凯来主要零部件份额 预计将带来新增收入推升业绩弹性 [4]
浦发银行:人工智能已从场景化规划进入规模化应用
新华财经· 2025-07-25 07:44
数智化转型战略 - 公司加速推进大模型应用体系建设,成立人工智能中心,构建"算力+算法+平台+知识"四位一体智能基座,人工智能从场景化规划进入规模化应用[1] - 基于华为昇腾服务器建设千卡异构算力集群,突破算力瓶颈,支撑大模型从试点到规模化应用[1] - 筹建和林格尔数据中心,定位大规模低成本计算中心,满足非实时算力需求,设计遵循安全可靠、绿色节能原则[1] 技术基础设施布局 - 和林格尔数据中心建成后将实现云平台统一纳管的智算集群,形成端到端全场景覆盖的智算基座[2] - 建设涵盖通用能力、金融知识等四维度的多模态评估体系,整合三万余条场景数据,实现大模型精准评估[2] - 引入DeepSeek、Qwen等大模型构建算法矩阵,大参数量模型用于财报分析等复杂推理,小参数量模型处理指标查询等轻量任务[2] 应用场景与成效 - 多模态大模型应用于表单识别、图像涵义抽取等场景,提升内部营销、运营、办公效率[2] - AI技术显著提升运营效率和服务质量,重构风险管理模式并延伸生态服务[2]
昇腾384超节点将亮相WAIC大会,算力产业链热度持续攀升
选股宝· 2025-07-23 15:17
行业动态 - 2025世界人工智能大会(WAIC)将于7月26日至7月29日举行,华为将首次线下展出昇腾384超节点真机,该技术实现业界最大规模的384卡高速总线互联 [1] - 电子下游需求整体呈现复苏态势,AI、高速通信等创新领域景气度持续向上,共同支撑PCB整体需求增长 [1] - AI硬件性能迭代推动PCB向更高规格升级,国内PCB厂商在高端市场份额持续增加,相关厂商有望通过AI机遇实现快速发展 [1] - 全球科技厂商有望加码AI投资,光通信领域投资机会被看好,1.6T光模块需求有望持续释放 [1] - 光互联有望切入Scale up领域,在AI算力价值链中的占比有望进一步提升 [1] - 国产算力链交换机、AIDC、算力租赁、液冷等需求及相关标的业绩有望得到释放 [1] 公司动态 - 协创数据专注于物联网智能终端、数据存储设备及算力全链条服务,依托存储技术积累切入算力硬件,通过再制造降低服务成本,并自研AI平台实现场景落地 [2] - 四川长虹通过联营企业华鲲振宇(持股48.39%)设计昇腾服务器,承接"东数西算"工程,2025年7月中标中国移动6.5亿元AI服务器集采 [2]
推理性能PK,华为+DeepSeek>英伟达?
虎嗅APP· 2025-05-19 13:47
大模型推理部署技术突破 - 华为通过"数学补物理"创新思路突破硬件瓶颈,实现昇腾超大规模MoE模型推理部署性能全面超越英伟达Hopper架构 [1][3] - 关键技术包括等价数学变换、FlashComm通算优化、四流并发掩盖、加法代乘法昇腾MLA实现等,算力利用率获极致提升 [3] - 相关核心技术代码将在1个月内陆续开源,体现公司建设开放生态的决心 [4] 超大MoE模型部署挑战 - DeepSeek V3代表6710亿参数混合专家架构新趋势,需硬件集群支持"满血版"部署 [6] - 模型含58个MoE层14906个专家(单个专家权重44MB),对内存效率、分布式并行设计提出极高要求 [7] - 多头隐式注意力机制(MLA)等创新架构导致中间变量膨胀,向量计算占比增加带来新优化挑战 [7] 昇腾硬件部署方案 - **CloudMatrix 384超节点**:采用144卡EP并行部署,实现50ms时延下单卡Decode吞吐1920 Tokens/s,通信耗时降低关键瓶颈 [12] - **Atlas 800I A2服务器**:2节点16卡Prefill+4节点32卡Decode部署,100ms时延下单卡吞吐达723-808 Tokens/s [15] - 采用PD分离部署、A8W8C16量化策略(INT8+BF16)、动态负载均衡等关键技术 [9][10][18] 推理框架优化技术 - API Server水平扩容结合全异步处理提升QPS,MoE动态负载均衡技术显著改善性能 [18] - FusionSpec投机推理引擎实现流程拼接与轻量步间准备,适配高吞吐场景 [19] - FlashComm通信方案降低Prefill阶段25%通信量,层内并行转换技术减少71%节点内通信 [20][21] 模型侧性能优化 - 计算通信并发技术使DeepSeek V3大并发场景Decode性能提升15% [22] - 通信通信并发机制掩盖量化scale开销,通信权重预取提升MLA计算性能10% [23][24] - 细粒度分级流水算法优化Allgather/ReduceScatter算子集群执行效率 [31] 昇腾亲和算子创新 - AMLA算法重构Attention算子,性能提升近1倍,算力利用率达60% [25][26] - MLAProlog算子深度融合前序计算,性能提升30%以上 [26][28] - MoeDistributeDispatch/Combine通算融合算子减少同步开销,SMTurbo-CPP技术优化小数据传输 [29][30] 商业化落地成果 - 硅基流动联合华为云基于CloudMatrix 384上线DeepSeek-R1服务,单卡吞吐1920 Tokens/s比肩H100部署性能 [31] - 技术方案通过主流测试集验证,模型精度与官方版本保持一致 [31] - 全链路优化实现国产硬件高效部署,激活本土AI生态协同创新 [33]