Workflow
大模型适配
icon
搜索文档
寒武纪、华为昇腾适配DeepSeek最新模型
财联社· 2025-09-30 00:59
9月29日,DeepSeek-V3.2-Exp模型正式在Hugging Face平台发布并开源。模型引入稀疏 Attention 架构,这种架构能够降低计算资源消耗并提升模型 推理效率。 海光信息同日宣布其DCU实现无缝适配+深度调优,做到大模型算力"零等待"部署。 海光信息表示,基于GPGPU架构强大的生态优势,与编程开发 软件栈DTK的特性,DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自主可控的技术优势。 据"华为计算"微信公众号消息, 昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现DeepSeek-V3.2-Exp 0day支持 ,并面向开发者开源 所有推理代码和算子实现。 寒武纪在官方微信号宣布, 已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配,并开源大模型推理引擎vLLM-MLU源代码。 依托 DeepSeek-V3.2-Exp带来的全新DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。 ...
填补空白!第四范式发布「信创模盒」ModelHub XC,连接国产GPU和国产大模型
格隆汇· 2025-09-22 11:12
行业痛点 - 行业面临算力与模型二元割裂的隐形天花板 部署模型与芯片架构互不兼容 采购硬件缺乏适配模型[1] - 国产硬件使用国外优化模型时出现水土不服 不同模型需分别适配 导致耗时长且重复工作量大[8] 产品发布 - 公司正式发布信创模盒ModelHub XC平台 信创社区及信创模型适配增值服务 旨在打破客户 算力与开发者之间的屏障[3] - 产品获得华为昇腾 壁仞科技 天数智芯 昆仑芯 摩尔线程和曦望等头部芯片厂商现场支持[5] 技术方案 - 开创性发布AI引擎体系EngineX 通过基础算法架构适配驱动批量化模型支持 解决国产信创芯片在模型兼容性和支持数量的长期瓶颈[7] - 极大缩短模型上国产算力平台部署周期 实现引擎驱动和多模型即插即用[7] 平台能力 - 上线当日提供上百个适配认证模型 包含DeepSeek V3.1和OpenAI开源大语言模型gpt-oss-20B等热门模型[10] - 平台已适配华为昇腾 寒武纪 天数智芯 昆仑芯 沐曦和曦望等信创算力 未来将覆盖所有主流信创算力[10] - 模型标注可适配的国产芯片品牌 明确下载模型与采购芯片的对应关系[10] 发展目标 - 未来半年适配认证模型数量达千数级 一年内达十万数级 后续保持持续更新速度[10] 增值服务 - 提供信创模型适配增值服务 针对不了解国产算力适配模型或需要模型适配指定算力的用户提供调整服务[12] - 数百名专业工程师团队解决卡跑不了模型或模型不知匹配什么卡的问题 后续将开放更多定制化能力[12]