强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码
产品发布 - 深度求索公司于2025年9月29日发布新一代模型架构DeepSeek-V3.2 实验性版本 该版本在V3.1-Terminus基础上引入DeepSeek Sparse Attention稀疏注意力机制 针对长文本训练和推理效率进行探索性优化和验证 [1] - 新模型体量达到671GB 在带宽充足理想条件下仅完成下载就需要耗费约8-10个小时 [2] - 官方App 网页端 小程序均已同步更新为DeepSeek-V3.2-Exp 同时API大幅降价 [1] 技术合作 - 寒武纪同步官宣对DeepSeek-V3.2适配并开源大模型推理引擎vLLM-MLU源代码 [1] - 芯片与大模型适配涉及底层架构优化 算力资源匹配 兼容性调试等复杂工作 需要较长时间完成 [2] - 快速适配响应表明寒武纪在模型发布前就已启动适配研发 双方技术沟通与协作早已展开 [2] 行业影响 - 此次合作体现中国顶尖科技企业深度协同的重要信号 是产业链上下游领军企业的深度协同 [2] - 合作将大幅降低大模型用户在长序列场景下的训推成本 助力AI应用涌现 [2] - 全球AI竞争日趋激烈 中国AI产业需要头部企业深度协同合作才能在国际舞台站稳脚跟并占据优势地位 [2] 开发者资源 - DeepSeek开源模型可通过https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp获取 [3] - vLLM-MLU适配源码可通过https://github.com/Cambricon/vllm-mlu获取 [3]