寒武纪国产AI芯片
搜索文档
商汤科技与寒武纪实现多模态大模型Day 0成功适配 激发AI前沿应用创新活力
智通财经网· 2025-12-16 11:25
智通财经APP获悉,12月15日,"国产芯片+国产模型"的技术协同发展迎来重要里程碑。在商汤科技 (00020)发布行业首个多剧集生成智能体Seko2.0的同时,寒武纪(688256.SH)也宣布完成对商汤自研日日 新Seko系列的适配,本次成功适配日期为"Day 0"。而寒武纪曾官方宣布在"Day 0"成功适配的仅有商汤 科技的"日日新"和DeepSeek,而Seko系列模型是行业内少数完成国产芯片适配的多模态模型系列。 双方共同推动国产AI应用生态发展,打磨更高效、更易用的阶梯式产品体系 此次与寒武纪在多模态生成模型的适配,是国产大模型与国产算力底座协同创新的重要实践,让更多开 发者和企业能够以更低成本享受到顶尖的多模态AI能力。 为高效释放国产算力潜能,商汤科技在其LightX2V框架中设计了强兼容的国产化适配插件模式,可快 速完成各类国产硬件的适配。同时,Seko系列模型与LightX2V框架在设计之初便引入了低比特量化、 压缩通信、稀疏注意力等硬件友好创新机制,已实现将推理性能提升3倍以上的显著效果。 适配完成后,双方的合作将进入更深化的优化阶段。未来,商汤科技与寒武纪将围绕多个方向展开联合 攻关。 ...
商汤科技(00020)与寒武纪(688256.SH)实现多模态大模型Day 0成功适配 激发AI前沿应用创新活力
智通财经网· 2025-12-16 11:22
为高效释放国产算力潜能,商汤科技在其LightX2V框架中设计了强兼容的国产化适配插件模式,可快 速完成各类国产硬件的适配。同时,Seko系列模型与LightX2V框架在设计之初便引入了低比特量化、 压缩通信、稀疏注意力等硬件友好创新机制,已实现将推理性能提升3倍以上的显著效果。 寒武纪Day0成功适配商汤"日日新",即在新模型发布的当天寒武纪的芯片硬件就已完成对商汤日日新 多模态大模型的适配与支持,这是衡量国产芯片对国产AI厂商生态建设能力和技术啦应速度的关键指 标。 寒武纪国产AI芯片对商汤Seko系列模型的适配,体现了国内AI厂商之间齐心协力、合作紧密。此次寒 武纪芯片与商汤多模态模型的快速适配,意味着国产AI生态圈已从语言模型全面延伸至更复杂、更具 挑战性的多模态生成领域。商汤的日日新Seko系列模型,包括SekoIDX、SekoTalk等图像与视频生成模 型,构成了Seko2.0智能体的核心技术底座。 双方共同推动国产AI应用生态发展,打磨更高效、更易用的阶梯式产品体系 此次与寒武纪在多模态生成模型的适配,是国产大模型与国产算力底座协同创新的重要实践,让更多开 发者和企业能够以更低成本享受到顶尖的多 ...
智谱正式发布并开源新一代大模型GLM-4.6 寒武纪、摩尔线程完成对智谱GLM-4.6的适配
证券时报网· 2025-09-30 07:58
大模型技术发布 - 智谱公司于9月30日正式发布并开源新一代大模型GLM-4-6 [1] - 新模型在Agentic Coding等核心能力上实现大幅跃升 [1] - 此次发布是继DeepSeek-V3-2-Exp与Claude Sonnet4-5之后业界的又一重大技术发布 [1] 模型性能表现 - GLM-4-6的代码生成能力在公开基准测试和真实编程任务中已全面对齐Claude Sonnet4 [1] - 该模型成为目前国内最强的Coding模型 [1] - 模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级 [1] - 整体性能超越DeepSeek-V3-2-Exp [1] - GLM-4-6是目前全球开源生态中性能最强的通用大模型之一 [1] 国产芯片适配与部署 - GLM-4-6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 该方案在保持模型精度不变的前提下大幅降低了推理成本 [1] - 摩尔线程基于vLLM推理框架完成了对GLM-4-6的适配 [2] - 新一代GPU可在原生FP8精度下稳定运行模型 [2] 产业生态协同 - 寒武纪与摩尔线程完成对GLM-4-6的适配标志着国产GPU已具备与前沿大模型协同迭代的能力 [2] - 此举加速构建自主可控的AI技术生态 [2] - GLM-4-6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [2] - 国产原创GLM系列大模型与国产芯片的深度协同将在模型训练和推理环节持续推动性能与效率的双重优化 [2]
智谱发布GLM-4.6 寒武纪、摩尔线程已适配
每日经济新闻· 2025-09-30 07:47
公司技术发布 - 智谱于9月30日正式发布并开源新一代大模型GLM-4.6 [1] - GLM-4.6在Agentic Coding等核心能力上实现大幅跃升 [1] - 这是继DeepSeek-V3.2-Exp与Claude Sonnet4.5之后,国庆节前业界的又一重大技术发布 [1] 技术部署与合作 - GLM-4.6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 摩尔线程基于vLLM推理框架完成了对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳定运行模型 [1]
寒武纪、摩尔线程完成智谱GLM-4.6适配
新浪财经· 2025-09-30 07:33
模型发布与技术进展 - 智谱于9月30日正式发布并开源新一代大模型GLM-4-6 [1] - GLM-4-6在Agentic Coding等核心能力上实现较大提升 [1] - 模型代码生成能力对齐Claude Sonnet 4 [1] 国产芯片适配与部署 - GLM-4-6已在寒武纪国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4-6的适配 [1] - 新一代GPU可在原生FP8精度下稳定运行模型 [1]
智谱宣布 GLM-4.6发布,寒武纪、摩尔线程已完成适配
新浪科技· 2025-09-30 07:25
GLM-4 6模型技术发布 - 智谱发布并开源新一代大模型GLM-4 6,在Agentic Coding等核心能力上实现大幅跃升 [1] - GLM-4 6的代码生成能力在基准测试中已全面对齐Claude Sonnet 4,成为目前国内最强的Coding模型 [1] - 模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级,性能超越DeepSeek-V3 2-Exp [1] 国产芯片适配与部署 - GLM-4 6已在寒武纪国产AI芯片上实现FP8+Int4混合量化推理部署,为首次在国产芯片上投产的模型-芯片一体化解决方案 [1] - 该方案在保持模型精度不变的前提下大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4 6的适配,新一代GPU可在原生FP8精度下稳定运行模型,验证了MUSA架构的优势 [2] 商业化与产业协同 - GLM-4 6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众提供服务 [2] - 国产原创GLM系列大模型与国产芯片的深度协同,将在模型训练和推理环节持续推动性能与效率的双重优化 [2] - 技术协同旨在构建更加开放、可控、高效的人工智能基础设施 [2]
智谱旗舰模型GLM-4.6上线 寒武纪、摩尔线程已完成适配
华尔街见闻· 2025-09-30 07:13
模型性能提升 - GLM-4 6模型代码能力比前代GLM-4 5提升27% [1] - 模型在真实编程、长上下文处理、推理能力等多方面表现优异 [1] - 在74个真实编程任务中超越其他国产模型 [1] 技术成就与行业地位 - GLM-4 6在公开基准测试中达到国内最高水准 [1] - 首次在国产AI芯片上实现FP8+Int4混合量化推理部署 [1] - 这是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案 [1] 生态系统与合作伙伴 - GLM-4 6已在寒武纪领先的国产AI芯片上实现部署 [1] - 摩尔线程基于vLLM推理框架完成对GLM-4 6的适配 [1] - 摩尔线程新一代GPU可在原生FP8精度下稳定运行模型 [1]