寒武纪(688256)

搜索文档
智谱发布GLM-4.6 寒武纪、摩尔线程已适配
每日经济新闻· 2025-09-30 07:47
每经AI快讯,9月30日,国内大模型重点企业智谱正式发布并开源新一代大模型GLM-4.6,在Agentic Coding等核心能力上实现大幅跃升。这是继DeepSeek-V3.2-Exp与Claude Sonnet4.5之后,国庆节前业界 的又一重大技术发布。智谱官方宣布,GLM-4.6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合量化 推理部署,这也是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案。同时,摩尔线程基于 vLLM推理框架完成了对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳定运行模型。 ...
智谱正式发布并开源新一代大模型GLM-4.6 寒武纪、摩尔线程完成适配
每日经济新闻· 2025-09-30 07:42
9月30日,《每日经济新闻》记者获悉,国内大模型企业智谱正式发布并开源新一代大模型GLM-4.6, 在Agentic Coding (代理式编码)等核心能力上实现大幅跃升。 寒武纪与摩尔线程完成对GLM-4.6的适配,标志着国产GPU已具备与前沿大模型协同迭代的能力,加速 构建自主可控的AI技术生态。GLM-4.6搭配国产芯片的组合将率先通过智谱MaaS平台面向企业与公众 提供服务。 每经记者|可杨 每经编辑|陈俊杰 与此同时,摩尔线程基于vLLM推理框架完成了对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳 定运行模型,充分验证了 MUSA((Meta-computing Unified System Architecture,元计算统一系统架构) 架构及全功能GPU在生态兼容性和快速适配能力方面的优势。 智谱官方宣布,GLM-4.6已在寒武纪AI芯片上实现FP8+Int4(一种混合精度计算技术)混合量化推理部 署,这也是首次在国产芯片上投产的FP8+Int4模型—芯片一体化解决方案。在保持模型精度不变的前提 下,该方案大幅降低了推理成本,为国产芯片本地化运行大模型提供了可行路径和示范意义。 ...
科创人工智能ETF(588730)涨3.14%,DeepSeek、寒武纪同步发布相关重要事项
格隆汇· 2025-09-30 07:39
节前最后一个交易日,芯片、科创人工智能板块领涨,澜起科技涨超7%,带动科创人工智能ETF(588730)涨3.14%,盘中净值创历史新高。 科创人工智能ETF跟踪上证科创板人工智能指数,聚焦于AI产业链最核心的算力芯片和智能硬件环节,半导体权重达54.1%,前三大权重股包含寒武纪(16.62%)、澜起科技(10%)和芯原股 得益于精准覆盖"AI芯片+AI应用",资金大幅涌入科创人工智能ETF,近5日资金净流入额1.14亿元,最新规模17.47亿元。 科创人工智能、芯片股上涨,消息面上: 华鑫证券表示,国产AI芯片大时代已经来临,国产AI产业链从上游先进制程到先进封装,到下游字节阿里腾讯的模型加速迭代升级已经实现全产业链打通,坚定看好国产AI算力设施的加速突破 DeepSeek介绍,得益于新模型服务成本的大幅降低,官方API价格也相应下调,新价格即刻生效。在新的价格政策下,开发者调用DeepSeekAPI的成本将降低50%以上。 随后,多家国产芯片厂商宣布完成对DeepSeek-V3.2-Exp的适配。寒武纪发文称:已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配,并开源大模型推理引擎v ...
智谱联手寒武纪,推出模型芯片一体解决方案
第一财经· 2025-09-30 07:38
另外,"模芯联动"是此次新模型发布的重点,GLM-4.6已在寒武纪国产芯片上实现FP8+Int4混合量化部署,这也是行业首次在国产芯片上投产的FP8+Int4模 型芯片一体解决方案,在保持精度不变的前提下,降低推理成本,为国产芯片在大模型本地化运行上探索可行路径。 FP8是8 位浮点数(Floating-Point 8)数据类型,动态范围广、精度损失小;Int4是4 位整数(Integer 4)数据类型,压缩比极高,内存占用最少,适配低算力 硬件但精度损失相对明显。此次尝试的"FP8+Int4 混合" 模式,并非简单将两种格式叠加,而是根据大模型的"模块功能差异",针对性分配量化格式,让该 省内存的地方用Int4压到极致,该保精度的地方用FP8守住底线,实现合理资源分配。 具体到模型适配过程中,占总内存的60%-80%的大模型核心参数通过Int4量化后,可将权重体积直接压缩为FP16的1/4,大幅降低芯片显存的占用压力;推理 环节积累的临时对话数据可以通过Int4压缩内存的同时,将精度损失控制在 "轻微"范围。而FP8可重点针对模型中"数值敏感、影响推理准确性"的模块,降 低精度损失、保留精细语义信息。 方案 ...
寒武纪、摩尔线程完成智谱GLM-4.6适配
新浪财经· 2025-09-30 07:33
目前,GLM-4.6已在寒武纪国产AI芯片上实现FP8+Int4混合量化推理部署,这也是首次在国产芯片上投 产的FP8+Int4模型-芯片一体化解决方案。摩尔线程基于vLLM推理框架完成了对GLM-4.6的适配,新一 代GPU可在原生FP8精度下稳定运行模型。 9月30日,智谱正式发布并开源新一代大模型GLM-4.6,在Agentic Coding等核心能力上实现较大提升, 代码生成能力对齐Claude Sonnet 4。 ...
智谱宣布 GLM-4.6发布,寒武纪、摩尔线程已完成适配
新浪科技· 2025-09-30 07:25
与此同时,摩尔线程也基于 vLLM 推理框架 完成了对 GLM-4.6 的适配,新一代 GPU 可在 原生 FP8 精 度 下稳定运行模型,充分验证了 MUSA 架构 及全功能 GPU 在生态兼容性和快速适配能力方面的优 势。 据悉,GLM-4.6 搭配国产芯片的组合将率先通过 智谱 MaaS 平台面向企业与公众提供服务,释放更广 泛的社会与产业价值。未来,国产原创的 GLM 系列大模型与国产芯片的深度协同,将在模型训练和推 理环节持续推动性能与效率的双重优化,构建更加开放、可控、高效的人工智能基础设施。(文猛) 责任编辑:何俊熹 新浪科技讯 9月30日下午消息,国内大模型企业智谱今日发布并开源新一代大模型 GLM-4.6,宣布在 Agentic Coding 等核心能力上实现大幅跃升。成为国庆前夕DeepSeek-V3.2-Exp 与 Claude Sonnet 4.5 之 后的又一重大技术发布。 据悉,在公开基准测试和真实编程任务中,GLM-4.6 的代码生成能力已全面对齐 Claude Sonnet 4,成为 目前国内最强的 Coding 模型。同时,模型在长上下文处理、推理能力、信息检索、文本生成及智 ...
智谱旗舰模型GLM-4.6上线 寒武纪、摩尔线程已完成适配
华尔街见闻· 2025-09-30 07:13
风险提示及免责条款 据智谱消息,最新的GLM-4.6模型上线,其代码能力比前代GLM-4.5提升27%,在真实编程、长上下文 处理、推理能力等多方面表现优异。GLM-4.6在公开基准测试中达到国内最高水准,并在74个真实编程 任务中超越其他国产模型。智谱官方宣布,GLM-4.6已在寒武纪领先的国产AI芯片上实现FP8+Int4混合 量化推理部署,这也是首次在国产芯片上投产的FP8+Int4模型-芯片一体化解决方案。与此同时,摩尔 线程基于vLLM推理框架完成对GLM-4.6的适配,新一代GPU可在原生FP8精度下稳定运行模型。 市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何 意见、观点或结论是否符合其特定状况。据此投资,责任自负。 ...
智谱发布国内最强Coding模型「GLM-4.6」,寒武纪、摩尔线程完成对其适配
IPO早知道· 2025-09-30 07:13
国产大模型与国产芯片协同进入新阶段。 本文为IPO早知道原创 作者| Stone Jin 微信公众号|ipozaozhidao 据 IPO早知道消息, 智谱 于 9月30日 正式发布并开源新一代大模型 GLM-4.6,在 Agentic Coding 等核心能力上实现大幅跃升。 值得注意的是, 这是继 DeepSeek-V3.2-Exp 与 Claude Sonnet 4.5 之后,国庆节 前夕 业界的 又一重大技术发布 。 在公开基准测试和真实编程任务中, GLM-4.6 的代码生成能力已全面对齐 Claude Sonnet 4,成 为目前国内最强的 Coding 模型。同时,模型在长上下文处理、推理能力、信息检索、文本生成及 智 能 体 应 用 等 方 面 均 实 现 全 面 升 级 , 整 体 性 能 超 越 DeepSeek-V3.2-Exp 。 作 为 开 源 模 型 , GLM-4.6 目前是全球开源生态中性能最强的通用大模型之一,进一步提升了国产大模型在全球竞争 格局中的地位。 寒武纪与摩尔线程完成对 GLM-4.6 的适配,标志着国产 GPU 已具备与前沿大模型协同迭代的能 力,加速构建自主可 ...
DeepSeek新模型上线,昇腾、寒武纪、海光等宣布适配
观察者网· 2025-09-30 06:16
据"华为计算"微信公众号29日消息,昇腾已快速基于vLLM/SGLang等推理框架完成适配部署,实现 DeepSeek-V3.2-Exp 0day支持,并面向开发者开源所有推理代码和算子实现。 寒武纪29日表示,已同步实现对深度求索公司最新模型DeepSeek-V3.2-Exp的适配。依托DeepSeek Sparse Attention机制,叠加寒武纪的极致计算效率,可大幅降低长序列场景下的训推成本。 9月29日,DeepSeek-V3.2-Exp模型正式发布并开源。模型引入稀疏Attention架构,据称能够有效降低计 算资源消耗并提升模型推理效率。此外,DeepSeek还大幅下调了API价格,降价幅度超过50%。 随后,华为昇腾、寒武纪、海光信息同步宣布完成适配。 30日上午,海光信息在官方微信公众号宣布,其DCU实现对DeepSeek-V3.2-Exp的无缝适配+深度调优, DeepSeek-V3.2-Exp在海光DCU上展现出优异的性能,同时验证海光DCU高通用性、高生态兼容度及自 主可控的技术优势。 受此消息提振,9月30日,市场早盘震荡拉升,科创50指数表现强势,其中AI芯片、华为昇腾概念表现 ...