类脑脉冲大模型

搜索文档
首款类脑脉冲大模型“瞬悉1.0”团队科学家接受《环球时报》专访:突破大模型技术瓶颈,可借鉴人脑机制
环球网资讯· 2025-09-11 23:26
来源:环球时报 【环球时报报道 记者 陈子帅】近日,中国科学院自动化研究所科研团队与相关单位合作,成功研发出 首款类脑脉冲大模型"瞬悉1.0"(SpikingBrain-1.0)。该款大模型实现了全流程国产化,标志着我国在 类脑计算与大模型融合创新方面取得重要突破。该科研团队核心成员、中国科学院自动化研究所研究员 李国齐在接受《环球时报》记者采访时表示,大模型还将持续"进化",后续还会发布瞬悉2.0、瞬悉 3.0,有望为突破现有普通大模型的技术瓶颈带来新思路,为中国引领下一代人工智能的发展方向提供 基础积累。 与主流架构不同,记忆方式与人脑更贴近 什么是类脑脉冲大模型?李国齐告诉《环球时报》记者,类脑脉冲大模型是指借鉴大脑结构和启发而设 计的一类大模型构造范式,它与当前主流大模型架构(Transformer架构)不同,主要有三点区别。一是 类脑大模型提供一条新的启发式技术路线,期望借鉴大脑的结构和功能启发模型的架构设计。二是类脑 大模型期望体现人脑的超低功耗特性,希望借鉴0/1的脉冲信号来传递信息,结合类脑芯片等硬件的事 件驱动特性可以具有显著的低功耗、低时延等优势。三是类脑大模型的记忆方式与人脑记忆方式更贴 ...
中国类脑脉冲大模型问世:数据量仅为主流模型2%,运行提速100倍
观察者网· 2025-09-10 07:37
核心技术突破 - 成功研发类脑脉冲大模型"瞬悉1.0" 模仿人类大脑仅激活所需神经元的运作模式 实现选择性响应输入信息 [1] - 模型以主流大模型2%的预训练数据量实现与开源Transformer模型在多任务语言理解 中文多任务语言理解 常识推理任务上相媲美的性能 [1] - 运行速度比传统模型快100倍 超长序列处理能力在法律/医学文档分析 DNA序列分析等场景具显著效率优势 [1][2] 技术架构创新 - 首次提出大规模类脑脉冲基础模型架构 在国产GPU算力集群构建训练和推理框架 [2] - 解决脉冲驱动限制下大规模类脑模型性能退化问题 提供非Transformer架构新技术路线 [2] - 采用事件驱动方式使系统大部分时间处于静默状态 能耗显著低于传统AI模型 [4] 战略与产业意义 - 模型完全脱离对英伟达芯片依赖 在美国收紧AI芯片出口管制背景下具重要战略价值 [2] - 为国产算力平台大模型研发提供实践经验 推动更低功耗神经形态计算理论和芯片设计 [2][4] - 当前主流AI模型依赖高端芯片大型数据中心 消耗大量电力与冷却水资源 [3] 应用与开源进展 - 研究团队开源SpikingBrain-1.0-7B模型并开放SpikingBrain-1.0-76B测试网址 [2] - 系统深度融合人脑信息处理机制与脉冲计算范式 提供高效节能国产化类脑推理服务 [2] - 传统模型处理长输入时因并行处理每个词汇而变慢 推高运行成本并加剧环境影响 [3]
用国产GPU训练的国产大模型来了,能耗暴降97.7%
36氪· 2025-09-10 07:19
模型性能与效率 - 仅使用主流大模型2%的预训练数据(150B tokens)即实现Qwen2.5-7B 90%的性能 [2] - 在100万token上下文场景下,生成首个token耗时较Qwen2.5-7B降低96.2% [2] - 平均乘加运算能耗较传统FP16和INT8运算分别降低97.7%和85.2% [3] - 长序列推理中,100万token长度下TTFT加速达26.5倍,400万token下加速超100倍 [24] - 手机CPU端64K/128K/256K长度推理速度较Llama3.2同规模模型提升4.04/7.52/15.39倍 [26] 技术架构创新 - 集成混合高效注意力、MoE模块和脉冲编码三大核心组件 [8] - 7B版本采用层间混合线性注意力与SWA,76B版本采用层内并行混合注意力机制 [10][11] - 提出自适应阈值脉冲神经元解决LIF模型过度沉默或激活问题 [14] - 脉冲统计显示7B模型稀疏度超69.15%,长序脉冲占比约1.85% [28] 国产化适配与训练 - 全程基于国产沐曦曦云C550 GPU集群训练推理,集群连续运行2周未中断 [2][28] - 通过Triton适配和CUDA向MACA框架迁移实现硬件适配 [18] - 结合数据并行、流水线并行、专家并行和序列并行等分布式训练技术 [20] - 训练过程中每秒每GPU处理1558个token,FLOPs利用率达23.4% [28] 应用场景与潜力 - 适用于超长序列处理任务,如法律医学文档分析、多智能体模拟、物理实验及DNA序列分析 [3] - 在通用知识、长序列建模及指令跟随能力上与同量级开源模型相当 [23] - 脉冲驱动计算结合量化技术可大幅降低能耗且精度损失可控 [30] 模型版本与开源 - 提供7B(已开源)和76B(提供体验链接)两个版本 [6] - 7B模型在MMLU、CMMLU等基准测试中与Mistral-7B、Llama-3-8B性能相当 [21][22] - 76B模型几乎完全恢复基座模型性能,在多项评测中接近或超越同规模模型 [23]