Workflow
大模型记忆
icon
搜索文档
大模型的“健忘症”有药了
虎嗅APP· 2025-12-01 13:21
大模型行业的“健忘症”瓶颈 - 行业一度陷入长上下文窗口的军备竞赛,从8k Token发展到追求百万乃至千万级窗口,期望模型能记住一切[3] - 但在实际商业场景中,如电商客服,即便接入顶流模型,对话超过十几轮后,AI仍会出现“健忘”,例如忘记用户的海鲜过敏史或早期提到的预算[4] - 技术原理上,Transformer架构的注意力机制在处理超长序列时存在严重衰减,导致“近因效应”,早期信息被后续对话稀释[5] - 为维持记忆,开发者需反复将历史对话打包重新输入模型,导致Token消耗快速增长,成本高昂[5] - 在多智能体复杂任务中,由于缺乏共享的长期记忆机制,不同AI智能体(如销售、客服、售后)之间信息割裂,导致决策冲突和服务混乱[6][7] - 当前技术框架下,企业投入大模型获得的智能体如同需要反复重申指令的“实习生”,存在成本高、易遗忘、协作割裂三大问题[7] “红熊AI”的解决方案:记忆熊 - 红熊AI于2024年11月开始研发,2025年11月正式对外发布“记忆熊”产品,旨在将“记忆”构建为可管理、可共享、可追溯的基础设施[10] - 其底层逻辑并非“记住更多”,而是“记住更有价值的信息”,借鉴人类记忆机制,将数据转化为信息、知识,最终形成可指导行为的记忆[11] - 系统模拟人类大脑记忆机制,构建分层记忆系统:“数字海马体”负责信息加工编码,“数字皮层”长期存储知识,“数字杏仁核”绑定情绪[14] - 具体包括:短期工作记忆(用于任务连接,通过情感倾向加权算法识别高优先级数据)、长期显性记忆(对应知识库)、以及隐性记忆(存储用户偏好、企业“暗知识”)[14] - 记忆由独立的“记忆模块”存储管理,而非固化于大模型参数中,系统通过记忆萃取引擎决定信息的保留、遗忘与调用时机[14] - 2025年11月30日,红熊AI将记忆熊产品完全开源[28] 记忆熊的核心技术优势与效果 - 构建记忆图谱,以结构化方式表达记忆内容,挖掘其相互关系,赋予AI联想与多跳推理能力,使信息更连贯、推理更准确[17] - 打通平台,让智能体共用同一套用户记忆,智能体群控记忆共享率达到99.99%,基本消除因记忆不同步导致的服务问题[17] - 通过记忆分层存储机制,压缩短期记忆为长期记忆摘要,使多轮对话累计的Token消耗降低90%,实现成本断崖式下降[17] - 使用动态语境校准和智能语义剪枝技术,将垂直场景的幻觉率压低到0.2%以下,端到端回应准确率达到99.6%[18] - 在复杂逻辑的多跳推理和时序记忆上表现领先,具备区分过去与现在的时间感[18] - 基于向量的非图谱版本,将搜索请求的中位响应时间(P50)控制在0.137秒;语音交互场景下应答延迟仅0.8秒,提升交互流畅度[18] 记忆的商业价值与行业影响 - 记忆的突破将重塑商业形态,使AI首次具备回答“我是谁”、“在与谁沟通”、“之前达成过什么共识”的能力,从而进入高信任度场景[21][22] - 记忆熊产品主线包括:隐性记忆显性化、记忆结构化处理、记忆场景化应用,旨在将交互沉淀为组织记忆[22] - 能够将企业依赖个人经验的“暗知识”(如金牌销售技巧、资深技工经验)结构化沉淀,转化为组织记忆,构筑企业护城河[22] - 通过“语义剪枝+记忆锚定+情境校准”机制,帮助大模型只保留与用户身份、历史行为及任务目标相关的核心记忆,解决内容越多成本越高、遗忘越快、幻觉越多的问题[22] - 将记忆变为组织资产,提升多智能体协同工作中的记忆共享率,是模型协同的关键[22] - 推动记忆从技术功能拓展为商业基础设施,标志AI从工具进入体系阶段[23] - 参数规模的竞争终将结束,记忆可能成为真正的操作系统级入口,AI的下一场竞争焦点是“谁更记得住”[25] - 记忆是通往通用人工智能(AGI)的必由之路,当前大模型在逻辑推理、长期规划和自我进化上的进步空间,根源在于缺乏稳定、连续且可塑的记忆系统[26]
强化学习+大模型记忆:Mem-α,让智能体第一次学会“如何记忆”
机器之心· 2025-11-07 07:17
文章核心观点 - 大语言模型的“记忆”能力是实现长期智能的关键,但现有方案存在成本高、依赖人工规则等瓶颈 [2] - Mem-α 是首个将强化学习引入大模型记忆管理体系的方案,使模型能自主学习记忆的存储、更新和组织策略 [2] - 该方法将记忆构建转化为序列决策问题,通过端到端优化实现高效记忆管理,在性能、效率和泛化能力上均显著超越现有基线 [9][22][24] 技术方案与架构 - Mem-α 采用三层记忆架构:核心记忆(用户身份/目标)、情景记忆(时间线事件)、语义记忆(结构化知识) [15][19] - 通过强化学习优化记忆策略,奖励函数包含问答准确率、工具调用格式、记忆压缩和内容有效性四个维度 [12][13] - 训练数据集基于MemoryAgentBench构建,涵盖精确检索、测试时学习和长期理解三个维度 [17] 性能表现与实验结果 - 在验证集上,Mem-α平均性能达0.642,显著高于Long-Context(0.588)和RAG-Top2(0.567) [20] - 在测试集上,Mem-α-4B平均性能达0.592,优于Long-Context(0.461)和RAG-Top2(0.502) [21] - 记忆占用减少近50%,在BookSum任务中记忆使用仅2.2K,远低于Long-Context的15.4K [20][22] - 具备极强长度外推能力,训练仅用<30K tokens样本,可稳定泛化至超过400K tokens的超长文档 [24] 技术突破与行业意义 - 首次实现记忆建模领域的真正长度外推,证明模型学会的是通用记忆策略而非特定模式 [24] - 消融实验显示,经Mem-α训练后模型准确率从38.9%提升至64.2%,实现从“不会用记忆”到“自主管理记忆”的质变 [25] - 标志记忆管理从工程问题转向可学习问题,为多模态记忆、个性化策略等方向开辟新路径 [27]