Workflow
AI记忆系统
icon
搜索文档
全球首次,「AI记忆」开源落地,MIRIX同步上线APP
36氪· 2025-07-30 03:32
产品发布 - 加利福尼亚大学圣迭戈分校与纽约大学研究人员联合推出全球首个多模态、多智能体AI记忆系统MIRIX 并开源[1][2] - 团队同步上线Mac桌面端应用程序 支持用户下载构建专属AI个人助理[1][4] 技术架构 - 突破传统长短期记忆划分 首创六模块记忆系统:核心记忆(容量超90%自动重写)、情景记忆(按时间戳排序)、语义记忆(存储抽象概念)、程序记忆(任务流程指南)、资源记忆(文档截图等资源)、知识金库(加密存储敏感信息)[14][16][17] - 采用多智能体工作流:1个元记忆管理者与6个子记忆管理器协同 实现记忆更新与检索双流程[18][19][22][23] 性能表现 - 在ScreenshotVQA多模态理解基准测试中:准确率较传统RAG方法提升35% 存储开销降低99.9%;较长文本方法性能提升410% 存储降低93.3%[4][26] - 具体数据对比:MIRIX整体准确率59.5% 存储仅15.89MB;RAG方法准确率44.1% 存储达15.07GB;长文本方法准确率11.66% 存储236.7MB[27] - 在LOCOMO长对话任务中以85.4%准确率创SOTA记录 显著超越Mem0(66.88%)、Zep(79.09%)等基线模型[4][28][30] 应用功能 - 自动记录用户电子生活点滴 通过可视化树状结构管理多模态记忆[8][9] - 支持智能对话:可回答历史活动相关问题 辅助完成如工作申请等需历史信息的任务[11][12] - 本地SQLite存储保障用户隐私 无需云端数据传输[31] 行业意义 - 标志大模型从1.0时代即问即答、2.0时代RAG补丁 进入3.0时代长期记忆驱动的新阶段[7] - 实现从"即时对话生成"到"长期记忆驱动智能心智"的技术跃迁[31]
AI记忆系统首获统一框架!6大操作让大模型拥有人类记忆能力
量子位· 2025-05-31 03:45
AI记忆机制研究综述 核心观点 - 大语言模型(LLMs)正从纯文本生成工具演化为具备长期交互能力的智能体,对记忆能力提出更高要求[2] - 研究首次从操作与表示两个维度构建AI记忆研究框架,提出六种基本记忆操作和四类关键研究主题[4][5][6] - 参数化记忆与上下文记忆构成AI记忆的两大表示形式,分别对应隐式知识存储和显式信息补充[7][8][9] 记忆表示分类 - **参数化记忆** - 隐含存储于模型内部参数中的知识,通过预训练或后训练获得[7] - 支持快速检索事实性知识但缺乏可解释性和选择性更新能力[8] - **上下文记忆** - 非结构化记忆:支持跨模态信息存储与检索,包括文本/图像/音频/视频等[9] - 结构化记忆:组织为知识图谱等可解释格式,具备符号推理能力[10] 记忆原子操作 - **记忆管理** - 巩固:将短期经验转化为持久性记忆[12] - 索引:构建辅助索引提升检索效率[12] - 更新:基于新知识修改已有记忆[13] - 遗忘:选择性移除无效或有害内容[14] - **记忆利用** - 检索:识别与访问相关记忆片段[15] - 压缩:在有限窗口保留关键信息[16] 关键研究主题 - **长期记忆** - 支撑跨轮推理与个性化生成,涉及巩固/索引/更新/遗忘等操作[23][26][27] - 采用"检索-压缩-生成"三阶段联动机制,压缩过程为当前性能瓶颈[28] - **长上下文记忆** - 关注KV缓存优化与上下文利用效率,支持百万级token处理[34][35] - ML社区侧重KV缓存压缩,NLP领域聚焦上下文压缩与检索[38] - **参数记忆修改** - 包括编辑/遗忘/持续学习三类操作,实现内部知识动态调控[39] - 编辑方法关注度高,遗忘方法在训练目标方向展现潜力[47] - **多源记忆整合** - 跨文本整合侧重多源融合与冲突处理[45] - 多模态协调沿融合/检索/时间建模三大方向拓展[48] 实际应用与工具 - 记忆增强系统已应用于编程助手/健康陪伴/会议助理等场景[50] - 形成从向量数据库到操作框架(LangChain等)的完整工具链[50] 人类与AI记忆对比 - 存储结构:生物分布式 vs 模块化/参数化[54] - 更新方式:重构式再巩固 vs 精准定位编辑[56] - 检索机制:联想触发 vs 查询驱动[56]