Workflow
LVMM 2.0
icon
搜索文档
Meta 系 95 后华人明星团队,创业一年就与高通达成合作,让手机拥有多模态记忆
Founder Park· 2025-11-07 00:15
公司概况与融资 - 公司Memories.ai由华人创业者沈俊潇(Shawn Shen)于2024年在硅谷创办,专注于开发AI的视觉记忆能力 [2] - 2025年7月,公司完成800万美元种子轮融资,由Susa Ventures领投,三星风投、Fusion Fund等机构跟投 [2] 核心团队背景 - 创始人沈俊潇拥有剑桥大学三一学院工程学本硕博学位,曾担任Meta Reality Labs核心研究科学家 [3] - 联合创始人周恩旻(Ben Zhou)曾在Meta Reality Labs从事Meta Ray-Ban眼镜AI助手的产品工作 [3] - 公司近期引入Eddy Wu担任首席AI负责人,其此前在Meta工作五年,负责Meta AI应用的GenAI研究 [3] 产品与技术:LVMM模型 - 公司开创了视觉记忆模型,于2025年8月发布第一代大型视觉记忆模型(LVMM) [6] - 三个月后发布LVMM 2.0,模型性能与第一代相同,但参数量减少了10倍,更适合在设备端运行 [6] - LVMM 2.0通过将原始视频转化为设备端的结构化记忆,解决视频可搜索性问题,能对帧进行编码与压缩,建立支持毫秒级检索的索引 [7] - 用户可使用自然语言或图像线索提问,并直接跳转到视频精确片段 [7] - 模型将视频、音频与图像融合,使结果具备上下文,统一的记忆格式确保体验在手机、摄像头、边缘系统等设备间一致 [8] - 随着更多视频被索引,LVMM的召回率与精准度会持续提升 [8] 战略合作与部署 - 公司宣布与高通合作,LVMM将于2026年在高通处理器上原生运行 [2] - 原生运行于高通处理器能显著降低延迟、减少云端成本,并确保数据本地化以强化安全性 [8] - 高通公司产品管理副总裁表示,结合高通在边缘计算、连接性和设备端AI的专业能力与LVMM技术,将重塑机器的感知、学习与记忆方式,催生出更灵敏、具备上下文理解力的AI平台 [9] 应用场景 - 实际应用包括:AI相册(在设备上组织并调取个人视频记忆)、智能眼镜与可穿戴设备(增强AI的回忆与识别能力)、安防系统(帮助摄像头实时理解并响应)、机器人(赋予机器人更强的环境理解力) [11] 开发者生态 - 开发者可通过SDK与参考设计快速接入捕捉、索引与检索功能,而无需重建后端 [8]