Workflow
CLIP
icon
搜索文档
李飞飞的答案:大模型之后,Agent向何处去?
虎嗅APP· 2025-09-07 02:51
Agent AI核心框架 - 提出由环境与感知、认知、行动、学习、记忆五大模块构成的智能体认知闭环架构 这代表对未来通用人工智能发展路径的前瞻性思考[10][12][17] - 感知模块具备多模态信息接收能力和任务规划与技能观察功能 使智能体能主动从物理或虚拟世界获取信息[12] - 认知模块作为处理中枢 由大语言模型和视觉语言模型提供世界知识、逻辑推理和上下文理解能力[14] - 行动模块通过控制器生成物理世界交互指令或虚拟世界API调用[15] - 学习模块支持预训练、零样本/少样本学习、强化学习和模仿学习等机制 实现持续自我进化[16] - 记忆模块采用持久化结构化系统存储知识、逻辑和推理结果 支持长期经验积累[17] 大模型驱动机制 - 大型基础模型特别是LLM和VLM的成熟是Agent AI框架的根本驱动力 为智能体提供零样本规划能力[20] - 大模型存在的"幻觉"问题可通过环境交互机制解决 环境反馈能迫使模型内部知识与外部现实对齐[21] - 基础模型存在社会偏见风险 需通过多元化数据训练和偏见检测机制确保包容性[22] - 个人数据隐私保护需建立明确法规框架 通过提示工程和人类监督层确保安全可控[22] 游戏领域应用 - 彻底改变传统NPC由固定脚本驱动的模式 实现基于记忆、目标和情感的动态行为调整[25] - 支持玩家用自然语言与游戏世界互动 为开放世界游戏带来前所未有的沉浸感和自由度[25] - 可作为创作者副驾驶 根据指令自动生成游戏关卡、道具和完整3D场景 大幅提升开发效率[25] 机器人领域应用 - 用户可用日常语言下达指令 机器人自主规划执行复杂物理操作 如GPT-4V可将人类演示视频转化为可执行任务序列[27] - 通过领域随机化技术在模拟训练中引入变化 增强对真实世界差异的鲁棒性[27] - 融合视觉、语言、触觉等多模态信息理解环境 实现更精准的物理交互[27] 医疗健康应用 - 作为医疗聊天机器人进行初步问诊和病史收集 基于医学知识库提供诊断建议 提升初级诊疗覆盖率[29] - 连接实时更新的医学数据库 在生成诊断时同步进行事实核查和来源引用 抑制模型幻觉[29] - 处理分流患者信息并监控慢性病患者生命体征 实现高效个性化健康管理[31] 发展挑战与方向 - 需解决视觉、语言、听觉、动作等多模态深度融合问题 而非浅层拼接[32] - 需训练能跨游戏、机器人和医疗等不同领域工作的通用智能体 而非定制化模型[32] - 建立科学评测体系至关重要 研究团队已提出CuisineWorld多智能体协作基准和VideoAnalytica视频理解基准[32]
李飞飞的答案:大模型之后,Agent 向何处去?
创业邦· 2025-09-05 11:12
论文核心观点 - 李飞飞领衔的80页综述论文《Agent AI: Surveying the Horizons of Multimodal Interaction》为AI智能体领域建立统一框架 提出从感知到行动的认知闭环架构 并前瞻性预测行业技术演进路径 [5][6][9] - 论文定义Agent AI五大核心模块(环境感知、认知、行动、学习、记忆) 构成动态迭代的智能体体系 被视为实现AGI的系统性蓝图 [12][18] - 大模型(LLM/VLM)是驱动Agent的核心引擎 但需通过环境交互解决幻觉与偏见问题 需建立伦理安全机制 [5][20][21] - 应用潜力覆盖游戏、机器人和医疗三大领域 包括游戏NPC动态交互、机器人自主物理操作、医疗智能问诊与健康管理 [5][24][30] 技术架构 - 环境与感知模块:智能体主动从物理/虚拟世界获取多模态信息(视觉、听觉、文本) 并具备任务规划与技能观察能力 [13] - 认知模块:由LLM/VLM驱动 负责复杂推理、策略制定及上下文理解 是智能体的核心处理中枢 [14] - 行动模块:将决策转化为具体操作指令 包括机器人控制命令或API调用 通过控制器改变环境状态 [15] - 学习模块:支持预训练、零样本/少样本学习、强化学习及模仿学习 通过环境反馈实现持续优化 [16] - 记忆模块:存储知识、逻辑与推理结果 形成长期记忆体系 支持经验复用与举一反三 [17][18] 大模型驱动机制 - LLM/VLM提供零样本规划能力 例如将"热午餐"指令分解为具体子任务序列 显著降低规则编写成本 [20] - 环境交互是关键锚点:通过真实/模拟环境反馈校准模型输出 减少幻觉(如机器人操作错误)并对齐现实世界 [21] - 需解决数据偏见问题:通过多元化训练数据、偏见检测机制及道德指导方针确保包容性 [21] - 隐私与安全挑战:需建立数据使用监管框架 通过提示工程或人类监督层确保敏感领域(如医疗)安全可控 [22] 行业应用场景 - 游戏领域:变革传统NPC脚本模式 实现动态对话、行为调整及社会关系构建 支持自然语言交互与AI辅助内容生成 [25][26] - 机器人领域:实现自然语言指令解析(如"收拾桌子") 结合GPT-4V理解人类演示视频 并通过模拟训练与多模态融合提升物理操作鲁棒性 [28] - 医疗领域:智能问诊机器人提升初级诊疗效率 连接实时医学数据库进行事实核查 支持慢性病监控与个性化健康管理 [30][32] 行业发展与挑战 - 2025年被普遍视为Agent元年 谷歌、OpenAI和微软等巨头技术布局均遵循论文能力栈框架 [5][9] - 当前需突破多模态深度融合、跨领域通用化及标准化评测(如CuisineWorld、VideoAnalytica基准)等核心挑战 [33]
李飞飞的答案:大模型之后,Agent向何处去?
虎嗅· 2025-09-05 00:34
论文核心观点 - 李飞飞领衔的14位专家团队发布80页Agent AI综述 提出统一的多模态智能体认知框架 为行业提供前瞻性发展蓝图 [1][2][3][5][6][61] 技术架构 - 建立感知-决策-行动加记忆与学习的五模块认知闭环架构 形成动态迭代的智能交互系统 [9][10][26] - 感知模块支持多模态信息输入 包含视觉听觉文本传感器数据 并具备任务规划与技能观察能力 [12][13][14] - 认知模块由大语言模型和视觉语言模型驱动 负责多步推理与策略制定 [16][17] - 行动模块生成物理世界或虚拟世界的操作指令 通过控制器改变环境状态 [18][19] - 学习模块支持预训练/零样本/强化学习/模仿学习等多种机制 通过环境反馈持续优化 [20][21][22] - 记忆模块实现持久化结构化存储 保留知识逻辑推理路径 支持经验复用 [23][24][25] 基础模型作用 - 大语言模型和视觉语言模型为智能体提供世界知识库与零样本规划能力 显著降低任务规则编写成本 [28][29][31] - 模型存在幻觉问题 Agent通过环境交互获得物理规律反馈 倒逼模型与现实世界对齐 [32][33][34][35] - 基础模型可能继承社会偏见 需通过多元化训练数据和偏见检测机制确保包容性 [36][37] - 在医疗等敏感领域需建立数据隐私保护框架 通过提示工程和人类监督层确保安全可控 [38][39] 应用场景 - 游戏领域可创建具备记忆情感的NPC 支持自然语言交互与动态行为调整 显著提升开放世界沉浸感 [41][42][43][44] - 作为AI副驾驶自动生成游戏关卡道具及3D场景 大幅提高开发效率 [45] - 机器人领域实现自然语言指令解析 自主规划复杂物理操作序列 [47][48] - 通过GPT-4V理解人类演示视频并转化为可执行任务 简化编程流程 [49] - 采用领域随机化技术增强模拟到现实的迁移能力 提升环境适应性 [50] - 融合视觉语言触觉等多模态信息实现精细环境交互 如根据"易碎"指令调整抓取力度 [51] - 医疗领域作为聊天机器人进行初步问诊病史收集 提升初级诊疗覆盖率 [54] - 连接实时医学数据库实现事实核查与来源引用 抑制模型幻觉保障诊断准确性 [55] - 处理分流患者信息并监控慢性病体征数据 实现高效个性化健康管理 [57] 发展挑战 - 需突破视觉语言听觉动作等多模态深度融合技术 而非简单拼接 [59] - 需开发跨游戏机器人医疗等不同领域的通用智能体 而非定制化模型 [60] - 建立科学评测体系如CuisineWorld多智能体协作基准和VideoAnalytica视频理解基准 [61]
OpenAI提出的CLIP,被Meta联合谢赛宁、刘壮,扩展到全球300+语言
机器之心· 2025-07-31 05:11
MetaCLIP 2的核心创新 - 提出首个从零开始在原生全球图文对上训练CLIP的方法,不依赖外部资源如私有数据或机器翻译 [2] - 通过元数据拓展、数据筛选算法和训练框架三项核心创新实现全球扩展能力,覆盖300多种语言 [5] - 实验证明英语与非英语数据可互利,ViT-H/14模型在ImageNet英语准确率从80.5%提升至81.3%,多语言任务创SOTA [6][10] 技术架构与训练方法 - 元数据覆盖维基百科与多语言WordNet,采用语言隔离的子串匹配算法保持概念分布均衡 [22][24] - 训练框架同步扩大批次规模2.3倍(从32,768增至75,366),确保英语数据占比44%不变 [26][27][30] - 使用多语言tokenizer(XLM-V最优)和最小可行模型容量研究,保持与OpenAI CLIP架构一致性 [20][37] 性能优势与行业影响 - 在Babel-ImageNet、XM3600等多语言基准上性能超越mSigLIP 3.8%-7.6%,使用图文对数量仅为竞品72% [32][34] - 保留文化多样性数据分布,提升地理定位能力(如GLDv2任务69.0% Top-1准确率) [13][39] - 提供全球规模图文对数据集,支持MLLM、图像生成等下游应用,填补非英语数据处理的空白 [15][7] 实验验证与突破 - 消融实验显示语言隔离和t_lang调整机制对性能提升关键,ViT-H/14模型打破"多语言诅咒" [31][36] - 全球数据训练使英语与非英语任务同步优化,XM3600检索任务达到64.3%准确率 [6][32] - 嵌入质量评估显示MetaCLIP 2在对齐度和均匀性指标上优于SigLIP系列模型 [39]
多模态大语言模型(LLM) 和视频语言预训练的关键进展、应用、数据集和方法
36氪· 2025-07-23 02:45
大规模视频语言预训练技术发展 - 视频语言预训练利用弱字幕和视频数据进行表征学习,采用预训练和微调范式降低计算成本并提升模型复用性 [1][2] - 主要代理任务包括掩码语言模型(MLM)、掩码帧模型(MFM)、语言重构(LR)等6类,分别聚焦语言预测、帧预测、对齐等序列视角学习 [2] - Transformer模型通过计算元素相似度聚合长程依赖,突破传统模型训练数据规模限制 [3] 关键数据集发展现状 - 基于标签数据集:Kinetics含65万视频片段覆盖700类动作,AVA含162万动作标签 [7] - 基于字幕数据集:Howto100M含136亿视频片段,WebVid-10M含1000万弱字幕视频,HD-VILA含1亿720p视频片段 [8] - 数据集规模直接影响模型鲁棒性,尤其对Transformer架构至关重要 [6] 主流预训练方法分类 - 单流方法:VideoBERT首次采用Transformer,ClipBert实现经济型端到端学习,ALPRO提出视频文本对比增强交互 [10] - 双流方法:CBT采用对比噪声估计损失,FiT学习联合多模态嵌入,CLIP-ViP将视觉语言对齐扩展至视频级 [11] - 方法选择取决于任务需求,单流擅长细粒度关系捕捉,双流提供模态处理灵活性 [11] 应用领域与迁移学习 - 下游任务覆盖视频文本检索、动作识别、视频问答等,需针对性设计迁移方案 [4] - CLIP模型基于4亿图像-文本对训练,在零样本图像分类任务表现突出 [3] - 跨模态任务研究激增,视频数据多模态特性(标题/音频/旁白)推动技术突破 [3]
ICCV 2025|训练太复杂?对图片语义、布局要求太高?图像morphing终于一步到位
机器之心· 2025-07-18 00:38
核心观点 - FreeMorph是一种无需训练、一步到位的图像变形方法,能够在不同语义与布局的图像之间生成流畅自然的过渡效果 [5] - 该方法通过改进扩散模型的自注意力机制,解决了传统方法中训练成本高、适应性差的问题 [5][11] - FreeMorph在30秒内即可为两张输入图像生成高质量平滑过渡,显著优于现有技术 [32] 技术背景 - 传统图像变形技术依赖复杂的图像对齐算法和颜色插值,难以处理复杂纹理和多样语义的图像 [4] - 现有深度学习方法如GAN、VAE存在训练成本高、数据依赖强、反演不稳定等问题 [4] - 基于Stable Diffusion和CLIP等大模型的方法仍面临训练时间长(约30分钟/案例)和语义处理能力不足的挑战 [9] 技术方案 - 引导感知的球面插值:通过修改预训练扩散模型的自注意力模块,融入输入图像的显式引导来增强模型 [11] - 球面特征聚合融合自注意力模块的Key和Value特征,确保过渡一致性 [16] - 先验引导的自注意力机制保留输入图像的独特身份特征 [18] - 步骤导向的变化趋势:融合两个输入图像的自注意力模块,实现受控且一致的过渡 [21] - 改进的反向去噪和正向扩散过程:将创新组件集成到原始DDIM框架中 [22][25] 技术优势 - 无需训练或调参,仅需两张输入图像即可完成变形 [5] - 处理时间仅需30秒,显著快于现有方法(如IMPUS需要30分钟) [32] - 能够处理语义多样、布局复杂的图像对,保持身份特征和平滑过渡 [27][30] - 在四组不同类别的评估数据集上表现优异 [12] 应用前景 - 可应用于动画、电影特效或照片编辑等领域 [3] - 能够捕捉细微变化,如不同颜色的蛋糕或人物表情的微妙差异 [27] - 为training-free图像变形打开了新的可能性 [5] 技术局限 - 处理语义或布局差异较大的图像时,过渡可能不够平滑 [34] - 继承了Stable Diffusion的固有偏差,在人体四肢等结构处理上准确性受影响 [34]
被 AI 大厂逼至绝望,这帮欧洲人发起了一场“科学复兴运动”
AI科技大本营· 2025-06-24 07:45
LAION的起源与使命 - LAION诞生于对AI领域"黑箱"研究现状的反思,旨在通过开放数据集和工具推动机器学习研究的可复现性[7][12][13] - 由德国高中教师Christoph Schuhmann发起"在家爬虫"计划,后联合程序员Theo Coombes共同创建去中心化协作网络[2][3] - 核心信条为100%非营利与免费,目标是通过开放资源对抗AI发展的集权化趋势[3][9][26] 组织架构与关键成员 - 采用分布式实验室网络模式,核心成员包括尤利希超级计算中心的Jenia Jitsev博士、斯坦福大学Ludwig Schmidt教授等[5][9][11] - 依托德国亥姆霍兹联合会的超级计算资源,实现工业级模型训练能力[9][14] - 志愿者社区涵盖科学家、工程师、医生等多元背景,形成互补型人才网络[3][5] 技术突破与行业影响 - 成功构建LAION-400M/5B开放数据集,训练出的OpenCLIP模型性能媲美OpenAI原始CLIP[16][17] - OpenCLIP B32模型持续产生影响力,月下载量超100万次[17] - 验证了开源社区通过协作可复现顶尖实验室成果的可能性[16][26] 研究范式与学术理念 - 强调"以数据为中心"的机器学习理念,主张网络规模数据集的多样性优于人工筛选[21][22] - 遵循"苦涩的教训"原则,追求算法与数据集的双重可扩展性[22][23] - 通过OpenThoughts等项目推动推理模型发展,已积累100万条推理轨迹数据[41][43] 行业问题与批判 - 揭示大语言模型存在根本性逻辑缺陷,简单数字变化即可导致GPT-4等顶尖模型性能崩溃[35][36] - 指出商业模型过度自信的"虚构"问题可能对实际应用造成隐蔽风险[37][38] - 批评封闭实验室因商业压力可能偏离基础研究方向[27][28] 未来发展方向 - 计划扩大推理数据规模至数百万条,验证量变能否引发质变[41][43] - 寻求与Linux基金会等组织建立更紧密的开放生态合作框架[45] - 持续通过"爱丽丝梦游仙境"等研究对行业进行压力测试[33][38]
大模型能够自发形成“人类思维地图”!Nature子刊重磅研究揭示多模态大模型类脑机制
机器人圈· 2025-06-11 11:43
大模型理解能力研究 - 核心观点:大语言模型(LLM)和多模态大语言模型(MLLM)能够自发形成与人类高度相似的物体概念表征系统,证明其并非仅依赖统计概率的"随机鹦鹉"[1][2][3] - 研究团队通过470万次行为判断数据构建AI模型的"概念地图",证实其低维表征结构与人类相似[3][6][8] - 纯文本训练的ChatGPT-3.5与多模态Gemini模型预测人类行为选择的准确度分别达到噪声上限的87.1%和85.9%[9] 研究方法与发现 - 采用"三选一异类识别任务"分析1854种日常概念组合,首创"行为认知探针"方法避免黑箱神经网络的可解释性难题[5][8] - 从行为数据中提取66个核心维度,模型自发形成18个高级物体概念类别,分类准确率达78.3%(接近人类的87.1%)[9][13] - 模型表现出与人类一致的"生物/非生物""人造/自然"分类边界,印证认知神经科学经典发现[14] 模型与人类认知对比 - MLLM的低维嵌入预测大脑梭状回面孔区(FFA)神经活动的准确度达人类水平的85%,远超纯文本模型(60%)[23][24] - 大模型(如GPT-4、Gemini_Pro)在行为选择模式上更接近人类,传统单模态模型(如ResNet18、VGG16)一致性较低[28][29] - 人类决策依赖视觉特征和语义信息整合,而大模型更侧重语言驱动的语义归类[32][33] 应用前景与未来方向 - 潜在应用包括类脑智能系统开发、神经机制探索、认知增强型脑机接口构建[35] - 下一步将拓展至新一代多模态大模型测试平台,建立细粒度"认知图谱"并开发持续微调方法[35][36] - 研究团队由中科院自动化所主导,论文发表于《Nature Machine Intelligence》,相关代码与数据集已开源[37][39][40]
Mary Meeker:AI采纳现状如何?
搜狐财经· 2025-06-11 02:17
核心观点 - ChatGPT的搜索量增长速度超过传统Google搜索,成为AI领域最具变革性的技术之一 [2] - AI训练模型数据和计算资源的年增长率分别达到260%和360% [2] - AI采纳速度远超历次科技革命,仅用约三年时间达到普及 [5][6] AI增长与普及 - ChatGPT在用户、订阅数和收入方面展示出前所未有的普及度,呈现曲棍球棒式增长曲线 [3] - AI在消费者、开发者、企业和政府中的使用激增,全球化扩散速度远超互联网1.0时代 [4] - 多模态AI模型快速发展,2024-2025年已实现文本、图片、声音和视频的统一处理 [6] 开发者与企业应用 - Google生态系统的AI开发者数量从140万增长至700万,增幅达五倍 [5] - 全球75%的首席营销官正在试验AI,企业显著增加AI项目投入 [6] - AI推理成本通缩现象存在,每年美元购买力提升达10倍 [7] 全球市场与竞争 - 印度ChatGPT使用率为13.5%,美国9%,印尼和巴西均为5% [9] - 中国在大语言模型性能方面领先,AI能力支撑国家战略领域 [10] - 中国预计到2025年将聚焦AI在军事和非战斗支援中的应用 [10] 未来趋势 - 下一代用户将在原生AI环境中成长,机器将以母语和语音直接互动 [8] - AI将深度融入生活,未来难以想象没有AI的世界 [8] - 语音界面与实体结合将推动机器人管家等实用型设备发展 [10]
2025年中国多模态大模型行业模型现状 图像、视频、音频、3D模型等终将打通和融合【组图】
前瞻网· 2025-06-01 05:09
多模态大模型技术发展 - 行业聚焦视觉等重点模态领域突破,探索"Any-to-Any"大模型技术路径,如Google Gemini和Codi-2处于早期阶段,需实现跨模态知识学习与信息对齐 [1] - 当前主要工作集中在Transformer架构向图像、视频、3D等模态扩展,完善单模态感知/生成模型后再推进跨模态融合 [1] 图像模型进展 - 2023年前已建立CLIP、Stable Diffusion、GAN等基础模型,衍生Midjourney、DALL·E等成熟文生图应用 [2] - 近年重点探索ViT、DiT等视觉Transformer架构,推动GLIP、SAM、GPT-V等LLM与视觉模型融合成果 [2] 视频模型技术 - 基于图像生成模型(如扩散模型)叠加时间维度对齐,形成VideoLDM、W.A.L.T.等文生视频方案 [5] - Sora采用Diffusion Transformer架构实现突破性视频生成,首次展现"智能涌现"特征 [5] - 主流技术路径为文生图模型+时序对齐,辅以插帧超分、噪声对齐、LLM增强描述等方法提升质量 [5] 3D模型开发现状 - 技术路线延伸自2D图像生成(GAN/Diffusion/VAE等),产生3D GAN、MeshDiffusion、Instant3D等早期成果 [8][9] - 数据表征以NeRF(神经辐射场)为核心技术,支持网格、点云、体素等多种形式 [9] - 数据集稀缺,ShapeNet含5.1万3D CAD模型,Objaverse-xl达1000万对象规模 [9] 音频模型创新 - Transformer架构推动Whisper large-v3、VALL-E等项目突破,增强多语种/自然声/零样本学习能力 [11] - Omni模型通过neural audio codec编码,结合扩散模型实现音频合成技术迭代 [11]