人工超级智能(ASI)
搜索文档
从物竞天择到智能进化,首篇自进化智能体综述的ASI之路
机器之心· 2025-08-12 09:51
自进化智能体综述核心框架 - 普林斯顿大学联合多所顶尖机构发布首个系统性自进化智能体综述,旨在建立统一理论框架并为实现通用人工智能(AGI)和人工超级智能(ASI)铺平道路 [2] - 提出围绕"What、When、How、Where"四个维度的完整分析框架,系统梳理前沿技术 [8] - 将智能体系统解构为四大核心组成部分:架构(Γ)、模型({ψi})、上下文({Ci})和工具集({Wi}) [9] - 自进化策略被形式化为转换函数f,输入当前智能体系统(Π)、轨迹(τ)和反馈(r),输出演化后的新系统(Π'),即Π' = f(Π, τ, r) [9] - 终极目标是构建最优自进化策略f,使智能体在连续任务上的累积效用最大化 [9] 演化内容(What to Evolve) - 模型演化包括决策策略优化(如通过自我生成挑战性任务SCA或自然语言反馈在线微调SELF、TextGrad)和经验积累学习(如Reflexion自我反思机制、RAGEN强化学习框架) [13] - 上下文演化涵盖记忆动态管理(如Mem0框架的ADD/MERGE/DELETE机制、Expel提炼可泛化规则)和指令提示自动化优化(如APE候选提示生成、DSPy可微分程序联合优化、MASS多智能体通信优化) [13] - 工具演化分为自主创造新工具(如Voyager探索式学习、Alita响应式代码生成)、已有工具精通(如LearnAct自我纠错循环)以及管理与选择(如ToolGen工具调用生成问题、AgentSquare元学习优化组件配置) [13] - 架构演化针对单智能体(如TextGrad优化工作流节点、Darwin Gödel Machine重写自身源代码)和多智能体系统(如AFlow蒙特卡洛树搜索协作流程优化、ReMA多智能体强化学习协同策略) [14] 演化时机(When to Evolve) - 测试时自进化发生在任务执行期间,例如AdaPlanner通过ICL动态修正计划、利用"self-edits"指令触发即时SFT更新模型权重、LADDER框架通过RL实现即时技能获取 [20] - 测试间自进化发生在任务执行之后,例如STaR和SiriuS通过SFT从成功或失败推理链生成训练数据实现自举式提升、RAGEN和WebRL利用RL在任务间歇期优化策略 [20] 演化方法(How to Evolve) - 基于奖励的演化利用文本反馈(如Reflexion提供自然语言改进建议)、内部奖励(如CISC利用模型置信度自我评估)、外部奖励(如工具执行成功/失败)和隐式奖励(如从模型logits提取内生奖励函数) [21] - 模仿与演示学习通过自我生成演示(如STaR)、跨智能体演示(如共享经验库学习)或混合方式学习高质量范例 [21] - 基于种群的演化方法维护多个智能体变体或团队,通过选择、变异和竞争机制探索解空间,例如Darwin Gödel Machine的开放式代码进化、EvoMAC的文本反向传播机制 [22] 应用场域(Where to Evolve) - 通用领域演化通过记忆机制(如总结历史经验形成可复用知识)、模型-智能体协同进化(如奖励模型与世界模型相互促进)和课程驱动训练(如WebRL自适应生成难度任务)拓展广泛任务能力 [25] - 特定领域演化在垂直领域深耕,例如编码领域SICA自主修改代码库、GUI领域通过真实交互学习界面操控、金融领域QuantAgent优化量化策略、医疗领域Agent Hospital提升诊断能力、教育领域PACE个性化调整教学策略 [25] 评估范式 - 提出五大评估目标:适应性(Adaptivity)、知识保留(Retention)、泛化性(Generalization)、效率(Efficiency)和安全性(Safety) [28] - 评估模式分为静态评估、短时程自适应评估和长时程终身学习评估 [28] - 适应性通过迭代步骤成功率(如65、29、247项研究)和适应速度(如Voyager)衡量;知识保留通过遗忘率(FGT)和反向迁移(BWT)衡量;效率通过Token消耗、时间支出和工具生产率衡量;安全性通过安全评分、危害评分和泄漏率等衡量 [29] - 代表性基准测试包括ScienceAgentBench(102项科学数据分析任务)、SWE-bench(2,294项软件工程任务)、OSWorld(GUI任务)、LifelongAgentBench(1,396项长时程任务)和AgentBench(1,360项通用任务) [31]
对话凯文·凯利:不必过多担忧,AI变强后,人类只需专注于“玩”
36氪· 2025-08-01 10:55
AI技术发展趋势 - 当前AI模型扩展规模面临困难 新模型缺乏革命性突破 包括中国模型与美国模型相比仍无明显差异[3] - 实现通用人工智能需要超越现有扁平化模型架构 智能是包含几十种不同元素的复杂化合物[4] - 智能不是单一维度 而是多维度的广阔空间 需要建立"可能心智的分类学"来标示各类智能体的位置[9] 异类智能概念 - 用"异类智能"替代AGI/ASI概念 强调AI不是高于人类的超级智能 而是不同于人类的"他者"[6][7] - 智能无法在所有维度都优化 就像蚂蚁在某些能力上优于人类 AI也将专注于不同领域而非全能[12][13] - 需要同时准备两种场景:大型通用模型成功路线与去中心化小众模型路线[15] 镜像世界技术 - 镜像世界是叠加在现实世界的虚拟维度 包含VR体验、真实世界孪生、空间智能和机器认知四个层面[16][17] - 镜像世界需要廉价普及的AI支持 通过实时处理真实世界数据构建虚拟环境[18] - 主要用途是协作工具而非娱乐 能实现百万人规模实时协作 超越现有通讯方式限制[20][21][22] AI行业竞争格局 - AI行业将形成自然垄断格局 遵循网络效应"越大越好 越好越大"的规律[26] - 垄断地位生命周期较短 新平台会快速取代旧主导者 如OpenAI可能取代谷歌搜索地位[27] - 当前主导企业可能被新兴AI公司取代 镜像世界平台将带来新一轮洗牌[27] 人类价值定位 - 人类拥有AI不具备的"大写的创造力" 能突破性创新而非仅优化现有方案[29] - 人类存在本身将变得稀缺且有价值 富人更愿被真人包围 人性成为稀缺品[35] - 人类将通过提供陪伴、教学等"做人"服务获得收入 即使AI能完成经济价值更高的工作[35] 数据与隐私 - 用户愿意用隐私换取个性化服务 会自主选择开放透明度以获取AI助理的更大价值[38] - 信任是关键因素 不同地区用户对政府或企业的信任度将决定数据开放意愿[38] 教育体系变革 - 核心技能是"学会如何为自己学习" 需要掌握优化自身学习方式的能力[41] - 学校教育应关注学习能力本身而非特定科目 采用自定进度个性化教学[42] - 提问能力比知识掌握更重要 学会提问是优化学习的关键方法之一[43]
万字长文!首篇智能体自进化综述:迈向超级人工智能之路~
自动驾驶之心· 2025-07-31 23:33
自进化智能体综述核心观点 - 自进化智能体是AI领域从静态模型转向动态持续学习的关键范式转变 旨在解决LLMs在开放环境中无法实时调整参数的瓶颈问题 [2][3][5] - 研究围绕三大基础维度构建框架:进化对象(模型/记忆/工具/架构)、进化时机(测试时内/外)、进化机制(奖励/反馈/搜索等) [2][6][21] - 该领域首次系统性梳理了自进化智能体的算法、评估指标和应用场景 为人工超级智能(ASI)的实现提供路线图 [3][6][52] 进化对象(What to Evolve) - **模型进化**:通过参数微调(SFT/RL)实现推理和行为优化 如AgentGen支持策略网络动态更新 [22][24] - **记忆进化**:长期记忆模块(如Mem0)可存储历史交互数据 支持经验复用和知识迁移 [24][29] - **工具进化**:智能体自主创建/掌握新工具(如Voyager生成代码工具)以扩展能力边界 [24][42] - **架构进化**:单智能体向多智能体系统扩展(如MAS-Zero) 通过协作提升复杂任务处理能力 [24][159] 进化时机(When to Evolve) - **测试时内进化**:任务执行中实时调整(如通过ICL) 典型场景包括动态环境交互和即时错误修正 [25][26][27] - **测试时外进化**:任务间隙离线优化 含监督微调(SFT)和强化学习(RL)两种范式 需平衡计算成本与长期收益 [26][28][33] 进化机制(How to Evolve) - **奖励驱动**:利用标量奖励(如TextGrad)或自然语言反馈引导进化 需注意奖励稀疏性问题 [31][32][36] - **模仿学习**:通过高质量示范(人类/智能体生成)快速提升能力 但依赖数据多样性 [32][36] - **群体进化**:多智能体系统(如AlphaEvolve)采用选择/变异机制 促进策略创新但计算成本高 [32][36][61] 应用场景 - **通用领域**:编程(Voyager自动生成代码)、教育(个性化学习助手)等数字环境任务 [38][42] - **专业领域**:医疗(WIN-GPT电子病历分析)、科研(文献自动归纳与实验设计)等高专业性场景 [43][47] 未来挑战 - **个性化进化**:需解决冷启动问题 开发轻量级评估指标以跟踪长期用户偏好适应 [43][44] - **安全可控性**:构建"智能体宪法"框架 防止有害行为生成和隐私泄露 [49][50] - **多智能体协同**:平衡个体推理与群体决策 开发动态评估基准反映长期交互效应 [51]
OpenAI反挖四位特斯拉、xAI、Meta高级工程师,目标星际之门
机器之心· 2025-07-09 04:23
AI行业人才争夺战 - Meta近期从OpenAI挖走至少7位员工并提供高薪酬和充足算力资源 [8] - OpenAI从特斯拉、xAI和X公司挖来4位知名工程师包括特斯拉前软件工程副总裁David Lau [3][5] - 被Meta挖走的OpenAI研究者已达8位可能加入Meta新组建的超级智能实验室 [18] OpenAI的战略布局 - OpenAI扩展团队负责管理后端硬件与软件系统及数据中心包括"星际之门"超级计算机项目 [7] - "星际之门"计划将包含百万块专用AI芯片预计成本达1150亿美元 [7] - 公司强调基础设施对实现通用人工智能(AGI)使命的关键作用 [7] 行业竞争态势 - AI行业自2022年底ChatGPT推出后人才争夺战异常激烈 [13] - 各大公司为率先实现人工超级智能(ASI)重新反思常规人才招聘规范 [14][15] - 扩展能力(scaling)对AI发展起关键作用更多数据和算力使模型更强大 [16][17] 公司间关系动态 - OpenAI从xAI挖人可能加剧与马斯克的紧张关系 [10] - 马斯克2018年退出OpenAI后现正起诉公司背弃初衷 [11] - OpenAI反诉马斯克指控其存在不正当竞争并干扰公司运营 [12] 人才流动影响 - OpenAI首席研究官Mark Chen表示要在顶尖研究人才争夺战中与Meta正面交锋 [19] - 公司可能调整研究人员薪酬方案以更好应对竞争 [8] - Meta挖角目标还包括Thinking Machines Lab多位员工 [9]