Workflow
AI科技大本营
icon
搜索文档
季逸超亲述 Manus 构建之谜,一文读懂 AI 智能体的上下文工程
AI科技大本营· 2025-07-21 10:08
上下文工程的核心观点 - Manus团队选择基于上下文工程而非端到端训练构建AI Agent,将产品迭代周期从数周缩短至几小时,保持与底层模型发展的正交性[2][3] - 上下文工程是实验科学,团队通过四次重构Agent框架总结出"随机研究生下降"方法论,即通过手动调试提示词和经验猜测寻找局部最优解[3] - KV缓存命中率是生产级AI Agent最关键指标,直接影响延迟和成本,优化后可使Claude Sonnet模型输入token成本从3美元/百万降至0.3美元/百万[5][8] KV缓存优化策略 - 保持提示词前缀稳定性,避免在系统提示开头插入时间戳等可变元素导致后续缓存失效[13] - 采用只增不减的上下文管理策略,确保序列化过程确定性,避免JSON键顺序变化破坏缓存[13] - 明确标记缓存断点,在系统提示后设置断点以适配不支持自动增量缓存的推理框架[13] 操作空间管理 - 避免动态增删工具定义,工具变更会导致后续所有动作和观察结果的KV缓存失效[12] - 采用感知上下文的状态机进行logits掩码,而非直接移除工具,防止模型产生格式错误输出[15] - 设计统一工具名前缀(如browser_/shell_),便于在特定状态下强制选择某类工具[18] 外部上下文设计 - 将文件系统作为无限容量的外部记忆,训练模型按需读写文件实现结构化存储[23] - 采用可恢复的压缩策略,保留URL或文件路径等关键信息而非永久删除内容[26] - 状态空间模型若掌握基于文件的记忆能力,可能催生新型高效Agent架构[26] 注意力与错误管理 - 通过复述机制(如todo.md文件)将核心目标持续写入上下文末端,防止50次工具调用链中的目标漂移[27][31] - 保留失败尝试和错误信息在上下文中,使模型能隐式更新内部认知降低重复错误概率[35] - 错误恢复能力是衡量Agent智能的关键指标,但被多数基准测试低估[35] 少样本提示优化 - 少样本提示可能导致行为定式,如在简历审查任务中机械重复相似操作[36] - 通过引入序列化模板变体、调整措辞等增加多样性打破思维定式[37] - 上下文同质化会加剧Agent脆弱性,需保持受控随机性激活模型注意力[38]
OpenAI 深夜发布 ChatGPT Agent:对标Manus、硬刚 Grok 4
AI科技大本营· 2025-07-18 10:23
ChatGPT Agent发布 - OpenAI发布ChatGPT Agent 整合"Operator"网络搜索智能体与"Deep Research"深度研究智能体 解决上一代产品功能局限 [2] - 配备图形化浏览器 文本浏览器 命令行终端及API调用等多种工具 可接入用户邮件和GitHub账户 [2] - 支持用户在智能体内置浏览器完成登录 授权执行更深入研究与任务 [2] 运行机制 - 调用虚拟计算机运行代码或搜索信息 用户可随时终止或接管任务 [3] - 可无缝继续之前工作 必要时向用户请求进一步澄清 [3] - 展示功能与Manus高度相似 包括调用虚拟计算机解压阅读简历 中断任务等 [3][4] 性能表现 - HLE基准测试得分44.4% 与Grok 4持平 [5] - FrontierMath数学测试成绩高出o4 mini 8% 比Grok 4高出15% [5] - DSBench测试数据分析优势25% 数据建模优势20% [6] - 电子表格测试正确率45% 低于人类71%水平 [6] 金融领域应用 - 完成71.3%投行入门级任务 如建立三报表财务模型 表现优于o3和DeepResearch [7] - Anthropic同日宣布金融智能体计划 预示金融投资成为AI公司竞争焦点 [7][8] - OpenAI与Anthropic将目光投向金融行业 揭示智能体竞赛新方向 [8] 行业动态 - 亚马逊发布Kiro智能体编程软件 [8] - 马斯克为Grok增加"同伴模式"深化人机交流 [8] - Manus探索日常任务自动化 [8]
Claude Code 作者:别再沉迷功能堆砌了!最好的 AI 工具,是把控制权还给你
AI科技大本营· 2025-07-18 07:40
核心观点 - 编程工具正经历从复杂功能堆砌向极简主义哲学的转变 强调简单 通用和无偏见的工具设计理念 将控制权交还给创造者 [3][34] - AI编码工具的发展呈现加速态势 模型能力和产品形态同步快速迭代 [4][5][25] - 编程语言抽象层级持续提升 各语言特性呈现趋同趋势 [12] 编程工具演化史 - **硬件阶段**:1940年代采用交换机面板编程 1950年代发展为打孔卡物理编程 [8][10] - **语言抽象**:1950年代末出现汇编语言 COBOL等高级语言 1990年代爆发JavaScript/Python等多语言生态 [12] - **开发环境**:1964年IBM O29打孔卡设备→1970年代Ed文本编辑器→1980年Smalltalk-80图形界面→1991年Visual Basic→2001年Eclipse代码补全IDE→Copilot AI补全→Devin自然语言编程 [16][18][19][20][22][24] Claude Code产品特性 - **工作流设计**:支持探索-规划-确认-执行的ultrathink模式 测试驱动开发(TDD) 目标导向迭代 [27][28][29][30] - **功能创新**: - 计划模式(Shift+Tab触发)实现分阶段任务处理 [31] - CLAUDE.md文件提供上下文记忆 支持项目级/全局配置 [31] - 自定义斜杠命令(.claude/commands/)实现工作流复用 [32][33] - **设计哲学**:坚持无偏见(unopinionated)原则 作为基础工具链组件而非封闭系统 [34] 行业趋势观察 - 编程语言特性收敛 TypeScript/Rust/Swift/Go等语言抽象层级趋同 [12] - IDE开发体验(devx)进化速度超越历史任何时期 自然语言编程成为新范式 [24][25] - AI工具开始覆盖编码全生命周期 从代码生成扩展到问题诊断 测试验证 设计还原等环节 [26][30]
当 LLM 编程陷入“幻觉陷阱”,字节工程师如何用 ABCoder 精准控场
AI科技大本营· 2025-07-16 06:19
AI编程工具的挑战与突破 - 当前大语言模型在复杂企业级编程任务中存在"幻象"问题,常生成不准确或不符合实际的代码 [1] - METR研究显示:16名资深工程师完成246项任务时,使用AI编程助手使开发时间平均增加19%,因审核调试成本过高 [1] - 核心问题在于大模型缺乏对代码语境和业务逻辑的深度理解,即"上下文工程"缺失 [1] ABCoder的技术创新 - 通过抽象语法树(AST)深度解析和结构化表示,构建无歧义的代码"世界观" [2] - 技术突破点在于对代码结构的精准理解,而非直接提升模型智商 [2] - 解决方案有效降低大模型幻象,推动AI编程从"玩具"代码向企业级应用进化 [2] ABCoder的工程实践 - 采用UniAST实现语言中立的代码抽象,具备多维度架构理解能力 [3] - 动态编码上下文补充和领域知识定制化扩展是其核心特性 [3] - 在CloudWeGo项目中验证了后端服务模块开发效率提升效果 [3] 产品生态与开发者资源 - 提供代码理解、代码转换等工具链解决复杂编程痛点 [3] - 开源项目包含解析器和MCP Server,支持通过Trae调用MCP功能 [3] - 直播将展示Trae调用ABCoder的MCP功能实现代码智能理解 [3] 行业应用前景 - 针对后端开发者设计,重点突破效率瓶颈 [5] - 技术方案可优化编程体验,简化后端开发流程 [5] - 代表AI辅助编程在企业级开发场景的落地实践方向 [5]
为大模型思考装上“猎鹰重装引擎” :腾讯混元 SEAT 重塑深度思考
AI科技大本营· 2025-07-15 11:30
腾讯混元 SEAT 框架技术解析 核心观点 - SEAT 框架通过多轮并行推理(N x M 架构)和语义熵导航,将传统 CoT 单引擎模式升级为"多发并联火箭",显著提升大模型复杂推理能力 [7][15][44] - 采用非侵入式外挂设计,支持主流大模型即插即用,无需额外训练即可实现 7B 模型 +24.5%、32B 模型 +14.1% 的准确率提升 [24][25][28] - 语义熵机制动态监控推理收敛状态,通过预设阈值和自适应巡航两种模式实现精准终止,避免过度思考 [27][32][36] 技术架构创新 动力系统升级 - 引入 N x M 混合扩展范式:N 个并行引擎提供广度探索(N=8 时性能持续提升),M 轮顺序迭代实现深度精炼 [16][17][23] - 每轮推理整合前轮所有分支结果,形成协同进化机制,类似猎鹰火箭的多发并联+多级捆绑设计 [17][20] - 采用轮次间控制策略(inter-round),保持模型黑箱特性,通用性优于需要修改模型结构的方案 [24][25] 智能导航系统 - 语义熵量化 N 个并行答案的语义一致性:低熵(答案趋同)时准确率提升 80% 集中在最低 20% 熵值区间 [30][32][35] - 自适应巡航模式借鉴"秘书问题",动态比较当前熵值与初始基线,实现无阈值终止决策 [36][37] - 针对 7B 小模型的熵坍塌现象(错误答案重复),自动在性能峰值时终止,防止过载自毁 [38][40] 行业影响 - 推动测试时计算扩展(Test-Time Scaling)成为新趋势,从"更大模型"转向"更聪明推理" [12][42] - 为开源/闭源模型提供统一解决方案,在 AIME-2025 数学竞赛等复杂任务中验证有效性 [7][21][44] - 开创 Hybrid Scaling 新范式,平衡顺序扩展的深度精炼与并行扩展的多样性探索 [15][19][42]
OpenAI 工程师最新演讲:代码只占程序员核心价值的 10%,未来属于“结构化沟通”
AI科技大本营· 2025-07-15 08:32
核心观点 - 代码仅占工程师创造价值的10%-20%,而80%-90%的价值在于结构化沟通[8] - 规约(Specification)比代码更重要,是承载意图和价值观的无损载体[18][24] - 未来工程师的核心竞争力将转向定义"做什么"和"为什么做",而非"如何做"[3][12] 代码与沟通的价值 - 工程师的传统产出是代码,但代码只是意图的"有损投影",无法完整传递原始设计思想[24] - 结构化沟通包括需求收集、目标定义、验证等环节,这些才是真正的价值瓶颈[10] - 未来最擅长沟通的人将成为最优秀的程序员,"如果你能沟通,你就能编程"[12][13] 规约的优势 - 规约是人类对齐工具,可用于讨论、辩论和版本控制,而prompt常被丢弃[18][19] - OpenAI的模型规约采用Markdown格式,实现跨部门协作(产品/法务/研究团队)[27] - 规约具备可组合性、可执行性、可测试性等特性,类似代码但面向意图而非语法[46] 行业实践案例 - GPT-4o的"马屁精问题"通过模型规约中的"不要谄媚"条款被快速识别和修复[31][32] - OpenAI采用"审议式对齐"技术,将规约转化为模型权重中的"肌肉记忆"[35][36] - 模型规约包含唯一ID和对应测试用例,形成闭环验证体系[29][30] 未来趋势 - 编程工具可能进化为"集成思想澄清器"(ITC),专注于规约的模糊点识别[48] - 智能体对齐领域急需规约化,暴露产品细节思考的成熟度问题[48] - 规约创作者范围扩大,产品经理、立法者都可能成为新型"程序员"[26][40]
对话 Ruby on Rails 之父:发自内心恨透 Copilot,手凿代码才是程序员的乐趣
AI科技大本营· 2025-07-14 06:36
编程哲学与技术选择 - Ruby on Rails 创始人 DHH 认为 Ruby 的设计目标是优化程序员幸福感,其语法更接近人类语言而非机器指令,如 `5.times { ... }` 的写法 [10][11] - 动态类型语言(如 Ruby)相比静态类型(如 TypeScript)更能保持代码简洁和创造力,静态类型系统捕捉的通常是浅显错误且阻碍元编程能力 [14][15] - 微服务架构被过度兜售,99% 的公司更适合"宏伟的单体应用",避免引入网络延迟、分布式事务等复杂性,小团队选择微服务是"自寻死路" [17][18] 开发工具与 AI 编程 - DHH 坚持使用纯文本编辑器而非 IDE,拒绝自动补全功能,认为手动输入代码能培养肌肉记忆和设计思维 [19] - GitHub Copilot 等 AI 编程助手可能导致核心技能退化,生成冗长平庸的代码并打断深度思考,但可作为学习工具快速获取示例代码 [21][22][23] - AI 作为教育工具潜力巨大,能快速解答"愚蠢问题"(如 Unix 命令),但创造模式需关闭 AI 以保持专注 [25] 商业与开源理念 - 37signals(Basecamp & HEY)拒绝风险投资,采用"拉面盈利"模式,用客户付费而非外部资本驱动增长 [26][27] - 公开挑战苹果 App Store 30% 分成政策,认为平台滥用垄断地位,最终迫使苹果让步 [29][30][31] - 开源软件应是纯粹礼物而非交易,反对 Automattic 因使用 Stimulus 框架而提出股权补偿的提议 [32][33][34] 职业建议与行业观察 - 编程应围绕真实问题而非技术热度,为自己构建工具能提升学习动力,如 DHH 早期为游戏新闻网站开发自动化工具 [8][35] - 行业教条需批判性看待,鼓励发展个人风格,最创新工作常来自挑战传统智慧的人 [35] - 开发者需平衡技术趋势与核心技能,警惕过度依赖工具导致能力流失 [21][22]
「0天复刻Manus」的背后,这名95后技术人坚信:“通用Agent一定存在,Agent也有Scaling Law”| 万有引力
AI科技大本营· 2025-07-11 09:10
AI Agent技术发展 - Manus项目引爆AI Agent热潮,展示从语言理解向任务执行的演化能力[2] - 行业对Agent Scaling Law和通用Agent可行性存在争议,部分研究者认为技术进步将实现通用能力跨越[2] - OWL项目在GAIA Benchmark位列第一,是最强开源Agent之一,十天斩获1w+ Star[6][8] - CAMEL框架是全球首个多智能体框架,已有两年技术积累[6] - OWL项目构建初衷是为开发者提供开源可拓展基础框架,而非与Manus比拼产品化能力[8] 开源社区与技术迭代 - OWL项目上线后收到大量社区反馈,GitHub上关闭200+ Issue,微信群反馈达上千条[9] - 社区开发者积极贡献PR,改进UI/UX和交互体验[10] - OWL进行重要重构,平衡性能与成本控制,GAIA-58.18分支为性能最优版本[11] - 新增Terminal Tool Kit功能,支持Agent调用终端安装依赖库并执行代码[12] - CAMEL团队计划将40多种常用工具接入MCP Server,构建工具生态[31] 多智能体系统研究 - 在多智能体协作实验中,70%任务场景中双Agent协作效果优于单Agent[21] - OASIS项目支持100万Agent交互,开展社会模拟研究[22] - 探索利用Agent生成合成数据提升多智能体系统质量[23] - 多智能体系统优化涉及协作机制、任务调度、工具调用流程等多个维度[27] - 未来可能形成分工明确、组合灵活、成本可控的Agent生态[29] 行业协议与生态 - MCP协议简化Agent开发流程,提供统一接口调用外部工具[30][32] - Google推出A2A协议,侧重统一Agent间接入范式[34] - 协议价值取决于参与者数量和生态繁荣程度[34] - CAMEL团队同时支持MCP和A2A协议[35] 开发者经验与建议 - 建议开发者从模型底层机制入手学习Agent开发,而非直接使用抽象框架[38] - 使用AI Coding工具需进行代码审查,修改量约20%[44] - AI生成代码可能仅提供局部最优解,需关注全局结构[46] - 保持学习能力和辨别能力是应对AI快速迭代的关键[37]
马斯克发布“地球最强AI模型”Grok 4:横扫所有榜单,在“人类最终测试”超越人类博士”!
AI科技大本营· 2025-07-10 07:14
Grok 4发布会核心亮点 - 发布会延迟1小时引发社交媒体热议,评论数达4200条,转发超2000次,点赞破万,140万观众在线等待[1] - 马斯克团队通宵进行"最后一次大规模训练",暗示产品重大升级[3] - Grok 4被定义为"对AI能力边界的悍然宣告",超越常规模型迭代[4] 性能突破与基准测试 - **HLE测试**:文本模式得分26.9%,工具加持后飙升至41.0%,"重思考"模式达58.3%,较竞品15%-25%区间实现翻倍提升[5][6][9] - **ARC-AGI-2测试**:以15.9%得分创SOTA纪录,达商业模型两倍水平[12] - **综合指数**:Artificial Analysis智能指数73分居首,超越o3-pro、Gemini 2.5 Pro等[15] - **学科专项**:AIME 25数学赛满分100%,GPQA测试88.9%得分[16] 技术架构三大支柱 1. **多智能体协作**:采用"研讨小组"机制,多个智能体独立解题后整合最优方案,实现测试时计算精度跃升[21] 2. **第一性原理哲学**:以"最大化追求真相"为核心,强调物理法则为终极检验标准,规避模板化答案[22][23] 3. **算力投入**:20万张H100 GPU集群训练,训练量较Grok 2提升100倍,专项强化推理能力[24][26] 现实应用场景 - **代码能力**:4小时完成FPS游戏开发,自主处理3D模型与纹理贴图[29] - **科学模拟**:生成黑洞碰撞动画并解释物理原理,实现后牛顿近似法编程[27] - **商业决策**:在Vending Bench模拟中净资产达第二名模型两倍[31] - **科研加速**:生物医学机构Arc Institute用其分析百万级实验数据,将数周工作缩至分钟级[35] 商业化布局 - **订阅计划**:SuperGrok年费300美元(标准版),Heavy版3000美元/年含抢先体验权[41] - **API性能**:输出速度75 tokens/s,介于o3(188 tokens/s)与Claude 4 Opus(66 tokens/s)之间[38] - **多模态规划**:Foundation Model V7版本数周内推出,将解决图像理解"毛玻璃效应"[39] 未来展望 - 2024年目标:生成可观看的半小时AI电视节目[42] - 2025年规划:推出完整AI电影及高质量游戏[42] - 长期愿景:推动科学发现,预计年底产出新技术,2025年突破物理学边界[40][43]
为什么 AI 搞不定体力活——对话清华大学刘嘉:这才是生物智能最难攻克的“万里长征” | 万有引力
AI科技大本营· 2025-07-09 07:59
AI发展历史与现状 - AI经历两次寒冬,第二次从20世纪90年代持续至21世纪第一个十年,期间人工智能领域备受冷落[1][2] - 1997年MIT人工智能实验室处于无人问津状态,而脑科学领域呈现蓬勃发展态势[3][13] - 当前AI发展已进入与脑科学结合的关键节点,两者关系类似DNA双螺旋结构[3][19] AI与脑科学的交叉演进 - 人工神经网络早期发展深受脑科学影响,多位AI先驱具有心理学或认知科学背景[4][46] - 深度学习革命后AI与脑科学分道扬镳,但下一代AI可能需要重新借鉴脑科学发现[17][25] - 人类大脑进化采取双路径:神经元数量增加(860亿个)与神经元复杂度提升[23][24] - 当前AI仅模仿大脑新皮层功能(推理/语言),而小脑功能(运动控制)更难模拟[48][50] Scaling Law与模型发展 - Scaling Law是AI第一性原理,扩大模型规模是通向智能的必要条件[22][26][27] - 模型参数量必须达到临界规模才能展现真正智能,小模型只是"玩具案例"[21][22] - 所谓Scaling Law撞墙是商业炒作,实质是资源限制下的妥协[29][30] - 国内多数模型采用蒸馏技术,导致继承原始模型的三观对齐问题[29] 学术界与工业界分工 - 大学应专注0到1的颠覆式创新,企业负责1到100的工程优化[32][34] - 工业界竞争呈现赢者通吃格局,技术路线之争最终只有一种算法存活[37][38] - 企业应避免开发专用模型,通用模型专家化将取代专业模型[40][41] AGI发展路径 - 通向AGI的三条路线中,NLP因具备高质量数据和"已知的未知"特性而胜出[52][54] - 当前大模型仅能压缩人类已有知识,缺乏0到1的创造力[55][56] - 语言模型仅模拟人类慢思维系统,快思维系统仍需脑科学突破[57][58] AI对行业的影响 - 知识密集型岗位将消失95%,仅保留具有稀缺性的TOP 5%从业者[60][61] - 教育需转向通识培养,清华已实施书院制改革和"AI+学科"跨领域教育[65][66] - 通用模型专家化趋势下,创业公司应避免与基础模型厂商直接竞争[43][44] 技术瓶颈与突破方向 - 数据枯竭是重大挑战,需突破创造力瓶颈实现自我数据生成[55] - 当前AI仅完成模仿生物智能的第一步,具身智能面临小脑功能模拟难题[49][50] - MoE架构等"新"技术实际源自认知科学的"全局工作空间"理论[46]