多智能体协作
搜索文档
Multi-Agent 协作兴起,RAG 注定只是过渡方案?
机器之心· 2025-07-19 01:31
从 RAG 检索增强到多层级状态演化,AI memory 系统崛起 - AI memory 系统正从短期响应向长期交互演进,为智能体注入持续经验能力 [2] - MemoryOS 采用层次化存储架构,将对话 memory 分为短期、中期和长期三层,通过 FIFO 和分段分页机制实现动态迁移 [2] - MemGPT 借鉴操作系统思想,将固定长度上下文视为主内存,通过函数调用在主上下文和外部存储间分页调度,支持大文档分析和多轮会话 [2] - ChatGPT Memory 采用检索增强生成(RAG)方式,通过向量索引检索用户相关信息并注入模型输入,实现对用户偏好和历史信息的记忆 [2] - RAG 侧重外部知识库检索和静态知识注入,依赖向量索引 [2] - AI Memory 注重状态持续性,需维护多层级 memory 架构并管理时序与优先级,结合删除或压缩机制调度有限资源 [3] - RAG 与 Memory 可互补,RAG 增强知识性,Memory 固化对话经验和连贯性 [3] 从模态融合到隐私权限,AI memory 正面临哪些挑战 - AI memory 系统面临静态存储无法演化、多模态多 Agent 协同混乱、检索扩容冲突等技术挑战 [4] - 需解决层级和状态过滤缺失、企业级多任务权限控制、隐私可控性弱等问题 [4] - 挑战驱动 memory 系统向更智能、更安全、更高效方向演进 [4]
AI Day直播 | LangCoop:自动驾驶首次以“人类语言”的范式思考
自动驾驶之心· 2025-07-18 10:32
多智能体协作自动驾驶 - 多智能体协作通过信息共享提升自动驾驶系统的安全性、可靠性和机动性,但现有通信方法受限于高带宽需求、智能体异构性和信息丢失等问题 [3] - LangCoop提出利用自然语言作为智能体间通信媒介,显著降低通信带宽达96%(每条消息<2KB),同时保持驾驶性能竞争力 [3] - 实验在CARLA仿真环境中进行,验证了LangCoop相比基于图像通信的优越性 [3] 技术方案与创新 - LangCoop包含两项关键创新(具体未展开),但明确其通过语言封装实现高效信息传递 [3] - 自然语言信息封装(LangPack)技术可将丰富信息打包为简洁的基于语言的消息 [4] 相关研究与资源 - 论文《LangCoop: Collaborative Driving with Language》已发布在arXiv,提供详细技术方案 [4] - 项目开源在GitHub,包含代码实现和仿真环境 [5] - 清华与博世合作开发Impromptu-VLA框架,实现SOTA性能的视觉语言模型 [6] - 清华与吉利推出Challenger框架,专注于自动驾驶对抗场景生成 [6] 行业动态与资源获取 - 自动驾驶之心知识星球提供技术细节、QA及未公开内容,包括复旦BezierGS驾驶场景重建方案 [4] - 混合模型模块化思维链(M³CoT)技术应用于零样本视觉-语言推理 [4]
Google截胡Windsurf,布局AI编程
海通国际证券· 2025-07-16 04:31
报告行业投资评级 未提及 报告的核心观点 - AI编程明星公司Windsurf原接近被OpenAI以30亿美元收购,后因与微软的合作条款致收购搁浅,转而加入Google DeepMind,交易估值约24亿美元,重心转向代理式编码[1][2] - Windsurf核心产品Agent IDE有多智能体协作机制、自研模型SWE - 1、深度嵌入工作流、多模型兼容策略等优势,为平台对冲风险奠定基础[3][6] - 平台绑定风险加剧,独立AI工具商生存空间被压缩,Windsurf因Claude断供及对平台合作丧失信心,凸显对单一模型的依赖风险及AI平台间的竞争态势[4][9] - 独立AI工具商面临保持中立服务更广泛客户或绑定平台获取资源支持的抉择,平台整合虽减少多样性,但可加速AI生态标准化和创新[11][12] 根据相关目录分别进行总结 事件 - AI编程初创公司Windsurf原接近被OpenAI以30亿美元收购,后选择加入Google DeepMind,Google通过非独家技术许可 + 人才吸纳实现软并购,核心团队入驻DeepMind,转向代理式编码[1][7] 点评 - OpenAI收购Windsurf因与微软的IP可访问条款引发Windsurf高管对核心技术授权风险的担忧而搁浅,Google DeepMind以非股权方式完成软并购[2][8] - Windsurf遭遇Claude断供,五天内失去主力模型调用能力,凸显对单一模型的依赖风险,其对平台合作丧失信心,拒绝OpenAI收购[4][9] 核心产品优势 - Agent IDE的多智能体协作机制可实现AI编程助手间的任务分配、上下文共享和状态持久化,是代理式编码典型的底座工具[6][14] - 自研模型SWE - 1在基准测试中略逊于Claude 3.7,但以低成本实现媲美性能,支持细粒度企业集成与自定义[6][14] - Agent IDE架构支持调试、测试、依赖分析、版本追踪等工程环节,远胜Copilot式提示类工具[6][14] - Agent IDE支持接入主流模型,具备模型切换与混合调用能力,为平台对冲风险奠定基础[6][14] 行业影响 - 独立AI工具商面临保持中立服务更广泛客户或绑定平台获取资源支持的抉择,类似担忧在Meta rumored to acquire Scale AI时也出现过[11] - 虽中立性有价值,但平台整合可加速AI生态标准化和创新[12]
走进“大国重器”心脏!IRCTC 2025重磅参观——齐二机床产线深度开放日
机器人圈· 2025-07-14 13:51
公司背景与行业地位 - 齐齐哈尔二机床(集团)有限责任公司是我国重型机床及锻压设备的著名生产基地,国家"十一五"发展数控机床产业化专项重点扶持企业,国家大型工业企业,机床行业"十佳企业"[2] - 公司是国内重型数控机床行业生产规模和市场占有率最大、品种规格最全、产品代表国家水平的制造研发基地,累计生产各种机床6万余台,其中单机重量超百吨重型金切机床、锻压机械达1000余台[2] - 公司历史上创造了共和国多项第一,包括1958年研制我国第一台数控立铣,1975年研制第一台数控龙门铣,1993年研制第一台重型数控落地铣镗加工中心,1994年研制第一条重型数控多连杆压力机生产线[2] 产品与技术优势 - 公司主要产品包括数控落地铣镗床系列、数控龙门镗铣床系列、数控立式车床系列、数控铣床及加工中心、机械压力机及自动锻压设备,以及大型数控缠绕机、五轴联动混联机床等大型数控专机[3] - 产品突出"重"字,重型、超重型类机床产品产值率达到80%,重型金切机床产值位居国内同行业第一[3] 参观活动亮点 - 考察国家战略装备智造现场:深入国家级智能制造示范车间,实地观摩应用于航天、核电领域的TK6963型超重型数控铣镗床总装产线,见证承载200吨吊装能力的工业级制造场景[4] - 探索技术融合创新实践:聚焦企业自主研发的落地铣镗加工中心、智能柔性齿轮生产线及五轴联动混联机床,解析机器人运动控制、多智能体协作等前沿技术在高端装备中的工程化应用[5] - 对接产业关键需求:齐二机床技术团队将现场发布三大合作方向,包括重型机床装配工序的机器人高精度作业技术、大型工件多模态在线检测系统开发、高端装备核心部件国产化替代方案[6] 会议注册信息 - 注册类别及费用:学生参会1500元,普通参会2800元,企业代表3800元,《机器人技术与应用》理事会成员2100元[7] - 参会人员可通过扫描二维码或PC端"机器人科学网"进行注册报名,注册成功并完成缴费后需填写回执发送至指定邮箱[8][10] - 报名截止时间为2025年07月21日17:00,名额限制50人[6][10]
还在纠结是否入门大模型?别人已经发了第一篇顶会!
自动驾驶之心· 2025-07-14 06:20
大模型在自动驾驶领域的应用 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案 [1] - 下一代大模型需要关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调大模型等方向 [1] - CoT方案是后期完成空间感知的重点,VLA+强化学习等高级推理范式受到行业重点关注 [1] 大模型优化课程介绍 - 课程系统性地探讨大模型的前沿优化方法,重点研究参数高效计算、知识动态扩展和复杂推理三大方向的关键技术 [2] - 参数压缩方面研究剪枝稀疏化和量化加速等轻量化方法 [2] - 知识扩展方面探索检索增强生成(RAG)和参数高效微调(PEFT)等动态知识注入技术 [2] - 推理优化方面研究链式思维(CoT)和强化学习优化(GRPO)等高级推理范式 [2] 课程解决的问题 - 帮助学员系统掌握大模型相关理论知识,形成清晰的体系 [3] - 解决动手能力差、无法复现论文的问题,协助开发设计新模型 [3] - 解决论文写作和投稿难题,积累写作方法论并获得投稿建议 [3] 课程收获 - 掌握大模型优化的核心算法,包括结构化剪枝、低比特量化、动态检索等关键技术 [9] - 获得Coding能力增强,在baseline代码和可用数据集上高效展开研究 [9] - 撰写出论文初稿,可能产出一篇不错的论文 [9] 课程大纲 - 大模型剪枝与稀疏化算法优化:详解让大模型体积更小、运行更快的方法 [19] - 大模型量化加速全景:从数据位宽到编译来优化大模型的加速 [19] - 参数高效微调(PEFT)革命:介绍用少量计算资源让大模型适应垂类任务的高效微调算法 [19] - 基于RAG的大模型知识动态扩展范式:解决大模型的事实性错误和知识更新滞后问题 [19] - Chain-of-Thought推理进阶:针对让大模型分步骤思考解决复杂问题的算法进行深入剖析 [19] 课程资源 - 提供Baseline代码,包括LLM-Pruner、GPTQ、LLaVA等开源项目 [16] - 必读基础论文包括GPTQ、Sheared LLaMA、TVM等 [18] - 数据集来自于公开数据集,根据具体任务选用 [13] 招生要求 - 具备深度学习/机器学习基础,熟悉Python和PyTorch [6] - 最好具备4张4090显卡或以上设备性能的机器,最低不少于2张4090显卡 [15] - 掌握基本的编程语言,熟练使用PyTorch等深度学习框架 [15]
马斯克发布“地球最强AI模型”Grok 4:横扫所有榜单,在“人类最终测试”超越人类博士”!
AI科技大本营· 2025-07-10 07:14
Grok 4发布会核心亮点 - 发布会延迟1小时引发社交媒体热议,评论数达4200条,转发超2000次,点赞破万,140万观众在线等待[1] - 马斯克团队通宵进行"最后一次大规模训练",暗示产品重大升级[3] - Grok 4被定义为"对AI能力边界的悍然宣告",超越常规模型迭代[4] 性能突破与基准测试 - **HLE测试**:文本模式得分26.9%,工具加持后飙升至41.0%,"重思考"模式达58.3%,较竞品15%-25%区间实现翻倍提升[5][6][9] - **ARC-AGI-2测试**:以15.9%得分创SOTA纪录,达商业模型两倍水平[12] - **综合指数**:Artificial Analysis智能指数73分居首,超越o3-pro、Gemini 2.5 Pro等[15] - **学科专项**:AIME 25数学赛满分100%,GPQA测试88.9%得分[16] 技术架构三大支柱 1. **多智能体协作**:采用"研讨小组"机制,多个智能体独立解题后整合最优方案,实现测试时计算精度跃升[21] 2. **第一性原理哲学**:以"最大化追求真相"为核心,强调物理法则为终极检验标准,规避模板化答案[22][23] 3. **算力投入**:20万张H100 GPU集群训练,训练量较Grok 2提升100倍,专项强化推理能力[24][26] 现实应用场景 - **代码能力**:4小时完成FPS游戏开发,自主处理3D模型与纹理贴图[29] - **科学模拟**:生成黑洞碰撞动画并解释物理原理,实现后牛顿近似法编程[27] - **商业决策**:在Vending Bench模拟中净资产达第二名模型两倍[31] - **科研加速**:生物医学机构Arc Institute用其分析百万级实验数据,将数周工作缩至分钟级[35] 商业化布局 - **订阅计划**:SuperGrok年费300美元(标准版),Heavy版3000美元/年含抢先体验权[41] - **API性能**:输出速度75 tokens/s,介于o3(188 tokens/s)与Claude 4 Opus(66 tokens/s)之间[38] - **多模态规划**:Foundation Model V7版本数周内推出,将解决图像理解"毛玻璃效应"[39] 未来展望 - 2024年目标:生成可观看的半小时AI电视节目[42] - 2025年规划:推出完整AI电影及高质量游戏[42] - 长期愿景:推动科学发现,预计年底产出新技术,2025年突破物理学边界[40][43]
师兄自己发了篇自动驾大模型,申博去TOP2了。。。
自动驾驶之心· 2025-07-09 12:56
大模型在自动驾驶领域的应用趋势 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行VLA、VLM方案 [2] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [2] - CoT方案和VLA+强化学习等高级推理范式成为行业重点 [2] 大模型优化技术研究方向 - 参数高效计算:研究剪枝稀疏化和量化加速等轻量化方法 [3] - 知识动态扩展:探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [3] - 复杂推理优化:研究链式思维(CoT)和强化学习优化(GRPO)等范式 [3] 课程核心内容 - 系统探讨大模型前沿优化方法,包括参数压缩、知识扩展和推理优化 [3] - 关键技术涵盖结构化剪枝、低比特量化、动态检索、多跳推理等 [3] - 实验平台使用主流大模型如LLaMA、GPT,结合理论讲解与实践 [3] 课程目标与收获 - 帮助学员系统掌握大模型优化理论,形成清晰知识体系 [8] - 提升Coding能力,实现论文复现与模型开发 [8] - 提供论文写作方法论、修稿指导与投稿建议 [8] 课程招生与要求 - 招生对象:大模型方向本硕博、申硕申博、AI领域从业者 [9] - 招生人数:6人/期,至多8人 [5] - 要求:具备深度学习基础,熟悉Python和PyTorch,有研究热情 [10] 课程大纲与时间安排 - 12周在线科研+2周论文指导+10周论文维护期 [9] - 每周主题涵盖大模型剪枝、量化加速、PEFT、多智能体协作等 [20] - 最终产出论文初稿,具备投稿潜力 [9] 实验与资源支持 - 提供Baseline代码,涵盖剪枝、量化、多模态推理等方向 [19] - 数据集采用公开资源或垂类自定义数据 [17] - 硬件要求最低2张4090显卡,建议4张或租赁云服务器 [15] 学术支持与成果预期 - 导师提供定制化研究idea,目标SCI 1~4区或CCF A/B/C级别论文 [22] - 课程交付价值包括科研流程、写作方法、论文初稿 [22] - 答疑周期为6个月,确保后续研究支持 [22]
大模型在自动驾驶后期的落地与研究方向有哪些?
自动驾驶之心· 2025-07-07 23:31
大模型在自动驾驶领域的应用 - 大模型在自动驾驶功能上的落地逐渐清晰化,理想、华为等公司开始推行自己的VLA、VLM方案 [1] - 下一代大模型需关注轻量化与硬件适配、知识蒸馏与量化加速、高效微调等方向 [1] - CoT方案是后期完成空间感知的重点,VLA+强化学习等高级推理范式受行业重点关注 [1] 大模型优化课程核心内容 - 课程系统探讨大模型前沿优化方法,聚焦参数高效计算、知识动态扩展和复杂推理三大方向 [2] - 参数压缩方面研究剪枝稀疏化和量化加速等轻量化方法 [2] - 知识扩展方面探索检索增强生成(RAG)和参数高效微调(PEFT)技术 [2] - 推理优化方面研究链式思维(CoT)和强化学习优化(GRPO)等范式 [2] 课程技术重点 - 结构化剪枝、低比特量化、动态检索、角色化智能体、多跳推理等关键技术 [2] - 使用LLaMA、GPT等主流大模型作为实验平台 [2] - 多智能体协作和多模态理解等前沿方向 [2][3] 课程安排与产出 - 12周在线小组科研+2周论文指导+10周论文维护期 [7] - 每周1-1.5小时课程,涵盖大模型剪枝、量化加速、PEFT、多智能体协作等主题 [18][20] - 最终产出包括论文初稿、写作方法论、投稿建议 [6][7] 学员收获 - 系统掌握大模型优化理论体系,解决知识零散问题 [6] - 获得导师提供的定制化研究idea和baseline代码 [7][17] - 提升Coding能力,掌握论文写作与投稿技巧 [6][7] 技术要求与资源 - 需具备PyTorch和Python基础,建议配备4张4090显卡 [13] - 提供公开数据集和Baseline代码,包括LLM-Pruner、LLaVA等开源项目 [15][16][17] - 必读论文涵盖GPTQ量化、Sheared LLaMA剪枝等前沿研究 [17][19]
MCP 已经起飞了,A2A 才开始追赶
AI前线· 2025-07-07 06:57
谷歌云捐赠A2A协议 - 谷歌云将A2A协议捐赠给Linux基金会 包含智能体交互协议、SDK和开发者工具的开源礼包 [1] - 捐赠决策被解读为对Anthropic MCP协议和OpenAI函数的战略应对 同时反映行业对共建智能体经济底层规则的共识 [1] - 部分观点认为A2A协议起步较晚 正在追赶已经成熟的MCP协议 [2][3] MCP协议技术解析 - MCP协议解决AI模型安全高效调用现实世界工具和服务的基础问题 不同于A2A侧重智能体间通信 [4] - 开发MCP Server最关键环节在于工具描述 需详细说明功能、参数及输入输出内容 [6][7] - 现有API系统改造和从零开发是两种典型实施路径 前者关注协议转换 后者需构建完整业务逻辑 [7][8] - 接入客户现有技术体系时应尽量减少干预内部治理生态 重点优化对外接口的工具描述 [9] 模型兼容性与优化 - 国内外大模型存在兼容性问题 中文描述适合国内模型 英文描述更适合国外模型 [10] - 通过多轮测试优化工具描述清晰度 是提升模型调用准确性的关键手段 [11][12] - API设计应遵循正交原则 功能独立且高内聚 描述需明确使用场景和预期输出 [12] 协议性能与安全 - Streamable HTTP协议支持有状态通信、服务端主动通知和流式输出 优化金融等高实时性场景 [15] - 敏感数据应避免通过MCP提供 非敏感数据授权可使用OAuth 2.0等现有验证机制 [28] - 行业需要建立安全标准应对MCP服务潜在的黑盒风险 确保生态健康发展 [43] MCP与A2A对比 - MCP解决工具层面问题 A2A构建Agent间通信和协作的生态层 [32] - MCP类似专用工具 A2A提供通用协议使不同框架的Agent能够相互发现和协作 [33] - 腾讯计划在产品研发流程中接入A2A协议 实现多Agent协作 [34][35] 未来发展趋势 - 预计80%核心软件将推出自有MCP 形成多样化工具端口 [40] - 多Agent架构将向主从模式发展 人类角色需明确界定和验证关键节点 [41] - MCP协议完善将加速企业SaaS能力释放 安全可信问题成为发展重点 [42]
大模型这个坑,还有哪些可以发论文的点?
具身智能之心· 2025-07-05 02:25
大模型优化课程核心内容 - 课程聚焦大语言模型(LLM)和多模态模型的前沿优化技术,涵盖参数高效计算、知识动态扩展和复杂推理三大方向 [1] - 关键技术包括结构化剪枝、低比特量化、动态检索、角色化智能体、多跳推理等,实验平台采用LLaMA、GPT等主流模型 [1] - 重点解决参数压缩(剪枝稀疏化/量化加速)、知识扩展(RAG/PEFT)和推理优化(CoT/GRPO)等核心挑战 [1] 课程结构与招生信息 - 采用12周在线科研+2周论文指导+10周维护期的教学模式,每期限招6-8人 [3][10] - 目标学员包括大模型方向本硕博学生、科研人员及AI从业者,需具备PyTorch和Python基础 [4][5] - 硬件要求最低配置2张NVIDIA 4090显卡,推荐4张或使用云服务器 [11] 课程产出与学术支持 - 学员将获得定制化研究idea、baseline代码及公开数据集,最终完成论文初稿 [10][13][14] - 论文指导覆盖SCI 1-4区和CCF A/B/C类会议,提供从选题到投稿的全流程方法论 [18] - 必读论文包括GPTQ量化(NeurIPS 2023)、Sheared LLaMA剪枝(ICML 2024)等前沿成果 [15][17] 课程技术模块 - 剪枝量化模块:涵盖结构化剪枝算法、GPTQ量化技术及TVM编译器优化 [15] - 知识扩展模块:通过RAG解决幻觉问题,采用PEFT实现垂类任务高效微调 [16] - 推理增强模块:包含Chain-of-Thought多步推理和GRPO强化学习优化 [16][17] - 多模态扩展:涉及LLaVA视觉语言模型和Flamingo多模态学习框架 [15][17] 教学安排与服务 - 每周1-1.5小时专题授课,包含多智能体协作、动态知识扩展等14个核心模块 [16][18] - 采用腾讯会议直播+小鹅通回放形式,提供6个月答疑周期和学术诚信监督 [18] - 课程产出包括顶会论文模板应用、动机凝练方法和选刊投稿策略 [18]