智谱沉思模型(autoglm陈思版)
搜索文档
解读国内首个DeepResearch AI Agent 智谱沉思模型
2025-04-15 14:30
纪要涉及的行业或公司 * 行业:人工智能(AI)大模型与AI Agent应用行业[1] * 公司:智谱AI(发布AutoGLM“陈思版”产品)[1] 核心观点与论据 * **产品定位与架构**:AutoGLM“陈思版”是国内首个集深度研究能力和操作能力于一体的AI Agent[1] 其整体架构是一个结合了思维链(快思考)和test-time-scaling技术(慢思考)的链式模型 专门为完成AI Agent任务进行端到端特殊训练和优化的模型[2] * **核心竞品对比**: * **与Manus的区别**: * **运行环境**:智谱产品主要在用户本地客户端运行 调用客户端浏览器能力进行数据抓取 Manus则在云端自建虚拟环境运行 部分通过后端代码直接抓取数据[3] * **数据安全与成本**:本地运行可让用户看到完整的数据抓取与分析过程 缓解数据安全担忧 同时减少公司在云端的算力投入和容器环境配置成本[4] * **模型基础**:智谱使用自主研发、为任务专门优化的Agent模型 Manus更多使用其他家研发好的大模型[5] * **与DeepSeek的区别**:DeepSeek的链式模型已完全免费 智谱错过了最佳收费时间点 目前竞争策略是将成本做到最低[10] * **产品能力与限制**: * **任务处理**:在浏览器任务上 由于通常只控制一个浏览器 因此只能有一个工作进程 无法并行处理多窗口对话或同时使用多个应用程序 但在涉及多个技能人的非纯浏览器任务上可以协同工作[6][7] * **浏览器兼容性**:目前重点适配Chrome浏览器 因其功能和稳定性更高 兼容其他浏览器(如IE、Safari)技术上不特别困难[8] * **信息源与访问**:对于Google Scholar等海外网站无法访问的问题 需要用户自行解决(如使用网络工具) 对于需要账号登录的网站 产品支持在客户端操作中引导用户输入密码 登录信息会记录在本地保留一段时间[12] * **技术细节**: * **思考时间与消耗**:任务处理时间较长 消耗的token数量波动大 简单任务可能只需几百token 复杂任务可能消耗数万甚至数十万token[8] * **算力投入**:公司为X400(根据上下文推断,可能指代该产品)投入了约2000P的算力 若以NVIDIA 4090显卡估算 大约对应两三千张卡[9] 其他重要内容 * **商业模式**:产品目前免费开放 主要因竞品(DeepSeek)免费和Manus已抢占市场风头 未来商业模式(如会员制)将视竞争情况而定[10] * **发展历程**:公司早在2023年1月就在研发类似Manus的Agent 但未引起市场关注[10] * **未来计划**:计划将“陈思版”与“反思版”模型合并 形成与Manus类似的产品[11]