Workflow
预期信息增益
icon
搜索文档
苹果新研究:不微调、不重训,如何让AI提问效率暴增6.5倍?
机器之心· 2025-09-02 09:33
苹果与高校合作AI研究突破 - 苹果与牛津大学和香港城市大学合作提出BED-LLM新方法 使AI解决问题能力提升6.5倍 成功率从14%暴增至91% 无需微调或重新训练[1] - 核心突破在于让AI学会提出完美问题 通过自适应信息收集实现智能交互[2][5] BED-LLM技术原理 - 基于序贯贝叶斯实验设计框架 通过迭代过程最大化预期信息增益(EIG)[7][9] - 采用三重智慧设计:追求真实信息增益而非表面不确定性 强制逻辑自洽纠正遗忘症 条件生成策略实现针对性提问[14][16][18] - 通过先采样后过滤策略确保答案逻辑一致性 使用逻辑过滤器剔除矛盾选项[17] 性能验证结果 - 在20个问题猜谜游戏中 Mistral-Large模型预测名人成功率从14%提升至91%[20] - 在动物数据集上 Qwen2.5-72B模型成功率从45%提升至94% Mistral-Large从33%提升至95%[20] - 电影推荐任务中表现显著改进 模型跨服测试显示即使在模型失配情况下性能优势依然稳固[21][24] 技术应用前景 - 将LLM从被动知识库转变为主动信息收集者 实现真正意义上的智慧对话[26] - 适用于多轮猜谜游戏 任务澄清 IT任务自动化和迭代式外部工具使用等场景[4]