Workflow
视觉 - 动作中心的 VLA 模型
icon
搜索文档
「一只手有几根手指」,你的GPT-5答对了吗?
机器之心· 2025-08-11 10:40
多模态大模型视觉理解能力缺陷 - 顶尖大模型如GPT-5、GPT-5-Thinking、Gemini 2.5 Pro和Grok 4在基础视觉常识问题(如"一只手有几根手指")上频繁出错,答案受语言歧义(英文finger可指4或5指)和图像语境影响[1][6][9][10][11][17][24] - 模型错误率高达100%(如六指图中文语境),反事实图像(如5条腿的狗)识别准确率仅约17%,显示对视觉内容的基础理解能力不足[17][33] 视觉语言模型的技术局限性 - 当前多模态大语言模型(MLLM)过度依赖语言先验和记忆知识,而非真实视觉分析,导致视觉模块仅通过语言模式猜测而非真正"看懂"图像[26][34] - 以语言模型初始化视觉-语言-动作模型(VLA)存在陷阱,虽在基准测试中表现进步,但未解决核心感知问题(如物体计数、空间关系)[36] 评估体系与解决方案 - 需建立以视觉为中心的严谨评估标准(如CV-Bench基准测试集),系统性检验2D/3D视觉能力(计数、深度感知等),并评估超过20种视觉编码器[31][32] - 应开发更强视觉基础模型(如从世界模型入手再叠加语言模块),避免将视觉作为语言附属输入,需重新探索3D基础模型和视频扩散模型[36][38] 行业影响与研究方向 - 公司可能依赖语言先验捷径宣称"多模态推理"成功,但实际应用于机器人等现实场景时将暴露缺陷并付出代价[31] - 需暂停仅叠加CLIP/DINO的符号化方案,转向从零构建4D先验(如4D-LRM),彻底脱离语言先验干扰[38]