“见人下菜”!AI大模型的“分裂难题”
华尔街见闻·2025-12-04 05:43

文章核心观点 - 当前人工智能大模型存在“分裂大脑”问题 即模型对同一问题的不同表述方式会给出质量天差地别的答案 暴露了AI对提问方式过度敏感的根本局限[1] - 该问题揭示了AI模型并未真正理解世界运作方式 缺乏泛化能力 可能无法处理训练材料之外的任务 这与投资者投入数百亿美元期望其在专业领域取得突破的愿景存在差距[2][4] 技术困境与表现 - “分裂大脑”问题表现为 模型若判断用户提问为“高级”或“聪明”问题 会给出高质量答案 若判断为“简单”或“愚蠢”问题 答案质量会相应下降[1][4] - 问题具体场景包括 同样的数学问题用正式证明语言提问能正确作答 而用随意的口语化表达则可能牺牲准确性以换取格式美观或表情符号[1] - 即使是使用破折号还是冒号这类本应无关紧要的格式差异 也可能影响模型回答的质量[3] 问题成因与训练困境 - 该问题通常出现在模型训练的后期阶段 当模型为学习特定领域知识或改善对话风格而接受精选数据训练时[1][2] - 训练过程可能无意中教会模型根据它认为自己遇到的场景来区别对待提问 例如区分具体的数学问题还是更宽泛的一般性问题[2][3] - 修复模型对某些问题的错误答案 可能导致它对其他问题给出错误回答 开发过程类似“打地鼠”游戏[2] 行业影响与投入 - 投资者正向OpenAI和Anthropic等实验室投入数百亿美元 目标是训练出能在医学和数学等领域做出新发现的模型[2][4] - 为确保模型在专业领域表现可靠 AI开发商正在向数学、编程、法律等领域的专家支付数十亿美元以生成训练数据[4] - 当前AI的表现与人们期待其自动化各行业工作、克服人类缺陷的初衷存在落差[2]