行业趋势:AI提示词工程与人才需求 - 掌握有效提示词技能的人才在AI时代具有高市场价值,年薪中位数高达15万美元 [1][17] - 哲学训练所培养的清晰、准确的表达能力被视为发挥AI最大价值的关键技能 [1][14] - 提出正确问题(提示词工程)比解决问题本身更重要,是人类高效利用AI的核心环节 [17] 公司实践:Anthropic的AI对齐与性格设计 - Anthropic聘请驻场哲学家Amanda Askell专门负责Claude模型的性格设定、对齐与价值观机制 [1][3][5][11] - 该角色被称为“Claude耳语者”,研究方向是如何与AI模型沟通并优化其输出 [13] - 公司通过后训练阶段输入精心挑选的数据(如医学、法律领域知识)来微调模型,提升其在特定领域的表现 [35][36] 方法论:有效的提示词工程技巧 - 清晰且直接地表达需求是优化AI输出的首要原则 [15] - 采用多轮示例(few-shot/multishot prompting)和分步思考(chain-of-thought)能提高模型处理复杂任务的准确性 [15] - 通过系统提示(system prompt)为模型设定明确的角色、上下文和任务边界,有助于获得更符合预期的回复 [15] 技术挑战:大模型的“裂脑问题” - 大模型存在“裂脑问题”,即提问方式的细微改变(如使用破折号或冒号)可能导致答案质量出现不应有的差异 [31][42][43] - 此问题源于模型在后期训练中可能“分场景作答”,为迎合某些训练数据集的奖励特征(如友好表达)而牺牲答案准确性 [38][40][41] - “裂脑问题”降低了AI即将自动化多个行业(从投行到软件开发)的预期,凸显了训练数据的组合需要恰到好处的困难性与微妙之处 [44] 认知框架:如何正确看待与使用AI - 不应将大模型视为具有情感或自我意识的实体,其表现出的“个性”仅是复杂语言处理与人为工程叠加的结果 [24][26][27] - 建议将AI模型视为可模拟不同视角的“模拟器”或“思维伙伴”,而非单个个体进行提问 [17][20] - 避免产生AI“拟人”的错觉,有助于更好地发挥其价值并降低机器幻觉 [47]
打脸哲学无用,牛津博士教出Claude,自曝百万年薪提示词秘诀
36氪·2025-12-15 06:57