Workflow
随机梯度下降
icon
搜索文档
像大模型一样进化
腾讯研究院· 2026-01-05 08:44
人工智能发展历程与核心驱动力 - 大模型的成功是技术长期演化的结果,经历了从早期符号主义AI失败到深度学习崛起,再到Transformer成功的艰难历程[1] - 人工神经网络的目标函数宏大,旨在模拟大脑信息处理乃至实现通用人工智能,其开创性工作曾被视为疯狂[3] - OpenAI训练GPT的目标函数是使用巨大神经网络容纳所有人类知识以实现AGI,GPT-4已将几乎全部人类知识压缩进1.8万亿个参数[4] 规模化法则与目标设定 - 人工神经网络的成功背后是规模化法则,即参数规模越大,优化空间越广,实现目标的可能性越大[4] - 设定短期狭隘的目标函数容易实现,但可能导致模型陷入“局部最优”陷阱,限制了更广阔的发展空间[4] - 公司应避免陷入“局部最优”,即满足于阶段性成就而丧失长期发展机会,需设定宏大且持续演进的目标函数[4][6] 注意力机制与信息处理 - Transformer架构的核心是注意力机制,它通过评估文本中词语间的关联强弱来捕捉信息关系,实现高效精准的信息处理[19] - 注意力分配是学习的本质,高质量的数据输入至关重要,遵循“垃圾输入,垃圾输出”的第一性原理[20] - 公司应像AI一样,将注意力集中在高质量的数据和信息源上,以构建坚实的认知基座[20][21] 学习与优化方法论 - 随机梯度下降是广泛使用的优化算法,其原理是通过当前误差找到大致正确的方向并迈出一小步,逐步优化模型参数[10] - 大模型通过“预测→计算误差→反向传播→优化参数”的循环流程从错误中学习,所有知识和能力由此获得[11] - 大脑的预测编码机制与梯度下降异曲同工,通过预测与现实的差异产生误差信号,驱动学习和认知更新[12] 随机探索与认知发展 - 随机梯度下降的核心魅力在于能从不确定中找到确定性,无需执着于精确规划每一步,而应找准大致方向并坚持行动[13] - 起点(如家境、学历)对于梯度下降算法并不重要,关键在于持续沿着梯度方向前进[14] - 随机探索(如阅读陌生领域、与不同人交流)能避免陷入认知的局部最优,带来新的误差和认知增益,推动认知结构重构[15][16] 实例学习与归纳教学 - 联结主义AI通过海量实例(如图片)让神经网络自行探寻模式规律,效果优于符号主义AI直接灌输规则的方法[22] - 范例教学(归纳式教学)主张通过提供精选样例让学生主动归纳规则,这种方法能加深理解并促进知识迁移[23] - 在复杂生活场景中,抽象道理(预训练知识)不足以为决策提供直接指导,需要通过具体情境中的实践进行微调和强化学习[24][25] 选择性遗忘与注意力管理 - 人类超越大模型的关键能力之一是“选择性遗忘”,即有意识地强化重要记忆并主动遗忘低效或有害信息[25] - 选择性遗忘是一种认知优化策略,通过“先做加法,再做减法”的思维模式,使注意力聚焦于核心价值[25] - 接纳过去的不愉快经历并主动进行情绪上的选择性遗忘,能让注意力回归当下,重获内心的平静与自由[26]