Workflow
金鱼损失(Goldfish Loss)
icon
搜索文档
大模型“记性差一点”反而更聪明!金鱼损失随机剔除token,让AI不再死记硬背
量子位· 2025-09-03 05:49
文章核心观点 - 研究团队提出了一种名为“金鱼损失”的新训练方法,旨在通过随机剔除部分训练文本中的token并阻止其参与损失计算,来防止大语言模型逐字死记硬背训练数据,同时保持其学习语言规律和下游任务的能力 [1][3][4][6] 方法原理与机制 - 金鱼损失的核心是在模型训练过程中,随机屏蔽一部分训练文本中的token,使其不参与损失计算 [6] - 在推理阶段,模型遇到被屏蔽的位置时只能进行“猜测”,而非复现完整训练序列 [7] - 为确保被剔除token的一致性,研究采用了基于哈希的掩码策略,使得相同的前h个token出现时,掩盖模式相同且可重复 [8][14][19] - 具体而言,在计算损失时,会以一定概率将某些位置的真实下一个token从训练目标中“抹掉” [17][18] - 研究人员采用了简单的静态掩码,例如剔除每个序列中的第4个token [19] 与传统正则化方法的区别 - 与Dropout等通过添加噪声防止过拟合的正则化方法不同,金鱼损失通过哈希掩码确保每次遇到同一段落时掩盖位置都相同,从根本上阻止模型通过累计学习拼凑出完整段落 [11][12][13][14] 实验设计与结果 - 研究设计了极端场景和标准场景来验证金鱼损失防止记忆化的效果 [20] - 使用RougeL得分和精确匹配率作为评估模型记忆化程度的指标 [21][22] - 在极端场景下,实验让LLaMA-2-7B在《哈利·波特》第一章或100篇维基百科文档上进一步训练100个epoch [24] - 极端场景结果显示,标准训练导致模型逐字记忆了100篇文章中的84篇,而使用金鱼损失的模型没有记忆任何文章 [22] - 在标准训练场景下,金鱼损失也明显减少了模型逐字复现训练语料库中目标序列的情况 [24] - 性能测试表明,金鱼损失模型、标准损失模型和对照模型之间的总体下游任务性能没有系统性差异 [26] 潜在影响与考量 - 金鱼损失的核心在于忽略部分token的梯度计算,模型需要通过更多数据来补偿这些空缺,这可能带来计算效率的下降 [28]