大模型“记性差一点”反而更聪明,金鱼损失随机剔除token,让AI不再死记硬背
36氪·2025-09-03 23:54
研究背景与问题 - 大语言模型在训练时若不加以约束,容易原封不动地复刻训练数据,存在记忆化问题 [1] 核心方法与原理 - 研究团队提出名为“金鱼损失”的新方法,其核心理念是在模型训练过程中随机剔除一部分训练文本中的tokens,使其不参与损失计算 [3] - 该方法在损失函数计算时随机屏蔽部分token,使模型在推理时只能“猜测”而非复现完整序列 [2][3] - 为确保被剔除token的一致性,研究采用了基于哈希的掩码策略,特别是局部化哈希掩码,使得相同的前h个token出现时掩盖模式相同 [3][7] - 与Dropout等正则化方法不同,金鱼损失通过哈希掩码确保每次遇到同一段落时掩盖位置都相同,从根本上阻止模型拼凑并复现完整训练文本 [5] 实验设计与结果 - 研究设计了极端场景和标准场景来验证金鱼损失防止记忆化的效果 [8] - 在极端场景下,使用LLaMA-2-7B在《哈利·波特》第一章或100篇维基百科文档上进一步训练100个epoch,标准训练导致模型逐字记忆了100篇文章中的84篇,而金鱼损失没有记忆任何文章 [8][10] - 在标准训练场景下,金鱼损失也明显减少了模型逐字复现训练语料库中目标序列的情况 [10] - 评估指标显示,使用金鱼损失后,模型在下游任务中的性能几乎不受影响,与标准损失模型和对照模型之间的总体性能没有系统性差异 [4][12] 潜在影响与考量 - 金鱼损失的核心在于忽略部分token的梯度计算,模型需要通过更多数据来补偿这些空缺,这可能导致计算效率的下降 [13]