
论文标题:LLM Pretraining with Continuous Concepts 论文地址:https://arxiv.org/pdf/2502.08524 项目地址:https://github.com/facebookresearch/RAM/tree/main/projects/cocomix
首先,本文使用归因分数选择重要概念,该分数衡量了每个概念对输出的影响。 然后,本文提出通过交叉熵损失从模型的隐藏状态中预测选定的概念,使模型能够隐式地学习哪些概念应被编码为隐藏表示。 最后,本文利用预测的概念创建一个连续概念,并将其交错插入到隐藏状态中,使模型能够显式地学习如何使用连续概念以及 token 隐藏状态。直观上,模型选择性地学习哪些概念对下一个 token 预测有用,以及如何将这些概念与 token 表示混合。

CoCoMix 能否提高 LLM 预训练中下一个 token 预测的性能?(图 2 和图 3) 与其他知识提炼方法相比,CoCoMix 在弱到强监督设置中是否有所改进?(表 1 和图 4) CoCoMix 是否引入了模型的可解释性和可操纵性?(图 5) CoCoMix 的每个建议组件对性能有何贡献?(图 6)
在相对大规模的预训练设置中与 NTP 的比较; 与 KD 基线的比较,尤其是在从小模型中提取的概念用于指导大模型的弱到强监督场景中。


较强的教师模型教授较小的学生模型; 弱到强的监督,即较弱的教师教授较大的学生模型; 分布转移,即学生在不同于教师预训练分布的语料库上接受训练。



归因分数对选择概念的有效性; 概念预测与直接隐藏状态预测(即用连续损失预测隐藏状态,而不是用 SAE 将隐藏状态离散化)之间的比较; 压缩权重的稀疏性; 通过分析概念预测和混合的贡献进行成分分析; 通过比较将概念向量添加到原始隐藏状态和混合(将概念向量与 token 隐藏表示交错),对概念调节进行设计选择; CoCoMix 与 Pause token(即添加可学习 token)之间的比较。