基于个性化记忆策略的小参数语言模型高效对齐方法

Mengxiao Zhu, Peilin Tang, Sha Jiu, Chong Feng, Lama jIe, Yandanzhicao Yandanzhicao


Abstract
"在信息爆炸的时代背景下,大模型每天都需处理庞大的知识与数据量。面对缺乏大规模工业级训练设施的现实,小参数模型成为了一种必要选择。然而,这些模型的信息处理需求远远超出其自然存储能力,这引发了一个核心问题:小参数模型应该记住什么,又应该忘记什么?传统的全记忆学习方法由于模型参数容量有限而不再高效,尝试记住一切不仅效率低,还可能引起过重的认知负担,降低思考质量。本文旨在重新定义有限记忆资源下的大语言模型记忆策略。本文首先将模型的记忆划分为内部记忆与外部记忆两个维度,并系统探讨了哪些知识应被优先内化为内部记忆。基于此,我们提出一种个性化记忆策略,针对不同类型的内部知识构建对应的对齐机制,使模型记忆更符合人类偏好与推理需求。这一策略不仅显著增强了小参数模型的理解能力与深度推理能力,也从根本上挑战了坜记得越多越好圢的传统假设,展示了战略性记忆选择在提升学习效率方面的巨大潜力。此外,本文还构建了关于内部记忆的训练集和评测数据集,并在仅使用3B参数规模的模型上进行了系统实验。实验结果显示,本文方法在该评测数据上实现了最佳效果,甚至在多个指标上超越了闭源模型及参数规模达70B的大型模型。为推动行业发展,我们已开源整个训练策略、模型权重及对应的评测数据集和评测方法。"
Anthology ID:
2025.ccl-1.46
Volume:
Proceedings of the 24th China National Conference on Computational Linguistics (CCL 2025)
Month:
August
Year:
2025
Address:
Jinan, China
Editors:
Maosong Sun, Peiyong Duan, Zhiyuan Liu, Ruifeng Xu, Weiwei Sun
Venue:
CCL
SIG:
Publisher:
Chinese Information Processing Society of China
Note:
Pages:
613–626
Language:
URL:
https://preview.aclanthology.org/ingest-ccl/2025.ccl-1.46/
DOI:
Bibkey:
Cite (ACL):
Mengxiao Zhu, Peilin Tang, Sha Jiu, Chong Feng, Lama jIe, and Yandanzhicao Yandanzhicao. 2025. 基于个性化记忆策略的小参数语言模型高效对齐方法. In Proceedings of the 24th China National Conference on Computational Linguistics (CCL 2025), pages 613–626, Jinan, China. Chinese Information Processing Society of China.
Cite (Informal):
基于个性化记忆策略的小参数语言模型高效对齐方法 (Zhu et al., CCL 2025)
Copy Citation:
PDF:
https://preview.aclanthology.org/ingest-ccl/2025.ccl-1.46.pdf