CCL25-Eval任务7系统报告:微调与提示协同增强大语言模型的文学语义理解

Yang Qingyi, Zhoupanpan Zhoupanpan


Abstract
"本报告基于"第一届中国文学语言理解评测(争鸣)任务",对Qwen2.5-7B-Instruct模型进行了低秩适配(Low-Rank Adaptation, LoRA)微调实验。任务包括五项主任务:古代文学知识理解、文学阅读完形填空、文学命名实体识别、文学作品风格预测和文学风格转换;另有两项域外任务,涉及现代文学批评倾向与批评挖掘。在有限计算资源条件下,采用LoRA技术实现了高效参数更新,并结合少量样本提示和高质量指令设计,提升了模型在少样本条件下的鲁棒性与泛化能力。实验结果显示,该方法在五项主任务上取得了良好表现,并在域外任务中展现出显著的跨领域能力。其中,在批评挖掘任务中取得了0.847的准确率,体现了较强的抽象推理与知识迁移能力。基于本报告方法训练的模型在所有任务的平均指标为0.540,在参赛队伍中排名第三。"
Anthology ID:
2025.ccl-2.35
Volume:
Proceedings of the 24th China National Conference on Computational Linguistics (CCL 2025)
Month:
August
Year:
2025
Address:
Jinan, China
Editors:
Hongfei Lin, Bin Li, Hongye Tan
Venue:
CCL
SIG:
Publisher:
Chinese Information Processing Society of China
Note:
Pages:
298–303
Language:
URL:
https://preview.aclanthology.org/ingest-ccl/2025.ccl-2.35/
DOI:
Bibkey:
Cite (ACL):
Yang Qingyi and Zhoupanpan Zhoupanpan. 2025. CCL25-Eval任务7系统报告:微调与提示协同增强大语言模型的文学语义理解. In Proceedings of the 24th China National Conference on Computational Linguistics (CCL 2025), pages 298–303, Jinan, China. Chinese Information Processing Society of China.
Cite (Informal):
CCL25-Eval任务7系统报告:微调与提示协同增强大语言模型的文学语义理解 (Qingyi & Zhoupanpan, CCL 2025)
Copy Citation:
PDF:
https://preview.aclanthology.org/ingest-ccl/2025.ccl-2.35.pdf