@inproceedings{qingyi-zhoupanpan-2025-ccl25,
title = "{CCL}25-Eval任务7系统报告:微调与提示协同增强大语言模型的文学语义理解",
author = "Qingyi, Yang and
Zhoupanpan, Zhoupanpan",
editor = "Lin, Hongfei and
Li, Bin and
Tan, Hongye",
booktitle = "Proceedings of the 24th {C}hina National Conference on Computational Linguistics ({CCL} 2025)",
month = aug,
year = "2025",
address = "Jinan, China",
publisher = "Chinese Information Processing Society of China",
url = "https://preview.aclanthology.org/ingest-ccl/2025.ccl-2.35/",
pages = "298--303",
abstract = "``本报告基于{''}第一届中国文学语言理解评测(争鸣)任务'',对Qwen2.5-7B-Instruct模型进行了低秩适配(Low-Rank Adaptation, LoRA)微调实验。任务包括五项主任务:古代文学知识理解、文学阅读完形填空、文学命名实体识别、文学作品风格预测和文学风格转换;另有两项域外任务,涉及现代文学批评倾向与批评挖掘。在有限计算资源条件下,采用LoRA技术实现了高效参数更新,并结合少量样本提示和高质量指令设计,提升了模型在少样本条件下的鲁棒性与泛化能力。实验结果显示,该方法在五项主任务上取得了良好表现,并在域外任务中展现出显著的跨领域能力。其中,在批评挖掘任务中取得了0.847的准确率,体现了较强的抽象推理与知识迁移能力。基于本报告方法训练的模型在所有任务的平均指标为0.540,在参赛队伍中排名第三。''"
}Markdown (Informal)
[CCL25-Eval任务7系统报告:微调与提示协同增强大语言模型的文学语义理解](https://preview.aclanthology.org/ingest-ccl/2025.ccl-2.35/) (Qingyi & Zhoupanpan, CCL 2025)
ACL
- Yang Qingyi and Zhoupanpan Zhoupanpan. 2025. CCL25-Eval任务7系统报告:微调与提示协同增强大语言模型的文学语义理解. In Proceedings of the 24th China National Conference on Computational Linguistics (CCL 2025), pages 298–303, Jinan, China. Chinese Information Processing Society of China.