文本摘要评测方法的语义损失度 |
| |
引用本文: | 金独亮,范永胜,张琪.文本摘要评测方法的语义损失度[J].计算机与现代化,2023(3):84-89. |
| |
作者姓名: | 金独亮 范永胜 张琪 |
| |
作者单位: | 重庆师范大学计算机与信息科学学院 |
| |
基金项目: | 教育部人文社会科学研究项目(18XJC880002);;重庆市教育委员会科技项目(KJQN201800539); |
| |
摘 要: | 自动生成领域,传统的ROUGE评测方法已多次被研究者发现其评测结果与人工评测结果差距过大,但该差距尚未数值化,无法丈量。基于此现状,本文采用多个不同类型、长度的公开中文摘要数据集,通过定义语义损失率计算方法来衡量ROUGE在评价时所产生的语义损失程度,同时综合考虑摘要长度以及数据集内在因素对生成摘要评价的影响,最终可视化ROUGE评测与人工评测存在误差的具体数值。实验结果表明,ROUGE评测分数与人工评测分数呈弱相关性,ROUGE方法对不同长度的数据集都存在一定程度的语义损失,同时摘要长度和数据集的原始标注误差也会对最终的评测分数产生重要影响。本文定义的语义损失率计算方法可以为更好地选择数据集和评测方法提供一定的参考依据,为改进评测方法提供一定的思路方向,同时也对最终客观测评模型的有效性提供一定的指导帮助。
|
关 键 词: | 文本摘要 评测方法 语义损失率 数据集偏差 |
|
|