面向知识图谱约束问答的强化学习推理技术 |
| |
作者姓名: | 毕鑫 聂豪杰 赵相国 袁野 王国仁 |
| |
作者单位: | 东北大学 深部金属矿山安全开采教育部重点实验室, 辽宁 沈阳 110819;东北大学 计算机科学与工程学院, 辽宁 沈阳 110819;东北大学 软件学院, 辽宁 沈阳 110819;北京理工大学 计算机科学与技术学院, 北京 110081) |
| |
基金项目: | 国家自然科学基金(62072087, 61932004, 62002054, 61972077, U2001211) |
| |
摘 要: | 知识图谱问答任务通过问题分析与知识图谱推理,将问题的精准答案返回给用户,现已被广泛应用于智能搜索、个性化推荐等智慧信息服务中.考虑到关系监督学习方法人工标注的高昂代价,学者们开始采用强化学习等弱监督学习方法设计知识图谱问答模型.然而,面对带有约束的复杂问题,现有方法面临两大挑战:(1)多跳长路径推理导致奖励稀疏与延迟;(2)难以处理约束问题推理路径分支.针对上述挑战,设计了融合约束信息的奖励函数,能够解决弱监督学习面临的奖励稀疏与延迟问题;设计了基于强化学习的约束路径推理模型COPAR,提出了基于注意力机制的动作选择策略与基于约束的实体选择策略,能够依据问题约束信息选择关系及实体,缩减推理搜索空间,解决了推理路径分支问题.此外,提出了歧义约束处理策略,有效解决了推理路径歧义问题.采用知识图谱问答基准数据集对COPAR的性能进行了验证和对比.实验结果表明:与现有先进方法相比,在多跳数据集上性能相对提升了2%-7%,在约束数据集上性能均优于对比模型,准确率提升7.8%以上.
|
关 键 词: | 知识图谱 约束路径推理 约束问答 强化学习 |
收稿时间: | 2022-07-05 |
修稿时间: | 2022-12-14 |
|
| 点击此处可从《软件学报》浏览原始摘要信息 |
|
点击此处可从《软件学报》下载免费的PDF全文 |
|