首页 | 本学科首页   官方微博 | 高级检索  
     

基于Transformer与HowNet义原知识融合的双驱动语义蕴含识别
作者姓名:陈帆  黄炎  张新访
作者单位:华中科技大学 机械科学与工程学院, 武汉 430074;华中科技大学 人工智能与自动化学院, 武汉 430074
基金项目:国家重点研发计划(2021YFB2012202);湖北省科技重大专项(2020AEA011);湖北省重点研发计划(2020BAB100,2021BAA171,2021BAA038)
摘    要:语义蕴含识别旨在检测和判断两个语句的语义是否一致,以及是否存在蕴含关系.然而现有方法通常面临中文同义词、一词多义现象困扰和长文本难理解的挑战.针对上述问题,本文提出了一种基于Transformer和HowNet义原知识融合的双驱动中文语义蕴含识别方法,首先通过Transformer对中文语句内部结构语义信息进行多层次编码和数据驱动,并引入外部知识库HowNet进行知识驱动建模词汇之间的义原知识关联,然后利用soft-attention进行交互注意力计算并与义原矩阵实现知识融合,最后用BiLSTM进一步编码文本概念层语义信息并推理判别语义一致性和蕴含关系.本文所提出的方法通过引入HowNet义原知识手段解决多义词及同义词困扰,通过Transformer策略解决长文本挑战问题.在BQ、AFQMC、PAWSX等金融和多语义释义对数据集上的实验结果表明,与DSSM、MwAN、DRCN等轻量化模型以及ERNIE等预训练模型相比,该模型不仅可以有效提升中文语义蕴含识别的准确率(相比DSSM模型提升2.19%),控制模型的参数量(16 M),还能适应50字及以上的长文本蕴含识别场景.

关 键 词:义原知识融合  Transformer  HowNet  蕴含识别
收稿时间:2022-10-02
修稿时间:2022-11-04
点击此处可从《计算机系统应用》浏览原始摘要信息
点击此处可从《计算机系统应用》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号