首页 | 本学科首页   官方微博 | 高级检索  
     

TFLS-BiGRU-ATT:一种简单有效的中文短文本关系抽取模型
作者姓名:刘成星  张超群  代林林  张龙昊
作者单位:1. 广西民族大学人工智能学院;2. 广西混杂计算与集成电路设计分析重点实验室
基金项目:国家自然科学基金(62062011);;广西省自然科学基金(2019GXN SFAA185017);
摘    要:关系抽取是信息抽取的核心任务,如何从海量的中文短文本中快速准确地抽取出重要的关系特征,成为中文短文本关系抽取任务的难点。针对这一问题,该文提出一种基于注意力机制的双向门控循环(Bidirectional Gated Recurrent Units, BiGRU)神经网络模型TFLS-BiGRU-ATT来对中文短文本中的关系特征进行抽取。首先,该模型使用所提出的文本定长选择(Text Fixed Length Selection, TFLS)策略对关系文本进行定长处理,然后利用双层BiGRU网络对定长文本进行关系特征提取,再通过所提出的注意力机制对关系特征进行权重的相应分配,最终对不同权重的特征信息进行实体间关系的抽取。基准实验的结果表明,TFLS-BiGRU-ATT模型在DuIE、COAE-2016-Task3、FinRE、SanWen四个具有不同特征的中文短文本数据集上获得的F1值分别达到93.62%、91.38%、49.35%、62.98%,显著优于对比模型。此外,还通过消融实验和定长选择实验进一步验证TFLS-BiGRU-ATT模型能够有效地提高中文短文本关...

关 键 词:中文短文本  关系抽取  文本定长选择  双向门控循环神经网络  注意力机制
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号