首页 | 本学科首页   官方微博 | 高级检索  
     

基于Multi-BiLSTM-Attention的关系抽取
引用本文:王凯,秦永彬,李婷,杨卫哲,陈艳平.基于Multi-BiLSTM-Attention的关系抽取[J].计算机与数字工程,2021,49(7):1377-1382.
作者姓名:王凯  秦永彬  李婷  杨卫哲  陈艳平
作者单位:贵州大学计算机科学与技术学院 贵阳 550025
摘    要:在关系抽取任务中,单一的长短期记忆模型只能学习到某个特定维度的特征,而卷积神经网络可以利用多个卷积核学习不同维度特征.基于上述两个特点,该文提出了一种多层双向长短期记忆-注意力模型,该方法通过给长短期记忆模型设置不同大小的隐藏层,使其能自动从原始输入中抽取不同维度的、带依赖信息的抽象特征,并利用注意力机制捕获全局信息.实验显示,该方法能显著提高中文关系抽取效果,在ACE RDC 2005中文数据集上取得71.6%的F值.

关 键 词:关系抽取  长短期记忆模型  注意力机制

Relation Extraction Based on Multiple Bidirectional Long Short-Term Memory-Attention
WANG Kai,QIN Yongbin,LI Ting,YANG Weizhe,CHEN Yanping.Relation Extraction Based on Multiple Bidirectional Long Short-Term Memory-Attention[J].Computer and Digital Engineering,2021,49(7):1377-1382.
Authors:WANG Kai  QIN Yongbin  LI Ting  YANG Weizhe  CHEN Yanping
Abstract:
Keywords:
本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号