首页 | 本学科首页   官方微博 | 高级检索  
     

基于Attention-BiLSTM的中文命名实体识别
引用本文:冀相冰,朱艳辉,李 飞,徐 啸.基于Attention-BiLSTM的中文命名实体识别[J].湖南工业大学学报,2019,33(5):73-78.
作者姓名:冀相冰  朱艳辉  李 飞  徐 啸
作者单位:湖南工业大学 计算机学院 智能信息感知及处理技术湖南省重点实验室,湖南工业大学 计算机学院 智能信息感知及处理技术湖南省重点实验室,湖南工业大学 计算机学院 智能信息感知及处理技术湖南省重点实验室,湖南工业大学 计算机学院 智能信息感知及处理技术湖南省重点实验室
基金项目:国家自然科学基金资助项目(61402165),湖南省自然科学基金资助项目(2018JJ2098),湖南工业大学重点 基金资助项目(17ZBLWT001KT006)
摘    要:提出一种基于Attention-BiLSTM(attention-bidirectional long short-term memory)深度神经网络的命名实体识别方法。应用BiLSTM神经网络自动学习文本的隐含特征,可以解决传统识别方法存在长距离依赖等问题;引入注意力机制(attention mechanism)对文本全局特征做重要度计算,获取文本局部特征,解决了传统深度学习方法不能充分提取特征的问题;在预训练过程中加入维基百科知识,进一步提升了命名实体识别系统的性能。实验表明,所提方法在SIGHAN 2006 Bakeoff-3评测数据集上获得了优良的识别性能。

关 键 词:命名实体识别  注意力机制  BiLSTM  深度学习  局部特征
收稿时间:2018/3/28 0:00:00

Entity Recognition of Chinese Names Based on Attention-BiLSTM
JI Xiangbing,ZHU Yanhui,LI Fei and XU Xiao.Entity Recognition of Chinese Names Based on Attention-BiLSTM[J].Journal of Hnnnan University of Technology,2019,33(5):73-78.
Authors:JI Xiangbing  ZHU Yanhui  LI Fei and XU Xiao
Abstract:This paper proposes a named entity recognition method based on Attention-BiLSTM (attention-bidirectional long short-term memory) deep neural network. Using BiLSTM neural network to automatically learn the implicit features of text can solve the problem of long-distance dependence of traditional recognition methods. Attention mechanism is used to calculate the importance of text global features, obtain local features of text, and solve the traditional deep learning method can not fully extract the feature problem; adding Wikipedia knowledge in the pre-training process further improves the performance of the named entity recognition system. Experiments show that the proposed method achieves excellent recognition performance on the SIGHAN 2006 Bakeoff-3 evaluation data set.
Keywords:
本文献已被 CNKI 等数据库收录!
点击此处可从《湖南工业大学学报》浏览原始摘要信息
点击此处可从《湖南工业大学学报》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号