首页 | 本学科首页   官方微博 | 高级检索  
     

一种融合注意力机制的自适应实体识别方法
引用本文:陈启丽,黄冠和,王元卓,张琨,杜则尧.一种融合注意力机制的自适应实体识别方法[J].中文信息学报,2021,35(6):55.
作者姓名:陈启丽  黄冠和  王元卓  张琨  杜则尧
作者单位:1.北京信息科技大学 自动化学院,北京 100192;
2.中国科学院 计算技术研究所,北京 100190;
3.北京微梦创科网络技术有限公司,北京 100080
基金项目:国家自然科学基金(U1836206);北京市教委科研计划(KM201811232016);中原千人计划——中原科技创新领军人才项目;北京市博士后创新研发项目(ZZ201965);朝阳区博士后创新研发项目(2019ZZ45);促进高校分类发展重点研究培育项目(2121YJPY211)
摘    要:为了解决命名实体识别任务在面向新兴应用领域时,需要面对烦琐的模型重构过程和语料严重不足的问题,该文提出了一种基于注意力机制的领域自适应命名实体识别方法。首先,在通用领域数据集上构建了基于BERT(bidirectional encoder representations from transformers)预训练语言模型的双向长短时记忆条件随机场(BERT-BiLSTM-CRF)命名实体识别模型;接着,在古代汉语语料集上对原有模型进行微调的同时插入了基于注意力机制的自适应神经网络层;最后,在目标域内应用迁移学习方法训练模型进行对比实验。实验结果表明,自适应迁移学习方法减少了对目标域语料的依赖。该文提出的基于注意力机制的自适应神经网络模型相比通用域BERT-BiLSTM-CRF模型的命名实体识别结果F1值提高了4.31%,相比古代汉语域BERT-BiLSTM-CRF模型的命名实体识别结果F1值提高了2.46%,实验表明,该文方法能够提升源域模型迁移学习的效果,并完成跨领域命名实体识别模型的构建。

关 键 词:迁移学习  命名实体识别  古代汉语  BERT模型  
收稿时间:2020-04-22

An Adaptive Entity Recognition Method with Attention Mechanism
CHEN Qili,HUANG Guanhe,WANG Yuanzhuo,ZHANG Kun,DU Zeyao.An Adaptive Entity Recognition Method with Attention Mechanism[J].Journal of Chinese Information Processing,2021,35(6):55.
Authors:CHEN Qili  HUANG Guanhe  WANG Yuanzhuo  ZHANG Kun  DU Zeyao
Affiliation:1.School of Automation, Beijing Information Science and Technology University, Beijing 100192, China;2.Institute of Computing Technology, Chinese Academy of Sciences, Beijing 100190, China;3.Weibo Corporation, Beijing 100080, China
Abstract:To deal with model reconstruction process and the lack of training data for various domains in the task of named entity recognition, a domain adaptive named entity recognition method is proposed based on attention mechanism. Firstly, a bidirectional long-short term memory conditional random field named entity recognition model based on the BERT (BERT-BiLSTM-CRF)is constructed on the general dataset. Then, such-bulit model is fine-tuned using the ancient Chinese corpus, with an adaptive neural network layer based on the attention mechanism inserted. The comparison experiment is set with the model in the target domain and the existing transfer learning method. The experimental results show that the proposed model improves the F1 value by 4.31% compared with the generic domain BERT-BiLSTM-CRF model, by 2.46% compared with the same model trained only on the ancient Chinese domain corpus.
Keywords:transfer learning  named entity recognition  ancient Chinese  BERT model  
点击此处可从《中文信息学报》浏览原始摘要信息
点击此处可从《中文信息学报》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号