首页 | 本学科首页   官方微博 | 高级检索  
     

基于注意力卷积的神经机器翻译
引用本文:汪琪,段湘煜.基于注意力卷积的神经机器翻译[J].计算机科学,2018,45(11):226-230.
作者姓名:汪琪  段湘煜
作者单位:苏州大学计算机科学与技术学院 江苏 苏州215006,苏州大学计算机科学与技术学院 江苏 苏州215006
基金项目:本文受国家自然科学基金(61673289),国家重点研发计划“政府间国际科技创新合作”重点专项(2016YFE0132100)资助
摘    要:现有神经机器翻译模型普遍采用的注意力机制是基于单词级别的,文中通过在注意力机制上执行多层卷积,从而将注意力机制从基于单词的级别提高到基于短语的级别。经过卷积操作后的注意力信息将愈加明显地体现出短语结构性,并被用于生成新的上下文向量,从而将新生成的上下文向量融入到神经机器翻译框架中。在大规模的中-英测试数据集上的实验结果表明,基于注意力卷积的神经机翻译模型能够很好地捕获语句中的短语结构信息,增强翻译词前后的上下文依赖关系,优化上下文向量,提高机器翻译的性能。

关 键 词:神经机器翻译  多层卷积网络结构  注意力机制  短语级别
收稿时间:2018/4/18 0:00:00
修稿时间:2018/7/12 0:00:00

Neural Machine Translation Based on Attention Convolution
WANG Qi and DUAN Xiang-yu.Neural Machine Translation Based on Attention Convolution[J].Computer Science,2018,45(11):226-230.
Authors:WANG Qi and DUAN Xiang-yu
Affiliation:School of Computer Science and Technology,Soochow University,Suzhou,Jiangsu 215006,China and School of Computer Science and Technology,Soochow University,Suzhou,Jiangsu 215006,China
Abstract:The attention mechanism commonly used by the existing neural machine translation is based on the word level.By creating multi-layer convolutional structure on the basis of attention mechanism,this paper improved attention mecha-nism from word-based level to phrase-based level.After convolutional operation,the attention information can reflect phrase structure more clearly and generate new context vectors.Then,the new context vectors are used to integrate into the neural machine translation framework.Experimental results on large-scale Chinese-to-English tasks show that neural machine translation based on attention convolution can effectively capture the phrasal information in statements,enhance the context dependencies of translated words,optimize the context vectors and improve the translation quality.
Keywords:Neural machine translation  Multi-layer convolutional structure  Attention mechanism  Phrase-based level
点击此处可从《计算机科学》浏览原始摘要信息
点击此处可从《计算机科学》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号