首页 | 本学科首页   官方微博 | 高级检索  
     

藏汉神经网络机器翻译研究
引用本文:李亚超,熊德意,张民,江静,马宁,殷建民.藏汉神经网络机器翻译研究[J].中文信息学报,2017,31(6):103-109.
作者姓名:李亚超  熊德意  张民  江静  马宁  殷建民
作者单位:1.甘肃省民族语言智能处理重点实验室(西北民族大学),甘肃 兰州 730030;
2.苏州大学 计算机科学与技术学院,江苏 苏州 215000;
3.潍坊北大青鸟华光照排有限公司,山东 潍坊 261000
基金项目:国家自然科学基金(61403269,61432013,61525205);西北民族大学中央高校基本科研业务费专项资金(31920170154,31920170153);甘肃省高等学校科研项目(2016B-007);中国民族语言文字信息技术重点实验室开放基金(KFJJ201605);CCF中文信息技术开放基金(CCF2015-01-01)
摘    要:神经网络机器翻译是最近几年提出的机器翻译方法,在多数语言对上逐渐超过了统计机器翻译方法,成为当前机器翻译研究前沿热点。该文在藏汉语对上进行了基于注意力的神经网络机器翻译的实验,并采用迁移学习方法缓解藏汉平行语料数量不足问题。实验结果显示,该文提出的迁移学习方法简单有效,相比短语统计机器翻译方法,提高了三个BLEU值。从译文分析中可以看出藏汉神经网络机器翻译的译文比较流畅,远距离调序能力较强,同时也存在过度翻译、翻译不充分、翻译忠实度较低等神经网络机器翻译的共同不足之处。

关 键 词:藏语  神经网络机器翻译  注意力机制  循环神经网络  迁移学习  

Research on Tibetan-Chinese Neural Machine Translation
LI Yachao,XIONG Deyi,ZHANG Min,JIANG Jing,MA Ning,YIN Jianmin.Research on Tibetan-Chinese Neural Machine Translation[J].Journal of Chinese Information Processing,2017,31(6):103-109.
Authors:LI Yachao  XIONG Deyi  ZHANG Min  JIANG Jing  MA Ning  YIN Jianmin
Affiliation:1.Key Laboratory of National Language Intelligent Processing (Northwest Minzu University),
Lanzhou, Gansu 730030, China;2.School of Computer Science and Technology, Soochow University, Suzhou, Jiangsu 215000, China;3.Weifang Beida Jade Bird Huaguang Information Technology Co., Ltd., Weifang, Shandong 261000, China
Abstract:Neural machine translation (NMT), which is a new machine translation method based on sequence-to-sequence learning via neural network, has surpasses statistical machine translation (SMT) in several language pairs gradually. This paper conducted experiment of attention based NMT on Tibetan-Chinese translation task, and adopted transfer learning to overcome the data sparsity problem. Experimental results show that the transfer learning method proposed is simple and effective, resulting 3 BLEU score improvement compared with the phrase-based SMT. Analysis of translations is also conducted to discusses the merits and shortcomings of NMT.
Keywords:Tibetan  neural machine translation  attention mechanism  recurrent neural network  transfer learning  
点击此处可从《中文信息学报》浏览原始摘要信息
点击此处可从《中文信息学报》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号