首页 | 本学科首页   官方微博 | 高级检索  
     

基于Transformer的蒙汉神经机器翻译研究
引用本文:高芬,苏依拉,牛向华,赵亚平,范婷婷,仁庆道尔吉. 基于Transformer的蒙汉神经机器翻译研究[J]. 计算机应用与软件, 2020, 37(2): 141-146,225
作者姓名:高芬  苏依拉  牛向华  赵亚平  范婷婷  仁庆道尔吉
作者单位:内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080;内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080;内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080;内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080;内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080;内蒙古工业大学信息工程学院 内蒙古 呼和浩特 010080
基金项目:新疆维吾尔自治区自然科学基金;国家自然科学基金;内蒙古自治区民族事务委员会基金
摘    要:针对传统循环神经网络和卷积神经网络的缺点,搭建完全基于多头自注意力机制的Transformer蒙汉神经机器翻译模型。实验结果表明,该模型比基于LSTM的蒙汉翻译模型提高了9个BLEU值左右。这说明Transformer翻译模型在句子语义提取和语义表达方面优于LSTM翻译模型。同时在语料预处理阶段,还对中蒙文语料进行了不同粒度的切分。通过实验对比分析,蒙文进行BPE处理后的翻译结果优于对中文单独使用分词处理的结果;在较小语料库中,对中文进行分字处理效果优于分词效果。

关 键 词:TRANSFORMER  多头自注意力  粒度切分  神经机器翻译

MONGOLIAN-CHINESE NEURAL MACHINE TRANSI ATION BASED ON TRANSFORMER
Affiliation:(College of Information Engineering,Inner Mongolia University of Technology,Huhehaote 010080,Inner Mongolia,China)
Abstract:Aiming at disadvantages of traditional recurrent neural network and convolutional neural network,the Mongolian-Chinese machine translation model based on Transformer is constructed completely by multi-head self-attention mechanism.The experimental results show that the model improves about 9 BLEU values compared with the model based on LSTM.It indicates that the translation model based on Transformer is superior to the LSTM in terms of sentence semantic extraction and semantic expression.The Chinese and Mongolian corpora are segmented at different granularity in the pre-processing.Through the experimental comparison and analysis,the translation results of Mongolian after BPE processing are better than that of Chinese word segmentation.Moreover,in the small corpus,the effect of word segmentation on Chinese is better than that of word segmentation.
Keywords:Transformer  Multi-head self-attention  Granular segmentation  Neural machine translation
本文献已被 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号