首页 | 本学科首页   官方微博 | 高级检索  
     

口语理解中改进循环神经网络的应用
引用本文:张晶晶,黄浩,胡英,吾守尔·斯拉木.口语理解中改进循环神经网络的应用[J].计算机工程与应用,2019,55(18):155-160.
作者姓名:张晶晶  黄浩  胡英  吾守尔·斯拉木
作者单位:新疆大学 信息科学与工程学院,乌鲁木齐,830046;新疆大学 信息科学与工程学院,乌鲁木齐,830046;新疆大学 信息科学与工程学院,乌鲁木齐,830046;新疆大学 信息科学与工程学院,乌鲁木齐,830046
基金项目:国家自然科学基金;国家重点研发计划项目
摘    要:口语理解性能的提升对于口语对话系统的研究具有重要作用。为了提高口语理解性能,应用循环神经网络(RNN)及其变体(LSTM,GRU)方法。在此基础上,提出一种改进的循环神经网络(Modified-RNN)方法,该方法通过添加存储历史状态信息,能够存储更长时的信息,含有更少的参数,根据获取的更多信息提取特征信息增加获取信息的有效性,提高了口语理解的精准率和F1],缩短了实验时间。在航空旅行信息数据库(ATIS)上的实验结果验证了该算法的有效性和可靠性。

关 键 词:循环神经网络(RNN)  长短时记忆网络(LSTM)  门限循环单元(GRU)  口语理解(SLU)  改进循环神经网络(M-RNN)

Modified Recurrent Neural Networks in Spoken Language Understanding
ZHANG Jingjing,HUANG Hao,HU Ying,WUSHOUR Silamu.Modified Recurrent Neural Networks in Spoken Language Understanding[J].Computer Engineering and Applications,2019,55(18):155-160.
Authors:ZHANG Jingjing  HUANG Hao  HU Ying  WUSHOUR Silamu
Affiliation:College of Information Science and Engineering, Xinjiang University, Urumuqi 830046, China
Abstract:The improvement of Spoken Language Understanding(SLU) plays an important role in spoken dialogue system. Recurrent neural network and its variants are used to improve performance of SLU. The modified recurrent neural network algorithm is proposed to enhance the SLU, which adds the memory of longer historical information and has fewer parameters. This method can efficiently obtain feature information that not only improves the precision and F1] but also cut down experimental period. The experimental results on the ATIS corpus verify the effectiveness and reliability of the proposed algorithm.
Keywords:Recurrent Neural Network(RNN)  Long Short-Term Memory(LSTM)  Gated Recurrent Unit(GRU)  Spoken Language Understanding(SLU)  Modified Recurrent Neural Networks(M-RNN)  
本文献已被 万方数据 等数据库收录!
点击此处可从《计算机工程与应用》浏览原始摘要信息
点击此处可从《计算机工程与应用》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号