首页 | 本学科首页   官方微博 | 高级检索  
     

深度记忆网络研究进展
引用本文:刘建伟,王园方,罗雄麟.深度记忆网络研究进展[J].计算机学报,2021,44(8):1549-1589.
作者姓名:刘建伟  王园方  罗雄麟
作者单位:中国石油大学(北京)自动化系 北京 102249
摘    要:近年来,随着深度神经网络的快速发展,它在越来越多的领域中有了广泛的应用.深度神经网络模型在处理有序列依赖关系的预测问题时,需要利用之前学习到的信息进行记忆.在一般的神经网络模型中,数据经过多个神经元节点传输会损失很多关键的信息,因此需要具有记忆能力的神经网络模型,我们把它们统称为记忆网络.本文首先介绍了记忆网络的基础模型,包括循环神经网络(RNN)、长短期记忆神经网络(LSTM)、神经图灵机(NTM)、记忆神经网络(MN)和变送器(Transformer).其中,RNN和LSTM是通过隐单元对前一时刻信息的处理来记忆信息,NTM和NM是通过使用外部存储器来进行记忆,而变送器使用注意力机制来选择性记忆.本文对这些模型进了对比,并分析了各个记忆方法的问题和不足.然后根据基础模型的不同,本文对常见的记忆网络模型进行了系统的阐述、分类和总结,包括其模型结构和算法.接着介绍了记忆网络在不同领域和场景下的应用,最后对记忆网络的未来研究方向进行了展望.

关 键 词:循环神经网络  长短期记忆网络  记忆网络  神经图灵机  自然语言处理

Research and Development on Deep Memory Network
LIU Jian-Wei,WANG Yuan-Fang,LUO Xiong-Lin.Research and Development on Deep Memory Network[J].Chinese Journal of Computers,2021,44(8):1549-1589.
Authors:LIU Jian-Wei  WANG Yuan-Fang  LUO Xiong-Lin
Abstract:
Keywords:
本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号