首页 | 本学科首页   官方微博 | 高级检索  
     

反向传播神经网络收敛性的探讨
引用本文:林俊,章兢.反向传播神经网络收敛性的探讨[J].计算机与现代化,2005(7):9-12.
作者姓名:林俊  章兢
作者单位:湖南师范大学工学院,湖南,长沙,410081;湖南大学电气与信息工程学院,湖南,长沙,410082;湖南大学电气与信息工程学院,湖南,长沙,410082
摘    要:标准BP算法采用的最陡梯度下降法使得均方误差达到最小的策略可能存在两大问题:①陷入局部最小而没有收敛到全局最小,即不收敛;②收敛速率慢。本文从训练算法角度方面,比较了标准BP算法、动量算法、可变学习速率算法和Levenberg-Marquardt算法这几种方法的收敛性以及收敛速率,并通过Matlab仿真进行了验证。

关 键 词:BP网络  收敛性  动量算法  可变学习速率算法  Levenberg-Marquardt算法  Matlab
文章编号:1006-2475(2005)07-0009-04

Study on Convergence of BP Neural Network
LIN Jun,ZHANG Jing.Study on Convergence of BP Neural Network[J].Computer and Modernization,2005(7):9-12.
Authors:LIN Jun  ZHANG Jing
Abstract:Standard backpropagation, which adopts the steepest gradient descent algorithm to acquire the least mean square (LMS), probably leads to two problems. One is to be trapped in local minimum, not global minimum. The other is low convergence rate. In aspect of training algorithm, this paper compares standard backpropagation with momentum algorithm, variable learning rate algorithm and Levenberg-Marquardt algorithm by the convergence and convergence rate of neural network. This paper also provides simulation examples for all methods above.
Keywords:BP neural network  convergence  momentum algorithm  variable learning rate algorithm  Levenberg-Marquardt algorithm  Matlab  
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号