首页 | 本学科首页   官方微博 | 高级检索  
     

一种改进BP神经网络的算法
引用本文:卢志刚,李兵,易之光,吴士昌. 一种改进BP神经网络的算法[J]. 自动化技术与应用, 2005, 24(7): 16-18
作者姓名:卢志刚  李兵  易之光  吴士昌
作者单位:河北燕山大学,电气工程学院,河北,秦皇岛,066004;河北燕山大学,电气工程学院,河北,秦皇岛,066004;河北燕山大学,电气工程学院,河北,秦皇岛,066004;河北燕山大学,电气工程学院,河北,秦皇岛,066004
摘    要:
传统的神经网络BP算法存在收敛速度慢、存在局部极小点等问题,这种算法收敛慢的主要原因是它利用的是性能函数的一阶信息,递推最小二乘算法利用了二阶信息,但是需要计算输入信号的自相关矩阵的逆,计算量大,不易实现。本文提出一种梯度递推BP算法,它基于最小二乘准则,利用改进的梯度来实现BP算法,这种算法不用计算输入信号的自相关矩阵,并通过仿真证明了该算法的有效性。

关 键 词:神经网络  最小二乘  BP算法  梯度递推
文章编号:1003-7241(2005)07-0016-03
修稿时间:2004-12-13

A Gradient Recurrence Algorithm for Neural Networks
LU Zhi-gang,LI Bing,YI Zhi-guang,WU Shi-chang. A Gradient Recurrence Algorithm for Neural Networks[J]. Techniques of Automation and Applications, 2005, 24(7): 16-18
Authors:LU Zhi-gang  LI Bing  YI Zhi-guang  WU Shi-chang
Abstract:
A major limitation of the traditional back-propagation for neural network is its slow rate of convergence to a local or global minimum of the error-performance surface. And the least square algorithm has to estimate the inverse of self-correlation matrix. An improved gradient back-propagation algorithm is proposed. The results of computer simulation show that the performance is better than the conventional back-propagation learning technique.
Keywords:Neural network  Least square criterion  Back-propagation algorithm  Gradient recursion
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号