首页 | 本学科首页   官方微博 | 高级检索  
     

前馈神经网络新型综合算法
引用本文:徐晋,綦振法.前馈神经网络新型综合算法[J].武汉大学学报(工学版),2004,37(1):113-117.
作者姓名:徐晋  綦振法
作者单位:1. 上海交通大学管理学院,上海,200030;山东理工大学管理学院,山东,淄博,255049
2. 山东理工大学管理学院,山东,淄博,255049
基金项目:国家自然科学基金资助项目(编号:70172001).
摘    要:为了实时解决前馈神经网络学习过程中可能遇到的小残量问题和大残量问题,引入QuasiNewton优化算法,并与GaussNewton法相结合,构建基于GaussNewton QuasiNewton法的前馈神经网络.根据每次迭代的结果判断属于大残量问题还是小残量问题,进而选择采取GaussNewton迭代步或QuasiNewton迭代步.与基于最速下降法的经典前馈神经网络以及与基于GaussNewton法的前馈神经网络的对比实验表明,所构造的基于Gauss Newton QuasiNewton法的前馈神经网络较好地解决了残量问题,具有良好的收敛性和稳定性.

关 键 词:前馈神经网络  GaussNewton法  QuasiNewton法  残量问题  收敛性  稳定性
文章编号:1671-8844(2004)01-113-04
修稿时间:2003年10月10

A new integrated algorithm of feed-forward neural network
XU Jin.A new integrated algorithm of feed-forward neural network[J].Engineering Journal of Wuhan University,2004,37(1):113-117.
Authors:XU Jin
Abstract:In order to solve the little and large residual problems at the same time, QuasiNewton algorithm is introduced and combined with the GaussNewton algorithm so as to form a feed-forward neural network based on GaussNewton-QuasiNewton algorithm. According to the iteration result, little or large residual problem could be identified; and steps based on GaussNewton or QuasiNewton algorithm could be chosen as a consequence. Comparing with the feed-forward neural network based on fast descent or GaussNewton algorithm, the new feed-forward neural network based on GaussNewton-QuasiNewton algorithm can solve the residual problem properly; and its convergence and stability perform well.
Keywords:feed-forward neural network  GaussNewton algorithm  QuasiNewton algorithm  residual problem  convergence  stability
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号