共查询到18条相似文献,搜索用时 78 毫秒
1.
前馈神经网络的一种新的学习算法 总被引:4,自引:0,他引:4
本文将变尺度法引入到神经网络的学习中。在修改权值时,引入串行修正权值的思想。基于以上两点提出的算法具有收敛速度快、实习精度高等特点。 相似文献
2.
3.
针对信赖域方法求解多峰值优化不能收敛到全局最优的问题,本文提出了一种新的信赖域粒子群算法。该算法将信赖域方法和粒子群算法进行有机结合,利用了粒子群搜索性能良好和信赖域方法总体收敛性良好的优点。新算法能够克服信赖域方法的缺点,同时又能有效求解一类欺骗性问题。数值实验说明了算法的有效性和鲁棒性。 相似文献
4.
5.
前馈神经网络的新学习算法研究及其应用 总被引:18,自引:0,他引:18
为了提高多层前馈神经网络的权的学习效率。通过引入变尺度法,提出一种新的学习算法。理论上新算法不仅具有变尺度优化方法的一切优点,而且也能起到Kick—Out学习算法中动量项及修正项的相同作用,同时又克服了动量系数及修正项系数难以适当选择的困难。仿真试验证明了新学习算法用于非线性动态系统建模时的有效性。 相似文献
6.
前向代数神经网络的函数逼近理论及学习算法 总被引:12,自引:0,他引:12
周永权 《计算机研究与发展》2000,37(3):264-271
文中对MP神经元模型进行了推广,定义了多项代数神经元、多项式代数神经网络,将多项式代数融入代数神经网络,分析了前向多项式代数神经网络函数逼近能力及理论依据,设计出了一类双输入单输出的前向4层多层式代数神经网络模型,由该模型构成的网络能够逼近于给定的二元多项式到预定的精度。给出了在P-adic意义下的多项式代数神经网络函数逼近整体学习算法,在学习的过程中,不存在局部极小,通过实例表明,该算法有效,最 相似文献
7.
针对时变和/或非线性输入的前向神经网络提出了一种感知自适应算法。其本质是迫使输出的实际值和期望值之间的误差满足一个渐近稳定的差分方程,而不是用后向传播方法使误差函数极小化。通过适当排列扩张输入可以避免算法的奇异性。 相似文献
8.
朱铁锋 《计算技术与自动化》2013,(4):54-56
针对非线性互补问题求解困难,利用信赖域算法,并结合极大熵函数法给出该类问题的一种新的有效算法.该算法首先利用极大熵函数将非线性互补问题转化为一个无约束最优化问题,然后应用信赖域算法来优化该问题,并在一定条件下证明该算法具有全局收敛性。数值算例表明算法的有效性。 相似文献
9.
多层神经网络学习算法的研究 总被引:2,自引:0,他引:2
本文对多层神经网络的反向传播算法作了简要的分析和讨论,据此提出了一种新的学习算法用以消除多层网络的“迟钝状态”。实验结果表明,这种新算法能够加速学习收敛速度并避免陷入局部极小。 相似文献
10.
本文构造了一种新的基于线性模型、多层前向网络的混合结构神经网络模型,并提出了相应的非迭代快速学习算法.该学习算法能够根据拟合精度要求,运用线性最小二乘法确定相应的最佳网络权值和线性部分的参数,并自动确定最佳的隐层节点数.与BP网络的比较结果表明,本文提出的混合结构前向神经网络的快速学习算法无论在拟合精度、学习速度、泛化能力、还是隐节点数均显著好于BP算法. 相似文献
11.
12.
根据优化理论中的Hooke-Jeeves模式搜索(pattern search)法提出了多层前馈式神经网络快速训练算法HJPS.该算法由“探测搜索”和“模式移动”两个步骤交替进行.其基本思想是探测搜索依次沿各个坐标轴进行,用以确定新的基点和有利于网络误差函数值下降的方向.模式移动沿相邻两个基点的连线方向前进,从而进一步减小误差函数值,达到更快收敛.实验结果表明,同BP算法以及其他几种快速算法相比,HJPS算法在收敛速度和运算时间上都有非常显著的提高.同时HJPS算法的泛化能力很强. 相似文献
13.
14.
Fast Learning Algorithms for Feedforward Neural Networks 总被引:7,自引:0,他引:7
In order to improve the training speed of multilayer feedforward neural networks (MLFNN), we propose and explore two new fast backpropagation (BP) algorithms obtained: (1) by changing the error functions, in case using the exponent attenuation (or bell impulse) function and the Fourier kernel function as alternative functions; and (2) by introducing the hybrid conjugate-gradient algorithm of global optimization for dynamic learning rate to overcome the conventional BP learning problems of getting stuck into local minima or slow convergence. Our experimental results demonstrate the effectiveness of the modified error functions since the training speed is faster than that of existing fast methods. In addition, our hybrid algorithm has a higher recognition rate than the Polak-Ribieve conjugate gradient and conventional BP algorithms, and has less training time, less complication and stronger robustness than the Fletcher-Reeves conjugate-gradient and conventional BP algorithms for real speech data. 相似文献
15.
16.
一种前向神经网络快速学习算法及其在系统辨识中的应用 总被引:14,自引:0,他引:14
提出一种基于最小二乘的前向神经网络快速学习算法.与现有同类算法相比,该算法无需任何矩阵求逆,计算量小,较适于需快速学习的系统辨识和其他应用.文中推导了算法,并给出一种更为简便的局部化算法.系统辨识的仿真实例表明了算法的优良性能. 相似文献
17.
提出的算法是利用凸函数共轭性质中的Young不等式构造优化目标函数,这个优化目标函数对于权值和隐层输出来说为凸函数,不存在局部最小。首先把隐层输出作为变量进行优化更新,然后快速计算出隐层前后的权值。数值实验表明:此算法简单,收敛速度快,泛化能力强,并大大降低了学习误差。 相似文献