共查询到20条相似文献,搜索用时 171 毫秒
1.
一种基于放大误差信号的自适应BP算法 总被引:1,自引:0,他引:1
针对标准BP算法受饱和区域影响而导致收敛速度慢的问题,提出一种基于放大误差信号的自适应BP算法,该算法通过修改激励函数的导数,使权值的修正过程不会因饱和区域而趋于停滞,并分析了改进算法的收敛性。仿真结果表明,改进的BP算法加快了收敛速度,并在一定程度上提高了全局收敛能力。 相似文献
2.
提出了一种基于放大误差信号的改进BP算法,构造了一个新的函数修改激励函数的导数,通过放大误差信号,加大网络权值调整力度,避免BP算法易于陷入饱和区域来加快收敛速度。仿真结果表明,该算法在收敛速度等方面大大优于其他一些算法。 相似文献
3.
4.
为了解决传统BP(back-propagation)算法收敛速度慢,训练得到的网络性能较差的问题,在借鉴生理学中"选择性注意力模型"的基础上,将遗传算法与误差放大的BP学习算法进行了有机的融合,提出了基于注意力模型的快速混合学习算法.该算法的核心在于将单独的BP训练过程划分为许多小的切片,并对每个切片进行误差放大的训练和竞争淘汰机制的选择.通过发现收敛速率较快的个体和过滤陷入局部极值的个体,来保证网络训练的成功率和实现快速向全局最优区域逼近的目的.仿真结果表明,该算法有效地解决了传统BP算法中由于初始权值的随机性造成的训练失败问题,并能有效解决饱和区域引起的后期训练缓慢问题,在不增加网络隐层节点数的情况下,显著地提高了网络的收敛精度和泛化能力.这将使神经网络在众多实际的分类问题上具有更广泛的应用前景. 相似文献
5.
传统BP神经网络学习算法有学习速度慢、精度不高、易于陷入局部极小值、不稳定等问题,DFP神经网络学习算法是最优化理论中一类典型的拟牛顿法,具有超线性收敛速度和全局收敛性.但普通DFP算法有数值不稳定的缺陷,在处理大规模网络的学习问题时容易失效;在算法进入到饱和区域、接近最小值的时候,普通DFP算法会产生溢出错误.通过放大权值更新向量和权值导数更新向量,改进拟Hesse逆矩阵的求解,并结合线性搜索和L-M算法,改善了方法的稳定性,解决了算法失效的问题,同时保证了高效的学习速度和较高的学习精度.与目前应用最广泛的BP学习算法L-M 算法相比,改进的DFP算法具有与其相同的学习速度,计算量小,学习精度高,更适用于大残量问题. 相似文献
6.
7.
8.
BP神经网络由于可以根据误差的反向传播来纠正权值和阈值,但它有可能陷入局部极小,不能确保收敛到全局极小点.反向传播训练次数多,收敛速度慢,使学习结果有时不能令人满意.如果用均方误差指标作为适应值的粒子群算法对BP网络的权值进行训练,会得到较快的收敛速度,而且可以避免局部最值的出现. 相似文献
9.
在标准BP神经网络的训练中,将误差函数作为权值调整的依据,使用固定学习率计算权值,这样的结果往往使网络的学习速度过慢甚至无法收敛。对此,从网络收敛的稳定性和速度的角度出发,分析了误差函数和权值修改函数,对算法中学习率的作用进行了具体的讨论,提出了一种根据误差变化对学习率进行动态调整的方法。该方法简单实用,能有效防止网络训练时出现发散,提高网络的收敛速度和稳定性。 相似文献
10.
该文针对SVSLMS算法步长函数在误差e(n)接近零处不具有缓慢变化的缺点和MLMS算法由于采用固定步长使得在稳态阶段权值更新到期望值速度过慢的不足进行了讨论。通过更新SVSLMS算法步长函数和在权值调整式中增加动量项,该文提出了一种改进算法—SVS-MLMS算法。该算法具有步长函数在误差e(n)接近零处能够缓慢变化的优点,使得在白适应稳态阶段的步长稳定在最优值,进而使权值收敛到最佳。仿真结果证明该算法在学习曲线收敛速度加快和稳态误差减小方面取得了较好的效果。该文还讨论了算法中三个参数a,b,r的取值对算法收敛性能的影响,确定了它们的最优值。 相似文献
11.
段艳明 《计算机技术与发展》2014,(8):238-241
针对PID控制中的参数整定的难点及基本BP算法收敛速度慢、易陷入局部极值的问题,提出利用PSO算法的全局寻优能力和较强的收敛性来改进BP网络的权值调整新方法,从而对PID控制的比例、积分、微分进行优化控制。该方法是在基本BP算法的误差反向传播的基础上,使粒子位置的更新对应BP网络的权值和阈值的调整,既充分利用了PSO算法的全局寻优性又较好地保持了BP算法本身的反向传播特点。仿真结果表明基于PSO算法的BP神经网络的PID优化控制具有较好的性能和自学习、自适应性。 相似文献
12.
提出了一种新的基于遗传算法和误差反向传播的双权值神经网络学习算法,同时确定核心权值、方向权值以及幂参数、学习率等参数,通过适当地调节这些参数,可以实现尽可能多种不同超曲面的特性以及起到加快收敛的效果。并通过对实际的模式分类问题的仿真,将文中的方法与带动量项BP算法、CSFN等算法进行了比较,验证了其有效性。实验结果表明所提出的方法具有分类准确率高、收敛速度快的优点。 相似文献
13.
局部式反传网络的改进BP算法及应用 总被引:1,自引:0,他引:1
针对标准BP算法收敛速度慢的缺点,分析了其产生的主要原因,提出了一种改进BP算法。在传统BP算法基础上通过对其激励函数增加陡度因子并在误差反传权值修正时增加协调器,通过对网络灵敏度的分析将全反传式网络变成局部式反传网络,从而达到提高网络学习速率及精度的目的。改进的BP算法应用于导向钻井稳定平台系统的辨识,仿真结果表明该算法收敛速度快,精度高。 相似文献
14.
一种通过反馈提高神经网络学习性能的新算法 总被引:8,自引:0,他引:8
为了有效提高前向神经网络的学习性能,需要从一个新的角度考虑神经网络的学习训练.基于此,提出了一种基于结果反馈的新算法——FBBP算法.将神经网络输入调整与通常的权值调整的反向传播算法结合起来,通过调整权值和输入矢量值的双重作用来最小化神经网络的误差函数.并通过几个函数逼近和模式分类问题的实例仿真,将FBBP算法与加动量项BP算法、最新的一种加快收敛的权值更新的算法进行了比较,来验证所提出的算法的有效性.实验结果表明,所提出的算法具有训练速度快和泛化能力高的双重优点,是一种非常有效的学习方法. 相似文献
15.
New dynamical optimal learning for linear multilayer FNN 总被引:1,自引:0,他引:1
This letter presents a new dynamical optimal learning (DOL) algorithm for three-layer linear neural networks and investigates its generalization ability. The optimal learning rates can be fully determined during the training process. The mean squared error (mse) is guaranteed to be stably decreased and the learning is less sensitive to initial parameter settings. The simulation results illustrate that the proposed DOL algorithm gives better generalization performance and faster convergence as compared to standard error back propagation algorithm. 相似文献
16.
针对一类温度控制系统中存在的非线性和参数不确定等问题,提出一种复合神经网络自适应控制结构.在控制系统中构造了神经网络正模型来再现被控对象的动态特性,用神经网络控制器实现优化控制律的非线性映射.文中选用了被控对象80组历史数据作为样本集,并利用遗传算法的全局搜索能力及高效率来训练多层前向神经网络的权系数.最后用升降温工艺曲线作为输入对温度控制系统进行仿真.仿真结果表明,应用遗传算法能够提高神经网络的学习效率.保证神经网络全局快速收敛,从而克服了传统的误差反传学习算法的一些缺点.证明了采用这种神经网络自适应控制结构.使神经网络控制器的输出可以适应对象参数和环境的变化.使温度控制系统具有很好的学习和自适应控制能力,取得了良好的控制效果. 相似文献
17.
SHEN Yanjun WANG BingwenDepartment of Control Science Engineering University of Science Technology Wuhan China 《中国科学F辑(英文版)》2004,47(1):126-136
This paper presents a modified structure of a neural network with tunable activation function and provides a new learning algorithm for the neural network training. Simulation results of XOR problem, Feigenbaum function, and Henon map show that the new algorithm has better performance than BP (back propagation) algorithm in terms of shorter convergence time and higher convergence accuracy. Further modifications of the structure of the neural network with the faster learning algorithm demonstrate simpler structure with even faster convergence speed and better convergence accuracy. 相似文献
18.
针对深度信念网络(DBN)算法在采用反向传播修正网络的连接权值和偏置的过程中,容易产生梯度小、学习率低、误差收敛速度慢等问题,提出一种结合多新息理论对标准DBN算法进行改进的算法,即多新息DBN(MI-DBN)。MI-DBN算法是对标准DBN算法中反向传播的过程重新建模,使得算法在原先只利用单个新息的情况下,扩展为能够充分利用之前多个周期的新息,从而大幅提高误差收敛速度。通过实验对MI-DBN算法和其他分类算法进行了数据集分类的比较,实验结果表明,MI-DBN算法相较其他分类算法,其误差收敛速度较快,而且最终对MNIST数据集和Caltech101数据集的识别中误差结果相对更小。 相似文献
19.