首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
一种基于放大误差信号的自适应BP算法   总被引:1,自引:0,他引:1  
孙娓娓  刘琼荪 《计算机应用》2008,28(8):2081-2083
针对标准BP算法受饱和区域影响而导致收敛速度慢的问题,提出一种基于放大误差信号的自适应BP算法,该算法通过修改激励函数的导数,使权值的修正过程不会因饱和区域而趋于停滞,并分析了改进算法的收敛性。仿真结果表明,改进的BP算法加快了收敛速度,并在一定程度上提高了全局收敛能力。  相似文献   

2.
提出了一种基于放大误差信号的改进BP算法,构造了一个新的函数修改激励函数的导数,通过放大误差信号,加大网络权值调整力度,避免BP算法易于陷入饱和区域来加快收敛速度。仿真结果表明,该算法在收敛速度等方面大大优于其他一些算法。  相似文献   

3.
改进粒子群算法对BP神经网络的优化   总被引:3,自引:0,他引:3  
介绍一种基于改进粒子群算法优化BP网络的权值调整综合方法。该算法在传统BP算法的误差反传调整权值的基础上,引入粒子群算法的权值修正,并且在训练神经网络权值的同时优化其连接结构,删除冗余连接,从而建立了基于粒子群算法优化的BP网络新模型。结果表明,改进算法不仅可以克服传统BP算法收敛速度慢和易陷入局部权值的局限,而且很大程度地提高了结果精度和BP网络学习能力。  相似文献   

4.
杨博  苏小红  王亚东 《软件学报》2005,16(6):1073-1080
为了解决传统BP(back-propagation)算法收敛速度慢,训练得到的网络性能较差的问题,在借鉴生理学中"选择性注意力模型"的基础上,将遗传算法与误差放大的BP学习算法进行了有机的融合,提出了基于注意力模型的快速混合学习算法.该算法的核心在于将单独的BP训练过程划分为许多小的切片,并对每个切片进行误差放大的训练和竞争淘汰机制的选择.通过发现收敛速率较快的个体和过滤陷入局部极值的个体,来保证网络训练的成功率和实现快速向全局最优区域逼近的目的.仿真结果表明,该算法有效地解决了传统BP算法中由于初始权值的随机性造成的训练失败问题,并能有效解决饱和区域引起的后期训练缓慢问题,在不增加网络隐层节点数的情况下,显著地提高了网络的收敛精度和泛化能力.这将使神经网络在众多实际的分类问题上具有更广泛的应用前景.  相似文献   

5.
传统BP神经网络学习算法有学习速度慢、精度不高、易于陷入局部极小值、不稳定等问题,DFP神经网络学习算法是最优化理论中一类典型的拟牛顿法,具有超线性收敛速度和全局收敛性.但普通DFP算法有数值不稳定的缺陷,在处理大规模网络的学习问题时容易失效;在算法进入到饱和区域、接近最小值的时候,普通DFP算法会产生溢出错误.通过放大权值更新向量和权值导数更新向量,改进拟Hesse逆矩阵的求解,并结合线性搜索和L-M算法,改善了方法的稳定性,解决了算法失效的问题,同时保证了高效的学习速度和较高的学习精度.与目前应用最广泛的BP学习算法L-M 算法相比,改进的DFP算法具有与其相同的学习速度,计算量小,学习精度高,更适用于大残量问题.  相似文献   

6.
具有混沌激励函数的BP网络算法   总被引:1,自引:0,他引:1  
该文讨论了BP网络学习过程中的假饱和现象,并给出了一种改进的算法,有效地解决了假饱和的问题。仿真结果表明,该方法不但可以提高网络学习的快速性,而且具有一定的避免权值落入局部极小点的能力,从而提高了网络的收敛精度,同时,该算法还能提高网络的泛化能力。  相似文献   

7.
基于BP-GA混合学习算法的神经网络短期负荷预测   总被引:8,自引:0,他引:8  
杨延西  刘丁  李琦  郑岗 《信息与控制》2002,31(3):284-288
本文提出了修正的遗传算法和BP算法相结合的短期负荷预测方法,与传统神经网络方 法相比,该方法可以加快网络学习速度和提高学习精度.我们用遗传算法来训练网络参数, 直到误差趋于一稳定值,然后用优化的权值进行BP算法,实现短期负荷预测.在构建网络模 型时,我们考虑了气候因素的影响,并把它作为网络的一组输入点.实验结果表明基于这一 方法的负荷预测系统较高的精度和实时性.  相似文献   

8.
BP神经网络由于可以根据误差的反向传播来纠正权值和阈值,但它有可能陷入局部极小,不能确保收敛到全局极小点.反向传播训练次数多,收敛速度慢,使学习结果有时不能令人满意.如果用均方误差指标作为适应值的粒子群算法对BP网络的权值进行训练,会得到较快的收敛速度,而且可以避免局部最值的出现.  相似文献   

9.
姜雷  李新 《计算机时代》2010,(12):29-30
在标准BP神经网络的训练中,将误差函数作为权值调整的依据,使用固定学习率计算权值,这样的结果往往使网络的学习速度过慢甚至无法收敛。对此,从网络收敛的稳定性和速度的角度出发,分析了误差函数和权值修改函数,对算法中学习率的作用进行了具体的讨论,提出了一种根据误差变化对学习率进行动态调整的方法。该方法简单实用,能有效防止网络训练时出现发散,提高网络的收敛速度和稳定性。  相似文献   

10.
刘松江  王海燕 《计算机仿真》2006,23(5):74-76,97
该文针对SVSLMS算法步长函数在误差e(n)接近零处不具有缓慢变化的缺点和MLMS算法由于采用固定步长使得在稳态阶段权值更新到期望值速度过慢的不足进行了讨论。通过更新SVSLMS算法步长函数和在权值调整式中增加动量项,该文提出了一种改进算法—SVS-MLMS算法。该算法具有步长函数在误差e(n)接近零处能够缓慢变化的优点,使得在白适应稳态阶段的步长稳定在最优值,进而使权值收敛到最佳。仿真结果证明该算法在学习曲线收敛速度加快和稳态误差减小方面取得了较好的效果。该文还讨论了算法中三个参数a,b,r的取值对算法收敛性能的影响,确定了它们的最优值。  相似文献   

11.
针对PID控制中的参数整定的难点及基本BP算法收敛速度慢、易陷入局部极值的问题,提出利用PSO算法的全局寻优能力和较强的收敛性来改进BP网络的权值调整新方法,从而对PID控制的比例、积分、微分进行优化控制。该方法是在基本BP算法的误差反向传播的基础上,使粒子位置的更新对应BP网络的权值和阈值的调整,既充分利用了PSO算法的全局寻优性又较好地保持了BP算法本身的反向传播特点。仿真结果表明基于PSO算法的BP神经网络的PID优化控制具有较好的性能和自学习、自适应性。  相似文献   

12.
提出了一种新的基于遗传算法和误差反向传播的双权值神经网络学习算法,同时确定核心权值、方向权值以及幂参数、学习率等参数,通过适当地调节这些参数,可以实现尽可能多种不同超曲面的特性以及起到加快收敛的效果。并通过对实际的模式分类问题的仿真,将文中的方法与带动量项BP算法、CSFN等算法进行了比较,验证了其有效性。实验结果表明所提出的方法具有分类准确率高、收敛速度快的优点。  相似文献   

13.
局部式反传网络的改进BP算法及应用   总被引:1,自引:0,他引:1  
针对标准BP算法收敛速度慢的缺点,分析了其产生的主要原因,提出了一种改进BP算法。在传统BP算法基础上通过对其激励函数增加陡度因子并在误差反传权值修正时增加协调器,通过对网络灵敏度的分析将全反传式网络变成局部式反传网络,从而达到提高网络学习速率及精度的目的。改进的BP算法应用于导向钻井稳定平台系统的辨识,仿真结果表明该算法收敛速度快,精度高。  相似文献   

14.
一种通过反馈提高神经网络学习性能的新算法   总被引:8,自引:0,他引:8  
为了有效提高前向神经网络的学习性能,需要从一个新的角度考虑神经网络的学习训练.基于此,提出了一种基于结果反馈的新算法——FBBP算法.将神经网络输入调整与通常的权值调整的反向传播算法结合起来,通过调整权值和输入矢量值的双重作用来最小化神经网络的误差函数.并通过几个函数逼近和模式分类问题的实例仿真,将FBBP算法与加动量项BP算法、最新的一种加快收敛的权值更新的算法进行了比较,来验证所提出的算法的有效性.实验结果表明,所提出的算法具有训练速度快和泛化能力高的双重优点,是一种非常有效的学习方法.  相似文献   

15.
New dynamical optimal learning for linear multilayer FNN   总被引:1,自引:0,他引:1  
This letter presents a new dynamical optimal learning (DOL) algorithm for three-layer linear neural networks and investigates its generalization ability. The optimal learning rates can be fully determined during the training process. The mean squared error (mse) is guaranteed to be stably decreased and the learning is less sensitive to initial parameter settings. The simulation results illustrate that the proposed DOL algorithm gives better generalization performance and faster convergence as compared to standard error back propagation algorithm.  相似文献   

16.
针对一类温度控制系统中存在的非线性和参数不确定等问题,提出一种复合神经网络自适应控制结构.在控制系统中构造了神经网络正模型来再现被控对象的动态特性,用神经网络控制器实现优化控制律的非线性映射.文中选用了被控对象80组历史数据作为样本集,并利用遗传算法的全局搜索能力及高效率来训练多层前向神经网络的权系数.最后用升降温工艺曲线作为输入对温度控制系统进行仿真.仿真结果表明,应用遗传算法能够提高神经网络的学习效率.保证神经网络全局快速收敛,从而克服了传统的误差反传学习算法的一些缺点.证明了采用这种神经网络自适应控制结构.使神经网络控制器的输出可以适应对象参数和环境的变化.使温度控制系统具有很好的学习和自适应控制能力,取得了良好的控制效果.  相似文献   

17.
This paper presents a modified structure of a neural network with tunable activation function and provides a new learning algorithm for the neural network training. Simulation results of XOR problem, Feigenbaum function, and Henon map show that the new algorithm has better performance than BP (back propagation) algorithm in terms of shorter convergence time and higher convergence accuracy. Further modifications of the structure of the neural network with the faster learning algorithm demonstrate simpler structure with even faster convergence speed and better convergence accuracy.  相似文献   

18.
李萌  秦品乐  李传朋 《计算机应用》2016,36(9):2521-2525
针对深度信念网络(DBN)算法在采用反向传播修正网络的连接权值和偏置的过程中,容易产生梯度小、学习率低、误差收敛速度慢等问题,提出一种结合多新息理论对标准DBN算法进行改进的算法,即多新息DBN(MI-DBN)。MI-DBN算法是对标准DBN算法中反向传播的过程重新建模,使得算法在原先只利用单个新息的情况下,扩展为能够充分利用之前多个周期的新息,从而大幅提高误差收敛速度。通过实验对MI-DBN算法和其他分类算法进行了数据集分类的比较,实验结果表明,MI-DBN算法相较其他分类算法,其误差收敛速度较快,而且最终对MNIST数据集和Caltech101数据集的识别中误差结果相对更小。  相似文献   

19.
张小秋  田雨波  徐荣青 《计算机仿真》2008,25(2):183-185,193
BP算法现在已成为目前最广泛的神经网络学习算法之一,但存在收敛速度较慢和学习不稳定的问题.为了加快收敛,用熵作为误差函数来对BP算法进行改进,在训练过程中加入动量项,并且对样本作归一化处理.通过对函数逼近和异或问题实例的仿真,与通常改进的BP算法所得的结果进行比较,仿真结果表明熵作为误差函数的改进BP算法比通常改进的BP算法有更好的收敛性和稳定性.最后,通过改进的BP神经网络实现对矩形波导匹配负载的结构设计,结果表明网络能很好地达到工程的要求.  相似文献   

20.
基于实数编码遗传算法的混合神经网络算法   总被引:12,自引:0,他引:12  
该文比较了神经网络与遗传算法的特点,提出了一种融合遗传算法和BP算法的神经网络算法设计。该方法采用了基于实数编码的改进遗传算法来替代随机设定神经网络的初始权阈值,然后由改进的LMBP算法在已由遗传算法确定了的搜索空间中对网络进行精确训练。仿真结果表明神经网络的逼近能力和泛化能力得到了综合提高,能够有效抑制遗传算法初期收敛的发生,确保了快速达到全局收敛,克服了传统BP算法精度低、收敛速度慢、容易陷入局部极小的缺陷。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号