共查询到20条相似文献,搜索用时 31 毫秒
1.
Neighborhood based modified backpropagation algorithm using adaptive learning parameters for training feedforward neural networks 总被引:1,自引:0,他引:1
The major drawbacks of backpropagation algorithm are local minima and slow convergence. This paper presents an efficient technique ANMBP for training single hidden layer neural network to improve convergence speed and to escape from local minima. The algorithm is based on modified backpropagation algorithm in neighborhood based neural network by replacing fixed learning parameters with adaptive learning parameters. The developed learning algorithm is applied to several problems. In all the problems, the proposed algorithm outperform well. 相似文献
2.
针对基本粒子群优化算法(PSO)容易陷入局部最优点和收敛速度较慢的缺点,提出在PSO更新过程中加入两类基于正态分布投点的变异操作。一类变异用来增强局部搜索能力,另一类变异用来提高发现全局最优点的能力,避免所有粒子陷入到一个局部最优点的邻域内。数值结果表明,所提出算法的全局搜索能力有显著提高,并且收敛速度更快。 相似文献
3.
智能油漆配色系统的改进BP算法 总被引:2,自引:2,他引:2
BP算法具有数学意义明确、学习规则简单等优点,是前向多次神经网络的典型学习算法。但是,BP算法在学习过程中容易陷入局部最小问题。针对这一问题,提出一种修正Sigmoid函数的改进BP算法。实验证明,改进BP算法可以有效克服局部最小,显著提高收敛速度。 相似文献
4.
The conventional back-propagation algorithm is basically a gradient-descent method, it has the problems of local minima and slow convergence. A new generalized back-propagation algorithm which can effectively speed up the convergence rate and reduce the chance of being trapped in local minima is introduced. The new back-propagation algorithm is to change the derivative of the activation function so as to magnify the backward propagated error signal, thus the convergence rate can be accelerated and the local minimum can be escaped. In this letter, we also investigate the convergence of the generalized back-propagation algorithm with constant learning rate. The weight sequences in generalized back-propagation algorithm can be approximated by a certain ordinary differential equation (ODE). When the learning rate tends to zero, the interpolated weight sequences of generalized back-propagation converge weakly to the solution of associated ODE. 相似文献
5.
BP神经网络在混合气体浓度预测中得到广泛应用。针对BP神经网络收敛速度慢的特点,提出了一种新的基于小波变换的并列隐层双并联神经网络结构,这种网络首先对输入数据进行二维离散小波变换,然后用双并联神经网络对变换后两组数据进行训练,确定神经网络的权值和阈值。实验结果证明,相对传统的BP及双并联神经网络,基于小波变换的双并联神经网络的收敛速度加快2~3倍;对混合气体浓度的预测精度也有明显提高。 相似文献
6.
一种基于模拟退火的自适应算法 总被引:2,自引:0,他引:2
针对常规BP算法收敛速度慢和易陷入局部极小的问题,文章提出了一种新的BP算法———SASSFBP算法。该算法根据训练中最近两个梯度的符号及其相对大小来动态地改变权步因子,提高了神经网络的收敛速度,并同时结合模拟退火算法来避免陷入局部极小。仿真实验结果表明:SASSFBP算法在收敛速度与运算精度,以及避免陷入局部极小的能力等方面均明显优于常规的BP算法。 相似文献
7.
8.
9.
由于传统蚁群算法基于正反馈机制的单一搜索方式,导致其存在收敛速度慢、易陷入局部极值的缺点.针对该问题提出一种基于混合反馈机制的扩展蚁群算法(MF-ACO),该算法在传统蚁群算法的基础上定义一种具有较强全局搜索能力的扩展型蚂蚁,帮助算法跳出局部极值;参考蚁群劳动分工行为,设计基于刺激-响应分工模型的负反馈平衡机制,动态平衡算法的收敛能力和全局搜索能力;最后依据分工模型对蚂蚁个体的信息素更新策略进行改进,进一步加快算法收敛速度.以多个TSP实例作为测试对象进行仿真实验,实验结果验证了所提算法的优越性,并将该算法用于机器人路径规划问题,在实际应用中进一步验证了所提算法的有效性. 相似文献
10.
11.
12.
13.
针对基本灰狼优化算法在求解复杂问题时同样存在依赖初始种群、过早收敛、易陷入局部最优等缺点,提出一种改进的灰狼优化算法应用于求解函数优化问题中。该算法首先利用混沌Cat映射产生灰狼种群的初始位置,为算法全局搜索过程的种群多样性奠定基础;同时引入粒子群算法中的个体记忆功能以便增强算法的局部搜索能力和加快其收敛速度;最后采用高斯变异扰动和优胜劣汰选择规则对当前最优解进行变异操作以避免算法陷入局部最优。对13个基准测试函数进行仿真实验,结果表明,与基本GWO算法、PSO算法、GA算法以及ACO算法相比,该算法具有更好的求解精度和更快的收敛速度。 相似文献
14.
15.
16.
This paper proposes an escape methodology to the local minima problem of self organizing feature maps generated in the overlapping regions which are equidistant to the corresponding winners. Two new versions of the Self Organizing Feature Map are derived equipped with such a methodology. The first approach introduces an excitation term, which increases the convergence speed and efficiency of the algorithm, while increasing the probability of escaping from local minima. In the second approach, we associate a learning set which specifies the attractive and repulsive field of output neurons. Results indicate that accuracy percentile of the new methods are higher than the original algorithm while they have the ability to escape from local minima. 相似文献
17.
18.
19.
遗传算法GA结合BFGS预测玻璃组成 总被引:1,自引:3,他引:1
复杂组成玻璃的定量设计过程往往涉及复杂的多目标优化问题,依照传统方法逐个实现目标性质设计,常常顾此失彼,玻璃开发周期很长,为此将多个性质加权平均后转化为一个综合指数,通过对综合指数的模拟来实现多个目标的优化,而这一过程常常需要强劲的优化算法,对于这种变量多、函数关系复杂的优化问题,传统的基于梯度的算法常常过早收敛于局部最优,适合全局搜索的遗传算法的局部精细搜索能力不强,因此将遗传算法与BFGS算法结合用于玻璃陶瓷复合材料组分设计,弥补了二者的缺点,实现了玻璃组成快速推确的程序设计,作为一种通用算法,GA-BFGS算法亦可用于其它最优化过程。 相似文献