首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 109 毫秒
1.
人脸识别技术在国家安全、金融、执法、司法等领域都有广泛应用,其中比对分类算法是人脸识别系统的重要算法.目前所用BP神经网络的分类方法收敛速度慢、易陷人局部最优,而填充函数法是确定型全局优化方法,能够快速跳出当前局部极小点,得到一个更低的极小点,重复此过程得到全局极小点.用填充函数法改进的BP神经网络实现分类器的方法可以提高算法的收敛速度,降低误判率,增强其全局寻优的能力.实验表明该人脸比对算法能够提高比对准确率,减少计算量,提高比对速度.  相似文献   

2.
将L-M算法与填充函数法相结合,提出一种训练前向网络的混合型全局优化GOBP(Global Optimization BP)算法。L-M算法的收敛速度快,利用它先得到一个局部极小点,然后利用填充函数算法跳出局部最小,得到一个更低的局部极小点,重复计算即可得到全局最优点。经实验验证,该算法收敛速度很快,避免了局部收敛,而且性能稳定。  相似文献   

3.
针对BP算法收敛速度慢、存在易于陷入局部极小值等缺点,因此不能有效地搜索到全局极小点。利用联合优化方法改进标准BP算法。即通过黄金分割法动态调整学习系数;对S函数引入状态系数并进行分段;误差函数采用绝对和相对逼近精度相结合的方法。实验表明在一定程度上避免了学习中的局部极小问题,提高了学习效率,改进了网络的性能。  相似文献   

4.
针对BP算法收敛速度慢、存在易于陷入局部极小值等缺点,因此不能有效地搜索到全局极小点。利用联合优化方法改进标准BP算法,即通过黄金分割法动态调整学习系数;对S函数引入状态系数并进行分段;误差函数采用绝对和相对逼近精度相结合的方法。实验表明在一定程度上避免了学习中的局部极小问题,提高了学习效率,改进了网络的性能。  相似文献   

5.
基于填充函数法训练BP神经网络的车牌字符识别算法   总被引:4,自引:0,他引:4  
字符识别是车牌识别系统的一个关键问题。常用方法收敛速度慢,易陷入局部最优,用全局优化填充函数法训练BP神经网络的车牌字符识别算法可以跳出当前局部极小点,得到一个更低的极小点,重复此过程得到全局极小点,从而提高算法全局寻优能力。实验表明,该算法具有识别率高、识别速度快、车牌定位准确的特点,取得良好的运行效果。  相似文献   

6.
一种快速收敛的改进BP算法的研究   总被引:4,自引:2,他引:2  
在分析普通BP算法的基础上提出了一种改进的BP算法(MBP),用以克服普通BP算法收敛速度慢、易陷入局部最小点的缺点.算法的核心是改变Sigmoid函数的微分表达式,加入幂因子S和R,用以提高网络输出误差项在整个目标函数中的相对影响.收敛性分析表明,MBP算法保持了普通BP算法的梯度下降特性,但具有更快收敛速度和更好的收敛精度,并且可跳出局部最小点.通过对一个非线性系统的模型辨识仿真实验,直观上证明了该算法的有效性和可行性.  相似文献   

7.
通过将动力学演化算法(Dynamical Evolutionary Algorithm,DEA)与一种随机优化方法——Alopex算法相结合,提出一种改进的动力学演化算法。改进的算法改善了动力学演化算法摆脱局部极小点的能力,对典型函数的测试表明:改进算法的全局搜索能力有了显著提高,特别是对多峰函数能够有效地避免早熟收敛问题。  相似文献   

8.
BP神经网络由于可以根据误差的反向传播来纠正权值和阈值,但它有可能陷入局部极小,不能确保收敛到全局极小点.反向传播训练次数多,收敛速度慢,使学习结果有时不能令人满意.如果用均方误差指标作为适应值的粒子群算法对BP网络的权值进行训练,会得到较快的收敛速度,而且可以避免局部最值的出现.  相似文献   

9.
基于混沌序列的粒子群优化算法   总被引:29,自引:0,他引:29  
提出一种改进粒子群局部搜索能力的优化算法,对于陷入局部极小点的情性粒子,引入混沌序列重新初始化,在迭代中产生局部最优解的邻域点,帮助情性粒子逃商束缚并快速搜寻到最优解.对经典函数的测试计算表明。改进的混合算法通过微粒自适应更新机制确保了全局搜索性能和局部搜索性能的动态平衡,而且保持了PSO计算简洁的特点,在收敛速度和精度上均优于普通的PSO算法.  相似文献   

10.
基于蚁群神经网络的凝汽设备故障诊断   总被引:4,自引:2,他引:2  
BP算法在神经网络中应用较为广泛,但有收敛速度慢、易于陷入局部极小点的缺点.而蚁群算法是一种新型的模拟进化算法,有正反馈、分布式计算、全局收敛、启发式学习等特点.用蚁群算法优化神经网络,能使其权值快速准确的收敛于全局最优点.经比较,其优化性能要优于BP算法和遗传算法.凝汽设备是电厂汽轮机的重要辅助设备,把经蚁群算法优化的神经网络应用于凝汽设备故障诊断,仿真实例表明该方法对凝汽设备故障诊断效果良好.  相似文献   

11.
智能油漆配色系统的改进BP算法   总被引:2,自引:2,他引:2  
BP算法具有数学意义明确、学习规则简单等优点,是前向多次神经网络的典型学习算法。但是,BP算法在学习过程中容易陷入局部最小问题。针对这一问题,提出一种修正Sigmoid函数的改进BP算法。实验证明,改进BP算法可以有效克服局部最小,显著提高收敛速度。  相似文献   

12.
This paper proposes an escape methodology to the local minima problem of self organizing feature maps generated in the overlapping regions which are equidistant to the corresponding winners. Two new versions of the Self Organizing Feature Map are derived equipped with such a methodology. The first approach introduces an excitation term, which increases the convergence speed and efficiency of the algorithm, while increasing the probability of escaping from local minima. In the second approach, we associate a learning set which specifies the attractive and repulsive field of output neurons. Results indicate that accuracy percentile of the new methods are higher than the original algorithm while they have the ability to escape from local minima.  相似文献   

13.
Stochastic optimization algorithms like genetic algorithms (GAs) and particle swarm optimization (PSO) algorithms perform global optimization but waste computational effort by doing a random search. On the other hand deterministic algorithms like gradient descent converge rapidly but may get stuck in local minima of multimodal functions. Thus, an approach that combines the strengths of stochastic and deterministic optimization schemes but avoids their weaknesses is of interest. This paper presents a new hybrid optimization algorithm that combines the PSO algorithm and gradient-based local search algorithms to achieve faster convergence and better accuracy of final solution without getting trapped in local minima. In the new gradient-based PSO algorithm, referred to as the GPSO algorithm, the PSO algorithm is used for global exploration and a gradient based scheme is used for accurate local exploration. The global minimum is located by a process of finding progressively better local minima. The GPSO algorithm avoids the use of inertial weights and constriction coefficients which can cause the PSO algorithm to converge to a local minimum if improperly chosen. The De Jong test suite of benchmark optimization problems was used to test the new algorithm and facilitate comparison with the classical PSO algorithm. The GPSO algorithm is compared to four different refinements of the PSO algorithm from the literature and shown to converge faster to a significantly more accurate final solution for a variety of benchmark test functions.  相似文献   

14.
A problem with gradient descent algorithms is that they can converge to poorly performing local minima. Global optimization algorithms address this problem, but at the cost of greatly increased training times. This work examines combining gradient descent with the global optimization technique of simulated annealing (SA). Simulated annealing in the form of noise and weight decay is added to resiliant backpropagation (RPROP), a powerful gradient descent algorithm for training feedforward neural networks. The resulting algorithm, SARPROP, is shown through various simulations not only to be able to escape local minima, but is also able to maintain, and often improve the training times of the RPROP algorithm. In addition, SARPROP may be used with a restart training phase which allows a more thorough search of the error surface and provides an automatic annealing schedule.  相似文献   

15.
改进的粒子群算法及收敛性分析   总被引:3,自引:2,他引:1       下载免费PDF全文
针对PSO算法对多峰值函数搜索易陷入局部极值点的缺点,提出一种改进的粒子群(MPSO)算法。MPSO算法采用逃逸策略和免疫学习策略来保证种群多样性,使算法能有效进行全局搜索。并讨论MPSO算法的收敛性,证明其能以概率1全局收敛。最后用3个常用的测试函数进行仿真,实验结果表明MPSO算法比PSO算法有更好的收敛性和更快的收敛速度。  相似文献   

16.
T.  S. 《Neurocomputing》2009,72(16-18):3915
The major drawbacks of backpropagation algorithm are local minima and slow convergence. This paper presents an efficient technique ANMBP for training single hidden layer neural network to improve convergence speed and to escape from local minima. The algorithm is based on modified backpropagation algorithm in neighborhood based neural network by replacing fixed learning parameters with adaptive learning parameters. The developed learning algorithm is applied to several problems. In all the problems, the proposed algorithm outperform well.  相似文献   

17.
遗传算法GA结合BFGS预测玻璃组成   总被引:1,自引:3,他引:1  
复杂组成玻璃的定量设计过程往往涉及复杂的多目标优化问题,依照传统方法逐个实现目标性质设计,常常顾此失彼,玻璃开发周期很长,为此将多个性质加权平均后转化为一个综合指数,通过对综合指数的模拟来实现多个目标的优化,而这一过程常常需要强劲的优化算法,对于这种变量多、函数关系复杂的优化问题,传统的基于梯度的算法常常过早收敛于局部最优,适合全局搜索的遗传算法的局部精细搜索能力不强,因此将遗传算法与BFGS算法结合用于玻璃陶瓷复合材料组分设计,弥补了二者的缺点,实现了玻璃组成快速推确的程序设计,作为一种通用算法,GA-BFGS算法亦可用于其它最优化过程。  相似文献   

18.
一种新的全局优化演化算法   总被引:3,自引:0,他引:3  
演化算法在求解大型复杂多极值问题的过程中经常容易陷入局部最优,该文提出了一种变换目标函数法来消除早熟收敛。当演化算法检测出局部最优点时,使用填充函数构造变换目标函数,将局部极小点及其邻域提升,保留整体最小值点。从而新方法具有消除局部最优点而保留整体最优点的功能。通过对复杂的无约束优化问题和有约束优化问题的实验,结果显示了新方法具有搜索全局最优解的良好性能。  相似文献   

19.
为了进一步提高量子粒子群算法的精度,从描述粒子状态波函数的[δ]势阱特征长度[L(t)]出发,重新修改其评价方式。通过给群体中的每个粒子引入随机权重,生成随机权重平均最优位置来重新评价[L(t)],以增强算法的随机性,帮助算法逃离局部极小值点的束缚,使算法尽快找到全局极值点。通过几个典型函数测试表明,改进算法的收敛精度优于QPSO算法,并且具有很强的避免陷入局部极值点的能力。  相似文献   

20.
文章利用一维搜索与局部极小点的消去技术设计了一个新的进化算法。此算法在迭代过程中,可不断消除那些比目前已找到的最好点差的局部极小点,从而使局部极小点的数目随着迭代的进行大量地减少,使算法更易找出全局极小点。另外,将一维搜索巧妙地用于算法之中,加快了收敛速度。并且证明了算法的全局收敛性,最后的数值实验也表明新算法十分有效。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号