首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 140 毫秒
1.
马海平  陈子栋  潘张鑫 《控制与决策》2009,24(11):1620-1624

借鉴自然界中的物种迁移机制,提出一类基于物种迁移优化的进化算法.该算法是根据生态系统中物种分布的迁移模型而提出的一种优化算法.参考其他智能算法的思想,通过物种迁移实现信息交换和共享,从而完成进化过程.讨论了物种迁移优化算法的基本原理和实现过程,同时进行一些基准函数的性能测试.实验结果表明所提出的算法是有效的,具有一定的参考和应用价值.

  相似文献   

2.
进化算法是模拟自然界生物进化的启发式算法,具有良好的搜索能力和灵活性且广泛用于复杂优化问题的求解,但在求解过程中默认问题先验知识为零,然而由于问题很少孤立存在,解决单一任务积累的经验可迁移至其他相关任务。进化迁移优化算法利用相关领域的知识学习和迁移,实现了更好的优化效率和性能。介绍进化迁移优化算法的基本分类,从源任务选择、知识迁移、缩小搜索空间差异、进化算法搜索、进化资源分配等5个角度出发对主流进化迁移优化算法的核心策略和优劣势进行梳理和分析。通过中国知网和WOS平台对2014年至2021年的进化迁移优化相关文献进行检索,运用知识图谱进行数据挖掘、信息处理、知识计量和图形绘制,根据进化迁移优化的发展趋势和经验分析总结了其面临的主要挑战和未来研究方向。  相似文献   

3.
受生态系统中迁移机制的激发, 提出了一种基于群体迁移的优化算法. 该算法是根据生态学中群体分布的迁移模型而提出的一种新的优化算法. 借鉴其他智能算法思想, 用栖息地来表示优化问题的解集, 通过生物群体的迁入与迁出实现解集之间特征信息的共享, 从而完成进化过程. 该文讨论了基于群体迁移的优化算法基本原理和实现步骤, 同时进行一些基准函数的性能测试. 通过分析表明提出的新算法是有效的, 是一种具有潜在优越性的优 化算法.  相似文献   

4.
采用随机变异步长的改进自组织迁移算法   总被引:1,自引:1,他引:1  
自组织迁移算法是一种新型的进化算法。对自组织迁移算法的原理、实现及策略参数设置进行了详细分析,在此基础上提出了一种改进算法。通过在个体迁移过程中引入随机变异步长,寻优个体的行为变得多样化,加速了群体在多峰复杂空间中的寻优进程。仿真结果显示,该算法优于原自组织迁移算法和粒子群优化算法。  相似文献   

5.
一种基于混沌迁移的伪并行遗传算法及其应用   总被引:3,自引:2,他引:3       下载免费PDF全文
为了解决遗传算法寻优过程中的早熟收敛问题 ,本文提出了一种基于混沌迁移策略的伪并行遗传算法 ,该算法针对实时性要求不高的优化问题采用串行的算法结构实现分解型并行遗传算法的“独立进化、信息交换”思想 .在并行进化的个体异步迁移过程中 ,引入了混沌迁移序列引导个体迁移过程 ,利用其遍历性和随机性 ,保证了子种群之间能够进行充分高效的信息交换 .仿真研究和在库存优化方面的应用研究表明 ,这种算法具有很强的全局搜索能力 ,寻优效率高 ,有效克服了标准遗传算法的早熟收敛问题 .  相似文献   

6.
针对生物地理学优化(BBO)算法寻优过程中易陷入搜索动力不足、收敛精度不高等问题,提出一种基于改进迁移算子的生物地理学优化算法(IMO-BBO)。在BBO算法基础上,结合“优胜劣汰”的进化思想,将迁移距离作为影响因素对迁移算子进行改进,并用差分策略将不适宜迁移的个体进行替换,以增加算法的局部探索能力。同时为丰富物种的多样性,引入多种群概念。利用IMO-BBO算法分别对13个基准测试函数进行测试,与基于协方差迁移算子和混合差分策略的BBO (CMM-DE/BBO)算法和BBO算法相比,改进算法提高了对全局最优解的搜索能力,在收敛速度和精确度上也都有显著提高;将IMO-BBO算法应用到PID参数整定中,仿真结果表明,所提算法优化后的控制器具有更快的响应速度和更稳定的精度。  相似文献   

7.
生物地理信息优化算法中迁移算子的改进   总被引:1,自引:0,他引:1  
原生物地理信息优化算法主要通过迁移算子与变异算子实现群体的进化,常被应用于求解单目标优化问题.如果将原有的进化算子直接用于求解连续多目标优化问题,会严重影响群体的多样性.文中将原迁移算子进行改进,引入扰动因子,增强群体的多样性.并以此为基础,提出基于生物地理信息的多目标进化算法(BBMOEA).通过与原有迁移算子下的算法比较及各类型测试函数的实验,结果验证改进迁移算子对于求解多目标优化问题是有效可行的.同时将BBMOEA与经典算法SPEA2和NSGA-Ⅱ进行比较,结果表明BBMOEA所得Pareto解集在收敛的同时,具有较均匀的分布性.  相似文献   

8.
生物地理学优化算法(BBO)作为一种新型的智能算法,在其提出不到十年的时间内受到学界的广泛关注和研究,并显示出了广阔的应用前景。为了提高算法的优化性能,对BBO算法提出一种改进,该算法在将差分优化算法(DE)中的局部搜索策略同BBO算法中的迁移策略相结合的基础上,针对迁移算子和变异算子分别进行改进,提出了二重迁移算子和二重变异算子,使得栖息地个体在进化过程中得到更高的进化概率,从而使得算法的寻优能力得到进一步提升。通过6个高维函数的测试,结果表明该算法在优化高维优化问题时,较其他几种生物地理学优化算法具有更好的收敛性和稳定性。  相似文献   

9.
提出一种基于粒子群算法(PSO)和差分进化算法(DE)相结合的新型混合全局优化算法——PSODE.该算法基于一种双种群进化策略,一个种群中的个体由粒子群算法进化而来,另一种群的个体由差分操作进化而来.此外,通过采用一种信息分享机制,在算法执行过程中两个种群中的个体可以实现协同进化.为了进一步提高PSODE算法的性能,摆脱陷入局部最优点,还采用了一种变异机制.通过4个标准测试函数的测试并与PSO和DE算法进行比较,证明本文提出的PSODE算法是一种收敛速度快、求解精度高、鲁棒性较强的全局优化算法.  相似文献   

10.
马慧  冯翔  虞慧群 《计算机科学》2023,(10):203-213
进化多任务优化是计算智能领域一个新兴的研究方向,它致力于研究通过进化算法如何同时、有效地求解多个优化问题,从而提高单独求解每个任务的性能。基于此,提出了一种基于两层知识迁移的多代理多任务优化算法(AMS-MTO),其通过在代理间和代理内同时进行知识迁移来达到跨域优化的目的。具体来讲,代理内的知识迁移是通过差分进化实现决策变量信息的跨维迁移,从而避免算法陷入局部最优;代理间的学习采用了隐式知识迁移和显式知识迁移两种策略。隐式知识迁移利用种群的选择性交叉来产生后代,促进遗传信息的交流;显式知识迁移是对精英个体的迁移,可以弥补隐式迁移随机性很强的缺点。为了评估两层知识迁移的多代理多任务优化方法的有效性,在8个高达100维的基准问题上进行了实证研究,同时给出了收敛证明,并将其与现有的算法进行了对比。实验结果表明,在求解单目标优化的昂贵问题时,AMS-MTO算法效率更高,性能更好,收敛速度更快。  相似文献   

11.
提出了一个利用多个拉格朗日乘子协同优化的支持向量机快速学习方法(MLSVM),并给出了每个乘子的可行域范围的定义公式,由于在每个乘子的优化过程中使用了解析表达式,使得算法可以更加精确和快速地逼近最优解,可以证明SMO算法是该方法的一个特例.在此方法的理论指导下,根据不同的学习策略,程序实现了3种不同的具体算法(MLSVM1,MLSVM2,MLSVM3),其中前两个算法在数据集不大时(〈5000条记录)学习速度与SMO算法相当,但当数据集更大时,算法就失效了.MLSVM3是一个改进算法,总结了MLSVM1和MLSVM2失效的原因,对SMO算法中学习效率较低的部分进行了改进,在多个数据集上测试,MLSVM3算法速度超过了SMO算法7.4%~41.30%.  相似文献   

12.
Haiping Ma 《Information Sciences》2010,180(18):3444-3464
Motivated by the migration mechanisms of ecosystems, various extensions to biogeography-based optimization (BBO) are proposed here. As a global optimization method, BBO is an original algorithm based on the mathematical model of organism distribution in biological systems. BBO is an evolutionary process that achieves information sharing by biogeography-based migration operators. In BBO, habitats represent candidate problem solutions, and species migration represents the sharing of features between candidate solutions according to the fitness of the habitats. This paper generalizes equilibrium species count results in biogeography theory, explores the behavior of six different migration models in BBO, and investigates performance through 23 benchmark functions with a wide range of dimensions and diverse complexities. The performance study shows that sinusoidal migration curves provide the best performance among the six different models that we explored. In addition, comparison with other biology-based optimization algorithms is investigated, and the influence of the population size, problem dimension, mutation rate, and maximum migration rate of BBO are also studied.  相似文献   

13.
This paper proposes a novel and robust predictive method using modified spider monkey optimization (MSMO) and probabilistic neural network (PNN) for face recognition. The limitation of the traditional spider monkey optimization (SMO) approach to obtaining an optimal solution for classification problems is overcome by enhancing the performance of SMO by modifying the perturbation rate with a non-linear function, thereby improving the convergence of SMO. The framework comprises image preprocessing, feature extraction using dual tree complex wavelet transform (DT-CWT), feature selection using the modified spider monkey optimization algorithm (MSMO), and classification using PNN. The proposed method is tested on the Yale and AR Face datasets. Experimental outcomes reveal that the proposed framework attain an accuracy of 99.4% with appreciable sensitivity, specificity, and G-mean. To examine the efficacy of MSMO, parametric studies are conducted, which showed that MSMO converges faster with high fitness when compared to similar evolutionary algorithms like Genetic Algorithm (GA), Grey Wolf Optimization Algorithm (GWO), Particle Swarm Algorithm (PSO), and Cuckoo Search (CS) in selecting the optimal feature set. The MSMO-PNN method outperforms similar state-of-the-art methods, which reveals that the method proposed is competitive. The proposed model is robust to Gaussian and salt–pepper noise, obtaining the highest accuracy of 97.89% for varied noise density and variance.  相似文献   

14.
Global convergence of the sequential minimal optimization (SMO) algorithm for support vector regression (SVR) is studied in this paper. Given l training samples, SVR is formulated as a convex quadratic programming (QP) problem with l pairs of variables. We prove that if two pairs of variables violating the optimality condition are chosen for update in each step and subproblems are solved in a certain way, then the SMO algorithm always stops within a finite number of iterations after finding an optimal solution. Also, efficient implementation techniques for the SMO algorithm are presented and compared experimentally with other SMO algorithms.  相似文献   

15.
Spider monkey optimization (SMO) algorithm, which simulates the food searching behavior of a swarm of spider monkeys, is a new addition to the class of swarm intelligent techniques for solving unconstrained optimization problems. The purpose of this article is to study the performance of SMO after incorporating quadratic approximation (QA) operator in it. The proposed version is named as QA‐based spider monkey optimization (QASMO). An experimental study has been carried out to check the validity and applicability of QASMO. For validation purpose, the performance of QASMO is tested over a benchmark set of 46 scalable and nonscalable problems, and results are compared with the original SMO algorithm. In order to test the applicability of the proposed algorithm in solving real‐life optimization problems, one of the most challenging optimization problems, namely, Lennard–Jones (LJ) problem is considered. LJ clusters containing atoms from three to ten have been taken into consideration, and results are presented. To the best of our knowledge, this is the first attempt to apply SMO and its proposed variant on a real‐life problem. The results demonstrate that incorporation of QA in SMO has positive effects on its performance in terms of reliability, efficiency, and accuracy.  相似文献   

16.
回归支持向量机的改进序列最小优化学习算法   总被引:20,自引:1,他引:20  
张浩然  韩正之 《软件学报》2003,14(12):2006-2013
支持向量机(support vector machine,简称SVM)是一种基于结构风险最小化原理的学习技术,也是一种新的具有很好泛化性能的回归方法,提出了实现回归支持向量机的一种改进的SMO(sequential minimal optimization)算法,给出了两变量子优化问题的解析解,设计了新的工作集选择方法和停止条件,仿真实例说明,所提出的SMO算法比原始SMO算法具有更快的运算速度.  相似文献   

17.
基于样本取样的SMO算法   总被引:2,自引:0,他引:2  
介绍了一种对样本集取样的方法 ,并在此基础上对序贯最小优化 (sequentialminimaloptimization ,SMO)算法进行了改进 ,提出了取样序贯最小优化 (S-SMO)算法 .S-SMO算法去掉了大部分非支持向量 ,将支持向量逐渐收集到工作集中 .实验结果表明 ,该方法提高了SMO算法的性能 ,缩短了支持向量机分类器的训练时间 .  相似文献   

18.
曹丽娟  王小明 《计算机工程》2007,33(18):184-186
序列最小优化(SMO)是训练支持向量机(SVM)的常见算法,在求解大规模问题时,需要耗费大量的计算时间。该文提出了SMO的一种并行实现方法,验证了该算法的有效性。实验结果表明,当采用多处理器时,并行SMO具有较大的加速比。  相似文献   

19.
Improvements to the SMO algorithm for SVM regression   总被引:27,自引:0,他引:27  
This paper points out an important source of inefficiency in Smola and Scholkopf's (1998) sequential minimal optimization (SMO) algorithm for support vector machine regression that is caused by the use of a single threshold value. Using clues from the Karush-Kuhn-Tucker conditions for the dual problem, two threshold parameters are employed to derive modifications of SMO for regression. These modified algorithms perform significantly faster than the original SMO on the datasets tried.  相似文献   

20.
蜘蛛猴算法(Spider Monkey Optimization,SMO)是受蜘蛛猴觅食行为启发提出的一种群集智能优化算法,为增强蜘蛛猴算法的局部搜索性能,提出一种基于动态自适应惯性权重的SMO算法(DWSMO)。通过在惯性权重中引入目标函数值,使得惯性权重随着目标函数值的变化而动态改变,从而减少惯性权重变化的盲目性,有效平衡算法的全局探索能力以及局部开发能力。将改进的蜘蛛猴算法在函数优化问题上进行测试,仿真实验结果表明,改进的蜘蛛猴算法可有效提高函数寻优精度,加快收敛速度,且具有较强的稳定性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号