首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
王丽萍  陈宏  杜洁洁  邱启仓  邱飞岳 《软件学报》2020,31(12):3716-3732
多偏好向量引导的协同进化算法(PICEA-g)是将目标向量作为偏好,个体支配目标向量的个数作为适应值,以有效降低高维目标空间中非支配解的比例.但PICEA-g所获解集是近似Pareto前沿,而不是决策者真正感兴趣部分的Pareto最优解,导致算法在处理高维优化问题时性能下降和计算资源的浪费.鉴于此,提出一种基于偏好向量引导的高维目标协同进化算法(ASF-PICEA-g):首先,利用ASF扩展函数将进化种群中的参考点映射至目标空间,并将其作为偏好向量引导种群进化的参考方向;然后,利用偏好区域选择策略获取两个临时参考点,进而构建决策者感兴趣区域(ROI),确定随机偏好集产生的上下界范围,通过协同进化机制引导种群朝偏好区域收敛.将ASF-PICEA-g与g-NSGA-II和r-NSGA-II在3-20维的WFG系列和DTLZ系列测试函数上进行仿真实验,实验结果表明:ASF-PICEA-g在WFG系列测试函数上表现出了良好的性能,所得解集整体上优于对比算法;在DTLZ系列测试函数上略优于对比算法,尤其在10维以上目标空间,ASF-PICEA-g表现出更好的稳定性,所获解集有较好的收敛性和分布性.  相似文献   

2.
利用参考点及角度值引入决策者的偏好信息,采用角度偏好区域设定方法将目标空间划分为偏好区域和非偏好区域,提出一种能区分偏好区域和非偏好区域中非支配解的支配策略——角度偏好的ε-Pareto支配策略.为验证所提出的支配策略的有效性,将其融入基于ε支配的多目标进化算法(ε-MOEA)中,形成AP-ε-MOEA.通过与融入G支配的G-NSGA-II和融入R支配的R-NSGA-II的性能对比实验表明,AP-ε-MOEA在以较快速度收敛到Pareto最优边界的同时,能较好满足决策者偏好.  相似文献   

3.
传统多目标优化算法得到的解集是整个Pareto最优面,需要花费大量精力在Pareto最优解的搜索上,同时当问题目标个数较多时,决策者很难从大量的解中选出自己最满意的解。因此,针对上述问题,提出一种基于邻居关系的偏好多目标进化算法。该算法通过一个邻居支配关系对非支配个体集进行适应度分层,借助参考点引导个体种群向决策者感兴趣的区域靠近。通过与几种经典的偏好多目标进化算法进行比较实验,结果表明,所提出的算法能引导种群趋近于决策者最满意的区域。  相似文献   

4.
求解偏好多目标优化的克隆选择算法   总被引:8,自引:0,他引:8  
目标维数较高的多目标优化问题的难题在于非支配解急剧增加,经典算法由于缺乏足够的选择压力导致性能急剧下降.提出了基于偏好等级的免疫记忆克隆选择优化算法,用于解决目标维数较高的多目标优化问题.利用决策者提供的偏好信息来为抗体分配偏好等级,根据该值比例克隆抗体,增大抗体的选择压力,加快收敛速率.根据偏好信息来缩减Pareto前沿,并用有限的偏好解估计该前沿.同时,建立了免疫记忆种群来保留较好的非支配抗体,采用ε支配机制来保持记忆抗体种群的多样性.实验结果表明,对于2目标的偏好多目标问题以及高达8目标的DTLZ2和DTLZ3问题,该算法取得了一定的实验效果.  相似文献   

5.
传统的多目标进化算法研究的重点是获得分布在整个Pareto边界上的最优解集,而在现实问题中,决策者只对边界上某些区域分布的解感兴趣.纳入决策者偏好信息的多目标进化算法的研究很有实际意义.因此节约计算资源、快速有效地找到偏好区域的Pareto解集成为其研究的重点.针对该问题,本文提出基于偏好信息的动态引导式多目标寻优策略.该策略通过设置参数ε反映搜索过程中引导区域的动态性,参数控制DM偏好范围.将解与引导区域的距离作为响应选择策略的一个因素,从而有效地获得期望区域内的折衷解.实验结果表明,该算法具有较好的收敛性.  相似文献   

6.
区间多目标优化问题在实际应用中普遍存在且非常重要.为得到贴合决策者偏好的最满意解,采用边优化边决策的方法,提出一种交互进化算法.该算法通过请求决策者从部分非被支配解中选择一个最差解,提取决策者的偏好方向,基于该偏好方向设计反映候选解逼近性能的测度,将具有相同序值和决策者偏好的候选解排序.将所提方法应用于4个区间2目标优化问题,并与利用偏好多面体解决区间多目标优化问题的进化算法(PPIMOEA)和后验法比较,实验结果验证了所提出方法的有效性和高效性.  相似文献   

7.
基于偏好信息的多目标微粒群优化算法研究   总被引:7,自引:0,他引:7  
在实际决策过程中,决策者可能并不需要完全获悉所有的决策方案,而是只对一些特定方案产生兴趣,对此,提出指定目标间重要关系和给定目标空间参考点情况下的多目标微粒群优化算法.以格栅作为解的多样性保持策略,对于给定目标间重要关系的偏好信息,可以获得特定区域的多个解;对于给定参考点的偏好信患,可以同时获得多个特定区域中的多个解,有利于决策者进行更有效的决策.通过对典型测试问题的仿真实验,验证了本算法的正确性和有效性.  相似文献   

8.
基于决策者偏好区域的多目标粒子群算法研究*   总被引:5,自引:3,他引:2  
多目标优化问题中,决策者往往只对目标空间的某一区域感兴趣,因此需要在这一特定的区域能够得到比较稠密的Pareto解,但传统的方法却找出全部的Pareto前沿,决策效率不高。针对该问题,给出了基于决策者偏好区域的多目标粒子群优化算法。它只求出与决策者偏好区域相关的部分Pareto最优集,从而减少了进化代数,加快收敛速度,有利于决策者进行更有效的决策。算法把解与偏好区域的距离作为影响引导者选择和剪枝策略的一个因素,运用格栅方法实现解在Pareto边界分布的均匀性。仿真结果表明该算法是有效的。  相似文献   

9.
基于双极偏好占优的高维目标进化算法   总被引:1,自引:0,他引:1  
高维目标优化是目前多目标优化领域的研究热点和难点.提出一种占优机制,即双极偏好占优用于处理高维目标优化问题.该占优机制同时考虑决策者的正偏好和负偏好信息,在非支配解之间建立了更加严格的占优关系,能够有效减少种群中非支配解的比例,引导算法向靠近正偏好同时远离负偏好的Pareto最优区域收敛.为检验该方法的有效性,将双极偏好占优融入NSGA-Ⅱ中,形成算法2p-NSGA-Ⅱ,并在2到15目标标准测试函数上进行测试,得到了良好的实验结果.同时,将所提出的占优机制与目前该领域的两种占优机制g占优和r占优进行性能对比,实验结果表明,2p-NSGA-Ⅱ算法无论是在求解精度还是运行效率上,整体上均优于g-NSGA-Ⅱ和r-NSGA-Ⅱ.  相似文献   

10.
传统多目标优化算法得到的解集是整个Pareto最优面,需要在Pareto最优解的搜索上花费大量的精力,为充分利用有限的计算资源提高多目标优化的实用性和计算效率,提出一种带决策者偏好信息的多目标优化算法。该算法首先确定一个参考点用于生成偏好向量,然后设置一个偏好半径,形成搜索偏好区域,最后利用偏好区域特性提出新型支配关系,引导种群在偏好区域内集中搜索,完成多目标优化,并将结果应用于精馏过程的优化。通过与g-dominance偏好方法的比较实验,结果表明,所提出的算法能引导种群趋近于决策者最感兴趣的区域,相对于g-dominance方法有较好的优越性。  相似文献   

11.
Preference information (such as the reference point) of the decision maker (DM) is often used in multiobjective optimization; however, the location of the specified reference point has a detrimental effect on the performance of multiobjective evolutionary algorithms (MOEAs). Inspired by multiobjective evolutionary algorithm-based decomposition (MOEA/D), this paper proposes an MOEA to decompose the preference information of the reference point specified by the DM into a number of scalar optimization subproblems and deals with them simultaneously (called MOEA/D-PRE). This paper presents an approach of iterative weight to map the desired region of the DM, which makes the algorithm easily obtain the desired region. Experimental results have demonstrated that the proposed algorithm outperforms two popular preference-based approaches, g-dominance and r-dominance, on continuous multiobjective optimization problems (MOPs), especially on many-objective optimization problems. Moreover, this study develops distinct models to satisfy different needs of the DM, thus providing a new way to deal with preference-based multiobjective optimization. Additionally, in terms of the shortcoming of MOEA/D-PRE, an improved MOEA/D-PRE that dynamically adjusts the size of the preferred region is proposed and has better performance on some problems.  相似文献   

12.
Evolutionary multi-objective optimization (EMO) methodologies have been widely applied to find a well-distributed trade-off solutions approximating to the Pareto-optimal front in the past decades. However, integrating the user-preference into the optimization to find the region of interest (ROI) [1] or preferred Pareto-optimal solutions could be more efficient and effective for the decision maker (DM) straightforwardly. In this paper, we propose several methods by combining preference-based strategy (like the reference points) with the decomposition-based multi-objective evolutionary algorithm (MOEA/D) [2], and demonstrate how preferred sets or ROIs near the different reference points specified by the DM can be found simultaneously and interactively. The study is based on the experiments conducted on a set of test problems with objectives ranging from two to fifteen objectives. Experiments have proved that the proposed approaches are more efficient and effective especially on many-objective problems to provide a set of solutions to the DM's preference, so that a better and a more reliable decision can be made.  相似文献   

13.
Many-objective optimization has attracted much attention in evolutionary multi-objective optimization (EMO). This is because EMO algorithms developed so far often degrade their search ability for optimization problems with four or more objectives, which are frequently referred to as many-objective problems. One of promising approaches to handle many objectives is to incorporate the preference of a decision maker (DM) into EMO algorithms. With the preference, EMO algorithms can focus the search on regions preferred by the DM, resulting in solutions close to the Pareto front around the preferred regions. Although a number of preference-based EMO algorithms have been proposed, it is not trivial for the DM to reflect his/her actual preference in the search. We previously proposed to represent the preference of the DM using Gaussian functions on a hyperplane. The DM specifies the center and spread vectors of the Gaussian functions so as to represent his/her preference. The preference handling is integrated into the framework of NSGA-II. This paper extends our previous work so that obtained solutions follow the distribution of Gaussian functions specified. The performance of our proposed method is demonstrated mainly for benchmark problems and real-world applications with a few objectives in this paper. We also show the applicability of our method to many-objective problems.  相似文献   

14.
韩敏  何泳  郑丹晨 《控制与决策》2017,32(4):607-612
高维多目标优化问题一般指目标个数为4个 或以上时的多目标优化问题.由于种群中非支配解数量随着目标数量的增加而急剧增多,导致进化算法的进化压力严重降低,求解效率低.针对该问题,提出一种基于粒子群的高维多目标问题求解方法,在目标空间中引入一系列的参考点,根据参考点筛选出能兼顾多样性和收敛性的非支配解作为粒子的全局最优,以增大选择压力.同时,提出了基于参考点的外部档案维护策略,以保持最后所得解集的多样性.在标准测试函数DTLZ2上的仿真结果表明,所提方法在求解高维多目标问题时能够得到收敛性和分布性都较好的解集.  相似文献   

15.
肖婧  毕晓君  王科俊 《软件学报》2015,26(7):1574-1583
目标数超过4的高维多目标优化是目前进化多目标优化领域求解难度最大的问题之一,现有的多目标进化算法求解该类问题时,存在收敛性和解集分布性上的缺陷,难以满足实际工程优化需求.提出一种基于全局排序的高维多目标进化算法GR-MODE,首先,采用一种新的全局排序策略增强选择压力,无需用户偏好及目标主次信息,且避免宽松Pareto支配在排序结果合理性与可信性上的损失;其次,采用Harmonic平均拥挤距离对个体进行全局密度估计,提高现有局部密度估计方法的精确性;最后,针对高维多目标复杂空间搜索需求,设计新的精英选择策略及适应度值评价函数.将该算法与国内外现有的5种高性能多目标进化算法在标准测试函数集DTLZ{1,2, 4,5}上进行对比实验,结果表明,该算法具有明显的性能优势,大幅提升了4~30维高维多目标优化的收敛性和分布性.  相似文献   

16.
现实中高维多目标优化问题普遍存在,而且其巨大的目标空间使得经典的多目标进化算法面临严峻挑战,提出一种基于分解和协同策略的高维多目标进化算法MaOEA/DCE.该算法利用混合水平正交实验设计方法产生接近于指定规模且均匀分布于聚合系数空间的权重向量,提高种群的分布性;其次,算法将差分进化算子和自适应SBX算子进行协同进化以产生高质量的子代个体,改善算法的收敛性.该算法与另外五种高性能的多目标进化算法在基准测试函数集DTLZ{1,2,4,5}上进行IGD+性能指标实验,结果表明MaOEA/DCE在收敛性、多样性和稳定性方面总体具有显著的性能优势.  相似文献   

17.
研究表明,现有的多目标进化算法在处理具有不同Pareto前沿的优化问题时难以有效平衡种群的收敛性与多样性.鉴于此,提出一种基于自适应参考向量和参考点的高维多目标进化算法(adaptive reference vector and reference point based many-objective evlolutionary algorithm, ARVRPMEA).ARVRPMEA主要利用种群稀疏性自适应调整参考向量和参考点以提高种群多样性,首先,生成均匀分布的参考向量子集和参考点子集,并利用该参考向量子集分解种群;然后,根据规模最大子种群中解的分布情况生成新的参考向量和参考点,直至满足参考向量集和参考点集规模;最后,为进一步提高种群收敛性,该算法结合指标进行环境选择以保存收敛性较高的个体进入下一代种群.实验结果表明,ARVRP算法在求解具有不同Pareto前沿的问题方面具有良好的性能.  相似文献   

18.
Evolutionary multi-objective optimization (EMO) algorithms have been used in various real-world applications. However, most of the Pareto domination based multi-objective optimization evolutionary algorithms are not suitable for many-objective optimization. Recently, EMO algorithm incorporated decision maker’s preferences became a new trend for solving many-objective problems and showed a good performance. In this paper, we first use a new selection scheme and an adaptive rank based clone scheme to exploit the dynamic information of the online antibody population. Moreover, a special differential evolution (DE) scheme is combined with directional information by selecting parents for the DE calculation according to the ranks of individuals within a population. So the dominated solutions can learn the information of the non-dominated ones by using directional information. The proposed method has been extensively compared with two-archive algorithm, light beam search non-dominated sorting genetic algorithm II and preference rank immune memory clone selection algorithm over several benchmark multi-objective optimization problems with from two to ten objectives. The experimental results indicate that the proposed algorithm achieves competitive results.  相似文献   

19.
区间参数多目标优化问题是普遍存在且非常重要的。目前直接求解该类问题的进化优化方法非常少,且已有方法的目的是找到收敛性好且分布均匀的Pareto最优解集。为得到符合决策者偏好的最满意解,本文综述3种基于偏好的区间多目标进化算法,并将其应用于特定环境下机器人路径规划问题,比较3种算法的性能。研究结果可丰富特定环境下机器人路径规划的求解方法,提高机器人路径优化效果。  相似文献   

20.
毕晓君  王朝 《控制与决策》2019,34(2):369-376
针对带约束的高维多目标优化问题,设计一种基于参考点的约束支配关系(RPCDP),将可行解与不可行解作为一个整体看待,进而综合考虑它们的收敛性、多样性和可行性,并基于此提出用于解决约束高维多目标优化问题的NSGA-III算法.将所提出算法与著名的3种约束高维多目标进化算法进行对比,实验结果表明在标准测试函数集CDTLZ上,相对于其他算法,所提出算法的解集具有更好的收敛性和分布性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号