首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
方青  邵嫄 《计算机科学》2018,45(8):198-202, 212
为了最大限度地降低制造型供应链的销售成本并缩短供货时间,提出了一种基于改进智能水滴算法的多目标供应链优化模型。该模型通过在选项选择期间同时考虑成本和时间来提高供应链效率,并能够将制造型供应链中的销售成本和交货时间最小化。通过使用帕累托最优准则对传统的智能水滴算法进行修改,从而得到一个帕累托集,以实现两个目标的最小化。通过3个实例对所提算法进行了测试,并采用世代距离和超区域比指标将其与蚁群优化算法进行了比较。实验结果显示,所提方法的性能更优,生成的解集更接近真实帕累托集,能够覆盖更大的解区域面积,且计算效率较高。  相似文献   

2.
邱兴兴  张珍珍  魏启明 《计算机应用》2014,34(10):2880-2885
在多目标进化优化中,使用分解策略的基于分解的多目标进化算法(MOEA/D)时间复杂度低,使用〖BP(〗强度帕累托策略的〖BP)〗强度帕累托进化算法-2(SPEA2)能得到分布均匀的解集。结合这两种策略,提出一种新的多目标进化算法用于求解具有复杂、不连续的帕累托前沿的多目标优化问题(MOP)。首先,利用分解策略快速逼近帕累托前沿;然后,利用强度帕累托策略使解集均匀分布在帕累托前沿,利用解集重置分解策略中的权重向量集,使其适配于特定的帕累托前沿;最后,利用分解策略进一步逼近帕累托前沿。使用的反向世代距离(IGD)作为度量标准,将新算法与MOEA/D、SPEA2和paλ-MOEA/D在12个基准问题上进行性能对比。实验结果表明该算法性能在7个基准问题上最优,在5个基准问题上接近于最优,且无论MOP的帕累托前沿是简单或复杂、连续或不连续的,该算法均能生成分布均匀的解集。  相似文献   

3.
张宁  高尚 《计算机与数字工程》2021,49(11):2189-2193
提出了一种改进的基于分解的多目标进化算法,用于解决不连续帕累托前沿的多目标优化问题中出现帕累托近似前沿分布不均匀与不完整的问题.主要的思想是通过基于密度的聚类算法将尽量逼近帕累托前沿的种群划分为若干个子种群,将不连续帕累托前沿问题转化为多个连续子问题,然后协同演化所有子种群,最后获得更为均匀与完整的帕累托解集.实验表明对于处理不连续帕累托问题的优越性.  相似文献   

4.
已有的聚类算法大多仅考虑单一的目标,导致对某些形状的数据集性能较弱,对此提出一种基于改进粒子群优化的无标记数据鲁棒聚类算法。优化阶段:首先,采用多目标粒子群优化的经典形式生成聚类解集合;然后,使用K-means算法生成随机分布的初始化种群,并为其分配随机初始化的速度;最终,采用MaxiMin策略确定帕累托最优解。决策阶段:测量帕累托解集与理想解的距离,将距离最短的帕累托解作为最终聚类解。对比实验结果表明,本算法对不同形状的数据集均可获得较优的类簇数量,对目标问题的复杂度具有较好的鲁棒性。  相似文献   

5.
针对基于梯度策略的多目标优化算法无法适用于多目标、高维度的生成对抗网络(Generative Adversarial Nets, GANs)及多目标GANs中利用交叉验证产生次优解,极难求得最优解等问题,提出一种基于梯度策略的多目标GANs帕累托最优解算法。该算法采用硬参数共享方式,将多目标优化分解为多个两目标优化,确定多目标权重参数后,沿着梯度方向进行线性搜索,最终确定帕累托最优解。理论上,在弱条件约束下,证明了所提算法能够确切地产生帕累托最优解。实验上,将所提算法应用到图像处理的常见领域,对比所提算法与原算法的性能。结果表明,当目标数量大于2时,所提算法能够产生明显的性能优势。  相似文献   

6.
污水处理过程中,能耗与出水水质是两个相互矛盾的评价指标.为了找出这两个目标的最优解,本文在基于分解的多目标进化算法(MOEA/D)的基础上进行改进,期望用更少的进化次数得到分布均匀的近似帕累托前沿.针对MOEA/D算法每一次产生的新解,本文中改进的算法从所有子问题中找到最合适新解的子问题,并在其邻域范围内进行种群的更替,在原本子问题的基础上进行二次寻优,提高子代利用率,进而用更少的迭代次数找到优化问题中的近似帕累前沿.实验证明,该算法明显减少了找到帕累托前沿的步数,使得MOEA/D算法的性能明显提升,在污水处理过程优化问题中达到了优化目标的作用.  相似文献   

7.
姜栋  徐欣 《计算机应用》2017,37(12):3620-3624
针对多机器人系统动态任务分配中存在的优化问题,在使用合同网初始任务分配的基础上提出了一种使用帕累托改进的任务二次分配算法。多机器人系统并行执行救火任务时,首先通过初始化任务分配将多机器人划分为若干子群;然后,每个子群承包某一救火任务,子群在执行任务的同时与就近子群进行帕累托改进确定需要迁移的机器人,实现两子群之间帕累托最优;最后,使用后序二叉树遍历对所有子群进行帕累托改进实现全局帕累托最优。理论分析和仿真结果表明,相较于强化学习算法和蚁群算法,所提算法的救火任务时间分别减少26.18%和37.04%;相较于传统合同网方法,所提算法在时间方面能够高效完成救火任务,在系统收益方面也具有明显优势。  相似文献   

8.
数据集中处理的云计算模式提供交互迅速、绿色高效的多样化应用服务面临新挑战.将云计算能力扩展到边缘设备,提出了边云协同计算框架;设计了基于任务预测的资源部署算法,在云服务中心通过二维时间序列对任务进行预测,结合分类聚合、延迟阈值判定等优化边缘服务器任务运行所需资源部署;提出了基于帕累托优化的任务调度算法,在边缘服务器分2个阶段进行帕累托渐进比较得到用户服务质量和系统服务效应2个目标曲线的相切点或任一相交点以优化任务调度.实验结果表明:结合基于任务预测的资源部署算法与基于帕累托优化的任务调度算法在提高平均用户任务命中率基础上,其用户平均服务完成时间、系统整体服务效应度、总任务延迟率在不同用户任务规模、不同Zipf分布参数α的应用场景下,均优于基于帕累托优化的任务调度算法和基于FIFO(first input first output)的基准任务调度算法.  相似文献   

9.
提出一种基于双局部最优的多目标粒子群优化算法,与可行解为优的约束处理方法相结合,来求解决非线性带约束的多目标电力系统环境经济调度问题。该算法针对传统多目标粒子群算法多样性低的局限性,通过对搜索空间的分割归类来增加帕累托最优解的多样性;并采用一种新的双局部最优来引导粒子的搜索,从而增强了算法的全局搜索能力。算法加入了可行解为优的约束处理方法对IEEE30节点六发电机电力系统环境经济负荷分配模型分别在几个不同复杂性问题的情况进行仿真测试,并与文献中的其他算法进行了比较。结果表明,改进的算法能够在保持帕累托最优解多样性的同时具有良好的收敛性能,更有效地解决电力系统环境经济调度问题。  相似文献   

10.
研究了由常发性交通拥堵造成的实时交通状况变化对低碳车辆路径优化的影响。用道路交通状态指数表示城市实时交通状况,以低碳和配送时间最短为目标建立整数规划模型进行路径优化。设计了改进的粒子群算法进行求解,得到帕累托前沿解集。数值算例表明,改进的粒子群算法能有效找到满意解。通过帕累托解集可以证明该方法可以在牺牲少量配送时间的前提下减少碳排放量。随着交通状态指数的增大碳排放量的优化效果更加明显。  相似文献   

11.
Ensemble pruning deals with the selection of base learners prior to combination in order to improve prediction accuracy and efficiency. In the ensemble literature, it has been pointed out that in order for an ensemble classifier to achieve higher prediction accuracy, it is critical for the ensemble classifier to consist of accurate classifiers which at the same time diverse as much as possible. In this paper, a novel ensemble pruning method, called PL-bagging, is proposed. In order to attain the balance between diversity and accuracy of base learners, PL-bagging employs positive Lasso to assign weights to base learners in the combination step. Simulation studies and theoretical investigation showed that PL-bagging filters out redundant base learners while it assigns higher weights to more accurate base learners. Such improved weighting scheme of PL-bagging further results in higher classification accuracy and the improvement becomes even more significant as the ensemble size increases. The performance of PL-bagging was compared with state-of-the-art ensemble pruning methods for aggregation of bootstrapped base learners using 22 real and 4 synthetic datasets. The results indicate that PL-bagging significantly outperforms state-of-the-art ensemble pruning methods such as Boosting-based pruning and Trimmed bagging.  相似文献   

12.
Diversity among individual classifiers is widely recognized to be a key factor to successful ensemble selection, while the ultimate goal of ensemble pruning is to improve its predictive accuracy. Diversity and accuracy are two important properties of an ensemble. Existing ensemble pruning methods always consider diversity and accuracy separately. However, in contrast, the two closely interrelate with each other, and should be considered simultaneously. Accordingly, three new measures, i.e., Simultaneous Diversity & Accuracy, Diversity-Focused-Two and Accuracy-Reinforcement, are developed for pruning the ensemble by greedy algorithm. The motivation for Simultaneous Diversity & Accuracy is to consider the difference between the subensemble and the candidate classifier, and simultaneously, to consider the accuracy of both of them. With Simultaneous Diversity & Accuracy, those difficult samples are not given up so as to further improve the generalization performance of the ensemble. The inspiration of devising Diversity-Focused-Two stems from the cognition that ensemble diversity attaches more importance to the difference among the classifiers in an ensemble. Finally, the proposal of Accuracy-Reinforcement reinforces the concern about ensemble accuracy. Extensive experiments verified the effectiveness and efficiency of the proposed three pruning measures. Through the investigation of this work, it is found that by considering diversity and accuracy simultaneously for ensemble pruning, well-performed selective ensemble with superior generalization capability can be acquired, which is the scientific value of this paper.  相似文献   

13.
主要目的是寻找到一种Bagging的快速修剪方法,以缩小算法占用的存储空间、提高运算的速度和实现提高分类精度的潜力.传统的选择性集成方法研究的重点是基学习器之间的差异化,从同质化的角度采研究这一问题,提出了一种全新的选择性集成思路.通过选择基学习器集合中的最差者来对Bagging集成进行快速层次修剪,获得了一种学习速度接近Bagging性能在其基础上得到提高的新算法.新算法的训练时间明显小于GASEN而性能与其相近.该算法同时还保留了与Bagging相同的并行处理能力.  相似文献   

14.
AdaBoost is a highly effective ensemble learning method that combines several weak learners to produce a strong committee with higher accuracy. However, similar to other ensemble methods, AdaBoost uses a large number of base learners to produce the final outcome while addressing high-dimensional data. Thus, it poses a critical challenge in the form of high memory-space consumption. Feature selection methods can significantly reduce dimensionality in regression and have been established to be applicable in ensemble pruning. By pruning the ensemble, it is possible to generate a simpler ensemble with fewer base learners but a higher accuracy. In this article, we propose the minimax concave penalty (MCP) function to prune an AdaBoost ensemble to simplify the model and improve its accuracy simultaneously. The MCP penalty function is compared with LASSO and SCAD in terms of performance in pruning the ensemble. Experiments performed on real datasets demonstrate that MCP-pruning outperforms the other two methods. It can reduce the ensemble size effectively, and generate marginally more accurate predictions than the unpruned AdaBoost model.  相似文献   

15.
差异性是提高分类器集成泛化性能的重要因素。采用熵差异性度量及数据子集法训练基分类器,研究了爬山选择、集成前序选择、集成后序选择以及聚类选择策略选取个体模型的集成学习。实验结果表明,由选择策略选取差异性较大的个体模型,其集成性能表现出较好的优势;从总体角度考虑,爬山选择策略的集成性能优于集成前序选择和集成后序选择的集成性能;另外,由聚类技术选取的集成模型,当集成正确率较稳定时,则模型间的差异性变化较小;簇数也对集成性能与集成模型间的差异性产生一定的影响。  相似文献   

16.
Ensemble pruning deals with the reduction of base classifiers prior to combination in order to improve generalization and prediction efficiency. Existing ensemble pruning algorithms require much pruning time. This paper presents a fast pruning approach: pattern mining based ensemble pruning (PMEP). In this algorithm, the prediction results of all base classifiers are organized as a transaction database, and FP-Tree structure is used to compact the prediction results. Then a greedy pattern mining method is explored to find the ensemble of size k. After obtaining the ensembles of all possible sizes, the one with the best accuracy is outputted. Compared with Bagging, GASEN, and Forward Selection, experimental results show that PMEP achieves the best prediction accuracy and keeps the size of the final ensemble small, more importantly, its pruning time is much less than other ensemble pruning algorithms.  相似文献   

17.
基于FP-Tree 的快速选择性集成算法   总被引:3,自引:1,他引:2  
赵强利  蒋艳凰  徐明 《软件学报》2011,22(4):709-721
选择性集成通过选择部分基分类器参与集成,从而提高集成分类器的泛化能力,降低预测开销.但已有的选择性集成算法普遍耗时较长,将数据挖掘的技术应用于选择性集成,提出一种基于FP-Tree(frequent pattern tree)的快速选择性集成算法:CPM-EP(coverage based pattern mining for ensemble pruning).该算法将基分类器对校验样本集的分类结果组织成一个事务数据库,从而使选择性集成问题可转化为对事务数据集的处理问题.针对所有可能的集成分类器大小,CPM-EP算法首先得到一个精简的事务数据库,并创建一棵FP-Tree树保存其内容;然后,基于该FP-Tree获得相应大小的集成分类器.在获得的所有集成分类器中,对校验样本集预测精度最高的集成分类器即为算法的输出.实验结果表明,CPM-EP算法以很低的计算开销获得优越的泛化能力,其分类器选择时间约为GASEN的1/19以及Forward-Selection的1/8,其泛化能力显著优于参与比较的其他方法,而且产生的集成分类器具有较少的基分类器.  相似文献   

18.
为了提高分类器集成性能,提出了一种基于聚类算法与排序修剪结合的分类器集成方法。首先将混淆矩阵作为量化基分类器间差异度的工具,通过聚类将分类器划分为若干子集;然后提出一种排序修剪算法,以距离聚类中心最近的分类器为起点,根据分类器的距离对差异度矩阵动态加权,以加权差异度作为排序标准对子集中的分类器进行按比例修剪;最后使用投票法对选出的基分类器进行集成。同时与多种集成方法在UCI数据库中的10组数据集上进行对比与分析,实验结果表明基于聚类与排序修剪的分类器选择方法有效提升了集成系统的分类能力。  相似文献   

19.
在集成学习中使用平均法、投票法作为结合策略无法充分利用基分类器的有效信息,且根据波动性设置基分类器的权重不精确、不恰当。以上问题会降低集成学习的效果,为了进一步提高集成学习的性能,提出将证据推理(evidence reasoning, ER)规则作为结合策略,并使用多样性赋权法设置基分类器的权重。首先,由多个深度学习模型作为基分类器、ER规则作为结合策略,构建集成学习的基本结构;然后,通过多样性度量方法计算每个基分类器相对于其他基分类器的差异性;最后,将差异性归一化实现基分类器的权重设置。通过多个图像数据集的分类实验,结果表明提出的方法较实验选取的其他方法准确率更高且更稳定,证明了该方法可以充分利用基分类器的有效信息,且多样性赋权法更精确。  相似文献   

20.
理论及实验表明,在训练集上具有较大边界分布的组合分类器泛化能力较强。文中将边界概念引入到组合剪枝中,并用它指导组合剪枝方法的设计。基于此,构造一个度量标准(MBM)用于评估基分类器相对于组合分类器的重要性,进而提出一种贪心组合选择方法(MBMEP)以降低组合分类器规模并提高它的分类准确率。在随机选择的30个UCI数据集上的实验表明,与其它一些高级的贪心组合选择算法相比,MBMEP选择出的子组合分类器具有更好的泛化能力。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号