首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 691 毫秒
1.
一种基于随机抽样的贝叶斯网络结构学习算法   总被引:1,自引:0,他引:1  
针对贝叶斯网络的结构学习问题,基于并行随机抽样的思想提出了结构学习算法PCMHS,构建多条并行的收敛于Boltzmann分布的马尔可夫链.首先基于节点之间的互信息,进行所有马尔可夫链的初始化,在其迭代过程中,基于并行的MHS抽样总体得到产生下一代个体的建议分布,并通过对网络中弧和子结构的抽样产生下一代个体.算法FCMHS收敛于平稳分布,具有良好的学习精度,而该算法又通过使其初始分布和建议分布近似于其平稳分布,有效提高了马尔可夫链的收敛速度.在标准数据集上的实验结果验证了算法PCMHS的学习效率和学习精度明显优于经典算法MHS和PopMCMC.  相似文献   

2.
为实现大规模数据流抽样的公平性与可行性,设计一种自适应数据流公平抽样算法。根据网络负载状况,自适应地调整抽样间隔,对数据流进行分段采样,采集初始样本;根据数据流的大小,以反比例函数为抽样函数,对初始样本进行概率抽样。通过对数据流采集过程的两阶段控制,实现在资源有限的情况下,对数据流进行公平合理的抽样。仿真结果表明,相较其它抽样算法,使用该算法抽样的样本更加公平准确。  相似文献   

3.
针对大数据环境中存在很多的冗余和噪声数据,造成存储耗费和学习精度差等问题,为有效的选取代表性样本,同时提高学习精度和降低训练时间,提出了一种基于选择性抽样的SVM增量学习算法,算法采用马氏抽样作为抽样方式,抽样过程中利用决策模型来计算样本间的转移概率,然后通过转移概率来决定是否接受样本作为训练数据,以达到选取代表性样本的目的。并与其他SVM增量学习算法做出比较,实验选取9个基准数据集,采用十倍交叉验证方式选取正则化参数,数值实验结果表明,该算法能在提高学习精度的同时,大幅度的减少抽样与训练总时间和支持向量总个数。  相似文献   

4.
标准粒子群算法(ParticleSwarmOptimization,PSO)在求解高维非线性问题时容易陷入局部最优解,针对此种情况,提出一种基于Sigmod函数的新的非线性自适应权值调整策略。此外,选用拉丁超立方体抽样的方法产生均匀的初始种群,采用小生境淘汰策略增强算法全局寻优能力。最后选用6个标准测试函数对该改进算法进行性能测试。结果表明,改进的粒子群算法在收敛速度和收敛精度以及全局最优解的获取方面均取得了满意的效果。  相似文献   

5.
针对麻雀搜索算法初始种群分布不均匀,种群间信息交流少,易陷入局部最优,收敛速度慢等不足,提出了一种基于双样本学习与单维搜索改进的精英麻雀搜索算法。首先,采用Hammersley低差异序列与反向学习相结合产生精英初始种群,增强个体质量和多样性;然后,通过双样本学习策略,改进追随者的位置更新公式,加强种群间的信息交流,提高算法跳出局部最优的能力;最后,在算法迭代后期采用单维搜索模式,增强算法在后期的深度挖掘能力,提高算法的精度。通过对时间复杂度进行分析,证明了该改进未增加算法的时间复杂度。选取12个不同特征的测试函数进行寻优,测试结果表明,与其他算法相比,该算法在收敛速度、精度和稳定性上都有明显的优越性。  相似文献   

6.
为进一步提升哈里斯鹰优化算法(HHO)的收敛精度和迭代速度,提出一种多策略协同优化的改进HHO算法(MSHHO)。首先采用拉丁超立方抽样方法初始化种群,加强个体在解空间区域的均匀化分布程度;其次引入融合莱维飞行的自适应阿基米德螺旋机制于局部搜索阶段,完善算法开采机制并有效增强个体邻域的搜索严密性,提高算法收敛精度;最后鉴于算法在迭代后期易于陷入局部极值情形,采取柯西变异和反向学习的混合变异策略交替扰动最优个体以助其快速逃离局部极值区,加快算法迭代速度。通过对基准测试函数的求解对比分析、Wilcoxon秩和检验和CEC2014复杂函数对比分析,证实了改进算法优异的寻优性能和稳健的鲁棒性。  相似文献   

7.
针对网络行为数据不均衡的问题,从数据均衡化和集成学习两个角度出发,提出一种基于动态抽样概率的集成学习算法。依据抽样概分布对多数类样本进行重采样,相比随机抽样,能更准确地加大对错分样本的学习。在更新样本抽样概率时,依据本轮迭代之前所得分类器的集成测试分类效果,而不是只依据本轮迭代所得分类器的分类效果。用7组UCI数据集和KDDCUP数据集来评估算法在不均衡数据集下的分类性能,实验结果显示,算法在不均衡数据集上的分类性能都有相应的提高。  相似文献   

8.
本文针对传统分布估计算法在建立概率模型时面临的各种困难,提出一种基于条件概率和Gibbs抽样的概率模型,能有效改进分布估计算法的通用性.使用该模型的分布估计算法利用进化过程中有前途的优秀个体构造出多个监督学习样本集,并对每个样本集估计出对应分量的条件概率,再使用这一组条件概率进行Gibbs抽样产生新的个体替代种群中的劣等个体.通过仿真实验表明,改进后的算法能够求解出可加性降解函数的全局最优解,表现出较强的全局优化能力.  相似文献   

9.
为提高灰狼优化算法种群多样性和搜索解的质量,提出一种基于Tent混沌函数与反向学习机制的非线性灰狼优化算法。采用Tent混沌函数和反向学习机制进行种群个体初始化,使得初始种群个体分布均匀及多样性增强;引入一种非线性收敛因子控制策略,平衡其全局搜索能力和局部搜索能力;引入动态权重策略以提升灰狼优化算法的收敛速度和收敛能力。为验证改进算法的有效性,采用8个基准数学函数测试其收敛速度和收敛精度,并与GWO、CGWO和I-GWO三种灰狼算法进行对比。实验结果表明:非线性灰狼优化算法在多个测试函数上的收敛精度均达到了10-5以上,收敛精度和收敛速度优于其他三种对比算法。  相似文献   

10.
改进的BP神经网络收敛性的实验研究   总被引:7,自引:0,他引:7  
利用生物发酵过程运行数据为样本,对BP神经网络进行训练,考察了网络结构以及学习率η和动量参数α对收敛精度与收敛速度的影响,提出了稳定区的概念和多输出网络分割的思想,并给出了得到较好收敛速度与精度的学习方案。  相似文献   

11.
为提高非支配排序遗传算法(NSGA-II)的搜索精度和多样性,本文借鉴差分进化中加强局部搜索的策略,提出了一种改进的NSGA-II算法(LDMNSGA-II)。该算法利用拉丁超立方体抽样技术对解种群进行初始化,保证种群的初始分布能够均匀,采用差分进化中的变异引导算子和交叉算子替换NSGA-II的交叉算子,加强局部搜索能力和提高搜索精度,同时保留NSGA-II中的变异算子,保留算法多样性。四个经典测试函数的仿真结果表明,文中算法LDMNSGA-II在解决多目标优化问题中表现出良好的综合性能。  相似文献   

12.
当今诸多聚类算法需要通过计算样本间距离来得到样本相似性。因此对这类算法而言,距离的计算方法尤为重要。对部分现有距离度量学习或相似性学习算法进行研究后可以发现,多数算法在选择学习样本的过程中,都采用了重复随机抽样的方式。这一抽样方式使所有训练节点都有均等概率用于度量或相似性学习,但因样本位置不同,对分类算法而言样本的分类难度也不同。如果能针对较难分类的样本进行着重学习,并适当减少对易分类点的学习时间,便能提高学习过程的效率性,减少学习过程的时间。节约时间成本,在大数据时代有不容忽视的意义。  相似文献   

13.
针对蝴蝶优化算法存在种群多样性差、寻优精度低、收敛速度慢的不足,提出了拉丁超立方抽样的自适应高斯小孔成像蝴蝶优化算法。首先利用拉丁超立方抽样种群初始化策略以提高种群的多样性,从而增强算法的全局搜索能力;然后引入在不同进化时期自动调节搜索范围的自适应最优引导策略,平衡算法的全局和局部搜索能力,从而提升算法的寻优精度;最后采用高斯小孔成像策略,对最优个体进行扰动,使得种群个体向最优个体靠近,以进一步提升算法的寻优精度并加快算法的收敛速度。通过对14个基准测试函数进行仿真实验以及Wilcoxon秩和检验,结果表明改进算法的寻优精度、收敛速度、稳定性和可扩展性等性能均得到了较大提高。  相似文献   

14.
用于全局优化的混合正交遗传算法   总被引:7,自引:1,他引:6       下载免费PDF全文
为提高正交遗传算法收敛速度和搜索精度,在正交遗传算法的基础上引入局部搜索策略,提出一种新的聚类局部搜索算子。利用正交算子初始化种群,保证初始群体分布的均匀性和多样性。通过正交算子在全局范围内进行全局搜索,使算法能在全局范围内收敛。采用聚类局部搜索算子对群体进行局部搜索,以增强算法的收敛速度和搜索精度。对7个高维的Benchmark函数进行测试,仿真实验结果表明,与其他算法相比,该算法具有更好的搜索精度、收敛速度和全局寻优的能力。  相似文献   

15.
两阶段抽样算法从海量数据集中抽取样本数据用于数据挖掘,当数据集规模过大时算法效率偏低,当数据集规模过大且为稀疏数据集时抽样精度偏低。本文改进了传统两阶段抽样算法,提出新的抽样算法EAFAST,可自适应地调节算法参数,而且能充分利用历史信息进行启发式搜索。实验证明,EAFAST算法可同时提高算法效率和抽样精度,弥补了传统算法的不足。  相似文献   

16.
针对大数据环境下K-means聚类算法聚类精度不足和收敛速度慢的问题,提出一种基于优化抽样聚类的K-means算法(OSCK)。首先,该算法从海量数据中概率抽样多个样本;其次,基于最佳聚类中心的欧氏距离相似性原理,建模评估样本聚类结果并去除抽样聚类结果的次优解;最后,加权整合评估得到的聚类结果得到最终k个聚类中心,并将这k个聚类中心作为大数据集聚类中心。理论分析和实验结果表明,OSCK面向海量数据分析相对于对比算法具有更好的聚类精度,并且具有很强的稳健性和可扩展性。  相似文献   

17.
提出了利用基于自适应训练及删剪算法的抽头延迟神经网络模型对股指这一非线性时间序列进行预测。首先采用基于递归最小方差的自适应学习算法对网络模型进行学习训练,由于该算法的学习步长能够自行调整,初始参数少,所以收敛速度很快;再利用删剪算法对学习后的网络结构进行删剪,优化网络的拓扑结构,降低网络的计算复杂度,提高网络的泛化能力;然后对优化后的网络进行再学习,使优化后的网络具有最佳参数;最后利用优化后的网络对未来的股指(测试样本)进行预测。仿真实验表明,与删剪前的网络结构相比,优化后的网络结构不但降低了计算复杂度而且提高了预测精度,运算复杂度降低到原来的0.0556,预测均方误差达到8.7961e-5。  相似文献   

18.
针对标准WOA算法初始种群分布不均、收敛速度较慢、全局搜索能力弱且易陷入局部最优等问题,提出一种混合策略改进的鲸鱼优化算法。采用Sobol序列初始化种群以使初始解在解空间分布更均匀;通过非线性时变因子和惯性权重平衡并提高全局搜索及局部开发能力,并结合随机性学习策略增加迭代过程中种群的多样性;引入柯西变异提升算法跳出局部最优的能力。通过对12个基准函数和一个水资源需求预测模型的参数估计进行优化实验,结果表明,基于混合策略改进的鲸鱼优化算法在寻优精度及收敛速度上均有明显提升。  相似文献   

19.
高锋  黄海燕 《计算机科学》2017,44(8):225-229
不平衡数据严重影响了传统分类算法的性能,导致少数类的识别率降低。提出一种基于邻域特征的混合抽样技术,该技术根据样本邻域中的类别分布特征来确定采样权重,进而采用混合抽样的方法来获得平衡的数据集;然后采用一种基于局部置信度的动态集成方法,通过分类学习生成基分类器,对于每个检验的样本,根据局部分类精度动态地选择最优的基分类器进行组合。通过UCI标准数据集上的实验表明,该方法能够同时提高不平衡数据中少数类和多数类的分类精度。  相似文献   

20.
卜宾宾  蒋艳 《计算机仿真》2015,32(2):288-291
针对混合算法学习贝叶斯网络结构存在易陷入局部最优、搜索精度低等问题,提出了采用蝙蝠算法和约束结合的贝叶斯网络结构混合算法。首先应用最大最小父子(Max-min parents and children,MMPC)节点集合构建初始无向网络的框架,然后利用蝙蝠算法进行评分搜索并确定网络结构中边的方向。最后应用上述算法学习ALARM网,并和最大最小爬山(the max-min hill climbing,MMHC)算法,贪婪搜索算法相比较,结果表明在增加边、反转边、删除边以及结构海明距离方面都有不同程度的减少,表明改进算法具有较强的学习能力和良好的收敛速度。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号