首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 140 毫秒
1.
基于混沌PSO算法优化最小二乘支持向量机实现航空发动机磨损状态监测;通过小波包分解消除润滑油光谱数据的噪声,获取LS-SVM的训练与测试样本;针对最小二乘支持向量机解决大规模数据样本回归问题时所出现的训练时间长、收敛速度慢等缺点,提出了混沌PSO算法优化LS-SVM的模型参数;该方法不仅克服了传统PSO算法早熟、容易陷入局部最小值等缺点,同时显著提高了最小二乘支持向量机的预测能力;最后,将一般LS-SVM和GM(1,1)模型的预测结果与文中预测结果进行对比,该方法构建的模型对测试样本产生的预测误差仅为0.0441,验证了该方法在预测精度上具有明显优势。  相似文献   

2.
改进的粒子群算法及其SVM参数优化应用   总被引:1,自引:0,他引:1       下载免费PDF全文
支持向量机是一种性能优越的机器学习算法,而其参数的选择对建模精度和泛化性能等有着重要的影响,也是目前机器学习研究的一个重要方向。在简要介绍基本粒子群优化(PSO)算法的基础上,提出了一种量子粒子群优化算法,给出了其实现方式,并通过4个基准测试函数进行性能对比评价。基于这种量子粒子群优化算法,对最小二乘支持向量机(LS-SVM)的参数优化进行了研究。仿真结果表明,量子粒子群优化算法能给出很好的优化结果。  相似文献   

3.
基于混沌PSO算法优化最小二乘支持向量机(LS-SVM)实现惯导系统初始对准测试.通过小波包分解消除陀螺漂移数据的噪声,获取LS-SVM的训练与测试样本.针对LS-SVM解决大规模数据样本回归问题时所出现的训练时间长、收敛速度慢等缺点,提出了混沌PSO算法优化LS-SVM的模型参数.该方法不仅克服了传统PSO算法早熟、...  相似文献   

4.
提出一种基于改进粒子群算法(PSO)优化最小二乘支持向量机(LSSVM)的MEMS陀螺随机漂移的预测模型建立方法。该方法首先应用最小二乘支持向量机对MEMS陀螺随机漂移建立预测模型,然后应用改进粒子群算法对该模型进行优化,最后应用参数优化后的LSSVM预测模型对随机漂移进行预测。该方法不仅解决了支持向量机训练速度慢和所需计算资源多的问题,而且文中提出的改进的惯性权值递减策略使PSO算法在全局或局部搜索能力上的侧重具有更好的适应度。实验结果表明,该预测模型可以有效地进行陀螺随机漂移的预测,且预测效果优于基本PSO优化的最小二乘支持向量机。  相似文献   

5.
当前支持向量机是分类研究与应用的一个热点。提出了一个新的最小二乘支持向量机算法,该算法向最小二乘支持向量机(LS-SVM)优化模型中融入了类内散度(VSLSVM)思想,即用优化准则Min w′Mw对原LS-SVM进行重组合,w为对应LS-SVM中的权向量,M是类内散度矩阵。提出的方法仅仅需要求解一个线性系统而不是凸规划问题,实验主要对SVM和Suykens等人的方法进行了比较,并验证了提出的算法的有效性。  相似文献   

6.
为了提高大型公共交通短期客流预测精度,提出了一种在利用集成经验模态分解原始数据的条件下,采用灰狼优化算法优化最小二乘支持向量机(EEMD-GWO-LSSVM)的算法,利用该算法实现城市大型公共交通短期客流预测。该模型采用EEMD分解原始数据,将分解后的各个本征模函数(IMF)分量运用最小二乘支持向量机进行回归预测,最小二乘支持向量机的预测参数由灰狼算法进行优化。通过对西安地铁二号线北客站一个月进出站人数进行训练预测,将预测结果和支持向量机(SVM),自回归移动平均模型(ARIMA),仅利用灰狼优化参数的最小二乘支持向量机(GWO-LSSVM)算法以及基于交叉检验进行参数优化的最小二乘支持向量机进行对比,分析得出该算法具有更加精确的预测结果。  相似文献   

7.
基于网格聚类LS-SVM 的铝电解生产过程极距软测量   总被引:1,自引:0,他引:1  
郭俊  桂卫华 《控制与决策》2012,27(8):1261-1264
针对铝电解生产过程的复杂性,建立了基于网格共享近邻聚类(GNN)最小二乘支持向量机(LS-SVM)的铝电解生产过程极距软测量模型.该模型采用GNN算法将训练集分成具有不同聚类中心的子集,对各子集分别采用LS-SVM进行训练并建立子模型,同时通过参数转化实现模型对新数据样本的动态学习.仿真结果表明,基于GNN最小二乘方法建立的铝电解极距软测量模型具有精度高、泛化性能好等特点,能够为铝电解生产过程操作优化提供实时准确的信息.  相似文献   

8.
针对石灰石-石膏湿法烟气脱硫过程最小二乘支持向量机(LS-SVM)建模中存在的噪声和辅助变量差异性对模型的影响,提出一种混合加权最小二乘支持向量机(MWLS-SVM)的建模方法。该建模方法对辅助变量进行加权,以降低各辅助变量对模型的差异性影响,并采用样本局部异常因子,对模型经验风险项进行加权处理,以提高模型的逼近和泛化能力,同时提出一种局部搜索竞争粒子群(LS-CSO)算法优化MWLS-SVM模型参数和特征权重。分别采用直接加权最小二乘支持向量机(DWLS-SVM)、LS-SVM和MWLS-SVM三种方法对湿法烟气脱硫SO2排放浓度建立软测量模型,采用LS-CSO优化模型参数,实验结果表明MWLS-SVM模型在预测精度和泛化能力表现上明显优于LS-SVM和DWLS-SVM。  相似文献   

9.
张本法  杨赛楠  潘丰 《控制工程》2006,13(4):317-319
发酵过程有众多关键性的变量难以在线检测,给过程优化策略的有效实施带来了障碍。最小二乘支持向量机(LS-SVM)是标准支持向量机(SVM)的一种扩展,LS-SVM算法精度高,速度快,适合于在线预估。将该算法用于青霉素发酵过程建模,用具有RBF核函数的LS-SVM建立菌体浓度、青霉素浓度的模型,并通过仿真实验与标准支持向量机进行比较。结果表明,最小二乘支持向量机是青霉素发酵过程建模与控制的一种有效的方法。  相似文献   

10.
损伤检测方法是关联智能结构实现损伤自诊断功能的一个重要研究内容。针对支持向量机研究的关键与难点——核函数的构造及核参数的优化问题,基于小波核函数的近似正交性,研究基于小波核的最小二乘支持向量机(LSWSVM)方法,并采用粒子群优化算法(PSO)对LSWSVM参数进行优化,从而构造PSO-LSWSVM方法。基于压电元件的正逆压电效应,搭建损伤自诊断压电智能结构试验系统,对各压电传感器的响应信号进行功率谱密度最大值(PSM)特征提取。基于各压电传感器的响应信号特征,将该PSO-LSWSVM方法应用于智能结构损伤自诊断,并对该方法进行性能评价。结果表明,在同等条件下,LSWSVM有比基于高斯核函数的最小二乘支持向量机(LSSVM)更高的损伤检测精度及更强的推广能力,相比于传统遗传算法(TGA),该方法中粒子群优化算法(PSO)具有较好的寻优能力和收敛速度。  相似文献   

11.
特征选择及分类器参数优化是提高分类器性能的两个重要方面,传统上这两个问题是分开解决的.近年来,随着进化优化计算技术在模式识别领域的广泛应用,编码上的灵活性使得特征选择及参数的同步优化成为一种可能和趋势.为了解决此问题,本文研究采用二进制PSO算法进行特征选择及核K近邻分类器参数的同步优化.实验表明,该方法可有效地找出合适的特征子集及核函数参数,并取得较好的分类效果.  相似文献   

12.
基于二进制PSO算法的特征选择及SVM参数同步优化   总被引:3,自引:0,他引:3  
特征选择及分类器参数优化是提高分类器性能的两个重要方面,传统上这两个问题是分开解决的。近年来,随着进化优化计算技术在模式识别领域的广泛应用,编码上的灵活性使得特征选择及参数的同步优化成为一种可能和趋势。为了解决此问题,本文研究采用二进制PSO算法同步进行特征选择及SVM参数的同步优化,提出了一种PSO-SVM算法。实验表明,该方法可有效地找出合适的特征子集及SVM参数,并取得较好的分类效果;且与文[4]所提出的GA-SVM算法相比具有特征精简幅度较大、运行效率较高等优点。  相似文献   

13.
特征子集选择和训练参数的优化一直是SVM研究中的两个重要方面,选择合适的特征和合理的训练参数可以提高SVM分类器的性能,以往的研究是将两个问题分别进行解决。随着遗传优化等自然计算技术在人工智能领域的应用,开始出现特征选择及参数的同时优化研究。研究采用免疫遗传算法(IGA)对特征选择及SVM 参数的同时优化,提出了一种IGA-SVM 算法。实验表明,该方法可找出合适的特征子集及SVM 参数,并取得较好的分类效果,证明算法的有效性。  相似文献   

14.
张进  丁胜  李波 《计算机应用》2016,36(5):1330-1335
针对支持向量机(SVM)中特征选择和参数优化对分类精度有较大影响,提出了一种改进的基于粒子群优化(PSO)的SVM特征选择和参数联合优化算法(GPSO-SVM),使算法在提高分类精度的同时选取尽可能少的特征数目。为了解决传统粒子群算法在进行优化时易出现陷入局部最优和早熟的问题,该算法在PSO中引入遗传算法(GA)中的交叉变异算子,使粒子在每次迭代更新后进行交叉变异操作来避免这一问题。该算法通过粒子之间的不相关性指数来决定粒子之间的交叉配对,由粒子适应度值的大小决定其变异概率的大小,由此产生新的粒子进入到群体中。这样使得粒子跳出当前搜索到的局部最优位置,提高了群体的多样性,在全局范围内寻找更优值。在不同数据集上进行实验,与基于PSO和GA的特征选择和SVM参数联合优化算法相比,GPSO-SVM的分类精度平均提高了2%~3%,选择的特征数目减少了3%~15%。实验结果表明,所提算法的特征选择和参数优化效果更好。  相似文献   

15.
孙林  赵婧  徐久成  王欣雅 《计算机应用》2022,42(5):1355-1366
针对经典的帝王蝶优化(MBO)算法不能很好地处理连续型数据,以及粗糙集模型对于大规模、高维复杂的数据处理能力不足等问题,提出了基于邻域粗糙集(NRS)和MBO的特征选择算法。首先,将局部扰动和群体划分策略与MBO算法结合,并构建传输机制以形成一种二进制MBO(BMBO)算法;其次,引入突变算子增强算法的探索能力,设计了基于突变算子的BMBO(BMBOM)算法;然后,基于NRS的邻域度构造适应度函数,并对初始化的特征子集的适应度值进行评估并排序;最后,使用BMBOM算法通过不断迭代搜索出最优特征子集,并设计了一种元启发式特征选择算法。在基准函数上评估BMBOM算法的优化性能,并在UCI数据集上评价所提出的特征选择算法的分类能力。实验结果表明,在5个基准函数上,BMBOM算法的最优值、最差值、平均值以及标准差明显优于MBO和粒子群优化(PSO)算法;在UCI数据集上,与基于粗糙集的优化特征选择算法、结合粗糙集与优化算法的特征选择算法、结合NRS与优化算法的特征选择算法、基于二进制灰狼优化的特征选择算法相比,所提特征选择算法在分类精度、所选特征数和适应度值这3个指标上表现良好,能够选择特征数少且分类精度高的最优特征子集。  相似文献   

16.
This paper proposes an optimal feature and parameter selection approach for extreme learning machine (ELM) for classifying power system disturbances. The relevant features of non-stationary time series data from power disturbances are extracted using a multiresolution S-transform which can be treated either as a phase corrected wavelet transform or a variable window short-time Fourier transform. After extracting the relevant features from the time series data, an integrated PSO and ELM architectures are used for pattern recognition of disturbance waveform data. The particle swarm optimization is a powerful meta-heuristic technique in artificial intelligence field; therefore, this study proposes a PSO-based approach, to specify the beneficial features and the optimal parameter to enhance the performance of ELM. One of the advantages of ELM over other methods is that the parameter that the user must properly adjust is the number of hidden nodes only. In this paper, a hybrid optimization mechanism is proposed which combines the discrete-valued PSO with the continuous-valued PSO to optimize the input feature subset selection and the number of hidden nodes to enhance the performance of ELM. The experimental results showed the proposed algorithm is faster and more accurate in discriminating power system disturbances.  相似文献   

17.
Text feature selection is an importance step in text classification and directly affects the classification performance. Classic feature selection methods mainly include document frequency (DF), information gain (IG), mutual information (MI), chi-square test (CHI). Theoretically, these methods are difficult to get improvement due to the deficiency of their mathematical models. In order to further improve effect of feature selection, many researches try to add intelligent optimization algorithms into feature selection method, such as improved ant colony algorithm and genetic algorithms, etc. Compared to the ant colony algorithm and genetic algorithms, particle swarm optimization algorithm (PSO) is simpler to implement and can find the optimal point quickly. Thus, this paper attempt to improve the effect of text feature selection through PSO. By analyzing current achievements of improved PSO and characteristic of classic feature selection methods, we have done many explorations in this paper. Above all, we selected the common PSO model, the two improved PSO models based respectively on functional inertia weight and constant constriction factor to optimize feature selection methods. Afterwards, according to constant constriction factor, we constructed a new functional constriction factor and added it into traditional PSO model. Finally, we proposed two improved PSO models based on both functional constriction factor and functional inertia weight, they are respectively the synchronously improved PSO model and the asynchronously improved PSO model. In our experiments, CHI was selected as the basic feature selection method. We improved CHI through using the six PSO models mentioned above. The experiment results and significance tests show that the asynchronously improved PSO model is the best one among all models both in the effect of text classification and in the stability of different dimensions.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号