共查询到19条相似文献,搜索用时 109 毫秒
1.
支持向量机参数是影响其性能的重要因素,为了进一步提高支持向量机分类精度和泛化能力,提出了基于差分进化算法的SVM参数选择。以样本误判率最小为优化准则,利用差分进化算法对SVM参数进行优化选择。实验结果表明,利用差分进化算法选择SVM参数,加快了参数搜索的速度,提高了SVM分类精度,该方法具有良好的鲁棒性和较强的全局寻优能力。 相似文献
2.
3.
支持向量机算法(SVM)具有可靠的全局最优性和良好的泛化能力,适用于有限样本的学习,而该算法的成功与否很大程度上取决于其参数的选择,而常规经验选取方法往往不能获得满意效果。利用粒子群算法(PSO)随机搜索策略对支持向量机参数进行优选,建立基于粒子群算法参数优化的支持向量机模型(PSO-SVM)。仿真结果表明,该优化模型比传统的人工神经网络(BP)模拟效果要好,在拟合精度方面有很大的提高,且具有较好的泛化能力。 相似文献
4.
选择性支持向量机集成算法 总被引:1,自引:0,他引:1
陈涛 《计算机工程与设计》2011,32(5):1807-1809,1819
为有效提升支持向量机泛化性能,提出了基于差分进化算法和负相关学习的选择性支持向量机集成。通过bootstrap技术产生并训练得到多个独立子SVM,基于负相关学习理论构造适应度函数,既提高子SVM的泛化性能,又增大其之间差异度。利用差分进化算法计算各子SVM在加权平均中的最优权重,选择权值大于一定阈值的部分SVM进行加权集成。实验结果表明,该算法是一种有效的集成方法,能进一步提高SVM的泛化性能。 相似文献
5.
支持向量机参数是影响其性能的重要因素,但对支持向量机核参数的选取仍没有形成一套成熟的理论,从而严重影响了其广泛的应用。将克隆选择算法引入差分进化算法,对基本克隆选择算法和差分进化算法中的策略进行改进。将两种改进的算法进行融合,提出了一种基于克隆选择的差分进化算法,并将其应用于SVM核参数的优化中。测试结果表明,该算法不仅可以有效避免差分进化算法易早熟收敛的问题,而且寻优能力得到显著提高;在UCI数据库wine数据中的应用表明,利用克隆选择差分进化算法优化SVM核参数加快了参数搜索的速度,提高了SVM预测精度和泛化能力,具有较高的分类准确率和较好的推广性能。 相似文献
6.
支持向量机参数的选择对建模精度和泛化性能等有着重要的影响,提出量子粒子群优化(QPSO)改进算法优化支持向量机(SVM)参数的方法。该方法首先将混合扰动算子引入QPSO算法中,用于获取平均最优位置,建立一种基于混合扰动算子的QPSO算法改进方法(IQPSO),然后用IQPSO算法的全局优化能力对支持向量机惩罚系数和核参数进行综合寻优,求取最优化参数组合,从而提高支持向量机的求解速度和解的精确性。利用测试函数和UCI测试数据,对IQPSO-SVM进行仿真测试与分类,实验结果表明,IQPSO能获得很好的优化结果,IQPSO-SVM具有较好的泛化性能。 相似文献
7.
支持向量机(SVM)的学习性能和泛化能力主要取决于参数选择,然而传统的优化算法难以解决此问题。文中通过支持向量的个数建立优化目标函数,采用微粒群优化(PSO)算法对其优化,寻找最优参数。PSO是一种新兴的基于群体智慧的进化算法。实验表明,微粒群优化算法是支持向量机参数选择的有效方法。 相似文献
8.
混沌粒子群算法对支持向量机模型参数的优化 总被引:1,自引:1,他引:0
研究支持向量机模型优化问题,支持向量机的参数选择决定了其学习性能和泛化能力,由于在参数的选择范围内可选择的数量很多,在多个参数中进和盲目搜索最优参数是需要极大的时间代价,并且很难得到最优参数.常用的支持向量机优化方法有遗传算法、粒子群算法都存在易陷入局部极值,优化效果较差.为解决支持向量机参数寻优问题,提出一种基于混沌粒子群的支持向量机参数选择方法.将混沌理论引入粒子群优化算法中,从而提高种群的多样性和粒子搜索的遍历性,从而有效地提高了PSO算法的收敛速度和精度,得了优化支持向量机模型.并以信用卡案例数据作为研究对象进行了仿真,实验结果表明,混沌粒子群优化的SVM分类器比传统算法优化的SVM分类器的精度高和更高的效率,应用效果好. 相似文献
9.
支持向量机参数的选择决定着支持向量机的分类精度和泛化能力,而其参数优化缺乏理论指导,在此背景下提出了ACO-SVM模型。该模型将SVM分类预测准确率作为目标函数,对蚁群算法进行改进,引入有向搜索和基于时变函数更新的信息素更新原则,利用蚁群算法的并行性、正反馈机制和较强的鲁棒性,以求得最优目标并得到SVM的最优参数组合。数值实验结果表明,改进蚁群算法在SVM参数优化选取中具有更好的寻优性能,具有较高的分类准确率;该方法具有较好的并行性和较强的全局寻优能力。 相似文献
10.
11.
支持向量机是一种基于核的学习方法,核函数选取对支持向量机性能有着重要的影响,如何有效地进行核函数选择是支持向量机研究领域的一个重要问题。目前大多数核选择方法不考虑数据的分布特征,没有充分利用隐含在数据中的先验信息。为此,引入能量熵概念,借助超球体描述和核函数蕴藏的度量特征,提出一种基于样本分布能量熵的支持向量机核函数选择方法,以提高SVM学习能力和泛化能力。数值实例仿真验证表明了该方法的可行性和有效性。 相似文献
12.
在实际应用中,支持向量机的性能依赖于参数的选择。针对支持向量机的参数选择问题进行了研究和分析,提出了基于均匀设计的支持向量机参数优化方法。与基于网格搜索、粒子群算法、遗传算法等支持向量机参数优化方法进行了比较与分析,采用多个不同规模的标准的分类数据集进行测试,比较了四种方法的分类正确率和运行时间。仿真实验表明,四种方法都能找到最优参数,使支持向量机的分类正确率接近或超过分类数据集的理论精度,本文方法具有寻参时间短的特点。 相似文献
13.
基于Fisher 准则和最大熵原理的SVM核参数选择方法 总被引:1,自引:0,他引:1
针对支持向量机(SVM)核参数选择困难的问题,提出一种基于Fisher准则和最大熵原理的SVM核参数优选方法.首先,从SVM分类器原理出发,提出SVM核参数优劣的衡量标准;然后,根据此标准利用Fisher准则来优选SVM核参数,并引入最大熵原理进一步调整算法的优选性能.整个模型采用粒子群优化算法(PSO)进行参数寻优.UCI标准数据集实验表明了所提方法具有良好的参数选择效果,优选出的核参数能够使SVM具有较高的泛化性能. 相似文献
14.
Supporting vector machine recursive feature elimination (SVM-RFE) has a low efficiency when it is applied to band selection for hyperspectral dada,since it usually uses a non-linear kernel and trains SVM every time after deleting a band.Recent research shows that SVM with non-linear kernel doesn’t always perform better than linear one for SVM classification.Similarly,there is some uncertainty on which kernel is better in SVM-RFE based band selection.This paper compares the classification results in SVM-RFE using two SVMs,then designs two optimization strategies for accelerating the band selection process:the percentage accelerated method and the fixed accelerated method.Through an experiment on AVIRIS hyperspectral data,this paper found:① Classification precision of SVM will slightly decrease with the increasing of redundant bands,which means SVM classification needs feature selection in terms of classification accuracy;② The best band collection selected by SVM-RFE with linear SVM that has higher classification accuracy and less effective bands than that with non-linear SVM;③ Both two optimization strategies improved the efficiency of the feature selection,and percentage eliminating performed better than fixed eliminating method in terms of computational efficiency and classification accuracy. 相似文献
15.
为了提高SVM的分类器性能,提出使用蚁群算法来指导SVM模型参数的选择,并针对采用RBF作为核函数的SVM进行了实验。然后将该方法与基于GA的SVM模型选择方法进行了比较。实验证明采用蚁群算法具有一定的优势,它能在较短的时间内寻找到最优解,且最终得到的分类结果优于遗传算法。 相似文献
16.
支持向量机最优模型选择的研究 总被引:18,自引:0,他引:18
通过对核矩阵的研究,利用核矩阵的对称正定性,采用核校准的方法提出了一种SVM最优模型选择的算法——OMSA算法.利用训练样本不通过SVM标准训练和测试过程而寻求最优的核参数和相应的最优学习模型,弥补了传统SVM在模型选择上经验性强和计算量大的不足.采用该算法在UCI标准数据集和FERET标准人脸库上进行了实验,结果表明,通过该算法找到的核参数以及相应的核矩阵是最优的,得到的SVM分类器的错误率最小.该算法为SVM最优模型选择提供了一种可行的方法,同时对其他基于核的学习方法也具有一定的参考价值. 相似文献
17.
18.
19.
基于蚁群算法的SVM模型选择研究 总被引:3,自引:0,他引:3
为了提高SVM的分类器性能,提出使用蚁群算法来指导SVM模型参数的选择,并针对采用RBF作为核函数的SVM进行了实验。然后将该方法与基于GA的SVM模型选择方法进行了比较。实验证明采用蚁群算法具有一定的优势,它能在较短的时间内寻找到最优解,且最终得到的分类结果优于遗传算法。 相似文献