首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 109 毫秒
1.
支持向量机参数是影响其性能的重要因素,为了进一步提高支持向量机分类精度和泛化能力,提出了基于差分进化算法的SVM参数选择。以样本误判率最小为优化准则,利用差分进化算法对SVM参数进行优化选择。实验结果表明,利用差分进化算法选择SVM参数,加快了参数搜索的速度,提高了SVM分类精度,该方法具有良好的鲁棒性和较强的全局寻优能力。  相似文献   

2.
一种改进的支持向量机的文本分类算法   总被引:16,自引:11,他引:5  
在文本分类中,应用支持向量机(SVM)算法能使分类在小样本的条件下具有良好的泛化能力.但支持向量机的参数取值决定了其学习性能和泛化能力.为提高支持向量机算法的性能,提出了一种采用免疫算法对支持向量机参数进行优化的文本分类算法(IA-SVM).算法减少了对支持向量机参数选择的盲目性,提高了SVM的预测精度.实验表明,IA-SVM算法在文本分类问题上明显提高了分类正确牢,学习速度也有提高.  相似文献   

3.
支持向量机算法(SVM)具有可靠的全局最优性和良好的泛化能力,适用于有限样本的学习,而该算法的成功与否很大程度上取决于其参数的选择,而常规经验选取方法往往不能获得满意效果。利用粒子群算法(PSO)随机搜索策略对支持向量机参数进行优选,建立基于粒子群算法参数优化的支持向量机模型(PSO-SVM)。仿真结果表明,该优化模型比传统的人工神经网络(BP)模拟效果要好,在拟合精度方面有很大的提高,且具有较好的泛化能力。  相似文献   

4.
选择性支持向量机集成算法   总被引:1,自引:0,他引:1  
陈涛 《计算机工程与设计》2011,32(5):1807-1809,1819
为有效提升支持向量机泛化性能,提出了基于差分进化算法和负相关学习的选择性支持向量机集成。通过bootstrap技术产生并训练得到多个独立子SVM,基于负相关学习理论构造适应度函数,既提高子SVM的泛化性能,又增大其之间差异度。利用差分进化算法计算各子SVM在加权平均中的最优权重,选择权值大于一定阈值的部分SVM进行加权集成。实验结果表明,该算法是一种有效的集成方法,能进一步提高SVM的泛化性能。  相似文献   

5.
盛明明  黄海燕  赵玉 《计算机科学》2015,42(Z11):19-21, 48
支持向量机参数是影响其性能的重要因素,但对支持向量机核参数的选取仍没有形成一套成熟的理论,从而严重影响了其广泛的应用。将克隆选择算法引入差分进化算法,对基本克隆选择算法和差分进化算法中的策略进行改进。将两种改进的算法进行融合,提出了一种基于克隆选择的差分进化算法,并将其应用于SVM核参数的优化中。测试结果表明,该算法不仅可以有效避免差分进化算法易早熟收敛的问题,而且寻优能力得到显著提高;在UCI数据库wine数据中的应用表明,利用克隆选择差分进化算法优化SVM核参数加快了参数搜索的速度,提高了SVM预测精度和泛化能力,具有较高的分类准确率和较好的推广性能。  相似文献   

6.
支持向量机参数的选择对建模精度和泛化性能等有着重要的影响,提出量子粒子群优化(QPSO)改进算法优化支持向量机(SVM)参数的方法。该方法首先将混合扰动算子引入QPSO算法中,用于获取平均最优位置,建立一种基于混合扰动算子的QPSO算法改进方法(IQPSO),然后用IQPSO算法的全局优化能力对支持向量机惩罚系数和核参数进行综合寻优,求取最优化参数组合,从而提高支持向量机的求解速度和解的精确性。利用测试函数和UCI测试数据,对IQPSO-SVM进行仿真测试与分类,实验结果表明,IQPSO能获得很好的优化结果,IQPSO-SVM具有较好的泛化性能。  相似文献   

7.
马驰  阮秋琦 《微机发展》2007,17(12):20-23
支持向量机(SVM)的学习性能和泛化能力主要取决于参数选择,然而传统的优化算法难以解决此问题。文中通过支持向量的个数建立优化目标函数,采用微粒群优化(PSO)算法对其优化,寻找最优参数。PSO是一种新兴的基于群体智慧的进化算法。实验表明,微粒群优化算法是支持向量机参数选择的有效方法。  相似文献   

8.
混沌粒子群算法对支持向量机模型参数的优化   总被引:1,自引:1,他引:0  
研究支持向量机模型优化问题,支持向量机的参数选择决定了其学习性能和泛化能力,由于在参数的选择范围内可选择的数量很多,在多个参数中进和盲目搜索最优参数是需要极大的时间代价,并且很难得到最优参数.常用的支持向量机优化方法有遗传算法、粒子群算法都存在易陷入局部极值,优化效果较差.为解决支持向量机参数寻优问题,提出一种基于混沌粒子群的支持向量机参数选择方法.将混沌理论引入粒子群优化算法中,从而提高种群的多样性和粒子搜索的遍历性,从而有效地提高了PSO算法的收敛速度和精度,得了优化支持向量机模型.并以信用卡案例数据作为研究对象进行了仿真,实验结果表明,混沌粒子群优化的SVM分类器比传统算法优化的SVM分类器的精度高和更高的效率,应用效果好.  相似文献   

9.
支持向量机参数的选择决定着支持向量机的分类精度和泛化能力,而其参数优化缺乏理论指导,在此背景下提出了ACO-SVM模型。该模型将SVM分类预测准确率作为目标函数,对蚁群算法进行改进,引入有向搜索和基于时变函数更新的信息素更新原则,利用蚁群算法的并行性、正反馈机制和较强的鲁棒性,以求得最优目标并得到SVM的最优参数组合。数值实验结果表明,改进蚁群算法在SVM参数优化选取中具有更好的寻优性能,具有较高的分类准确率;该方法具有较好的并行性和较强的全局寻优能力。  相似文献   

10.
已有稀疏多核学习(MKL)模型在产生核函数权重稀疏解时容易导致信息丢失且泛化能力差,且基于梯度下降法的MKL在接近最优解时收敛速度慢.建立了基于支持向量机(SVM)的弹性多核学习(EMKL)模型并给出了一种基于牛顿梯度优化的EMKL(NO-EMKL).模型在MKL的目标函数中引入弹性项,并设计了基于二阶牛顿梯度下降法的优化算法.实验结果表明:算法不仅具有更好的分类精度,还具有较快的收敛速度.  相似文献   

11.
支持向量机核函数选择研究与仿真   总被引:2,自引:0,他引:2       下载免费PDF全文
支持向量机是一种基于核的学习方法,核函数选取对支持向量机性能有着重要的影响,如何有效地进行核函数选择是支持向量机研究领域的一个重要问题。目前大多数核选择方法不考虑数据的分布特征,没有充分利用隐含在数据中的先验信息。为此,引入能量熵概念,借助超球体描述和核函数蕴藏的度量特征,提出一种基于样本分布能量熵的支持向量机核函数选择方法,以提高SVM学习能力和泛化能力。数值实例仿真验证表明了该方法的可行性和有效性。  相似文献   

12.
在实际应用中,支持向量机的性能依赖于参数的选择。针对支持向量机的参数选择问题进行了研究和分析,提出了基于均匀设计的支持向量机参数优化方法。与基于网格搜索、粒子群算法、遗传算法等支持向量机参数优化方法进行了比较与分析,采用多个不同规模的标准的分类数据集进行测试,比较了四种方法的分类正确率和运行时间。仿真实验表明,四种方法都能找到最优参数,使支持向量机的分类正确率接近或超过分类数据集的理论精度,本文方法具有寻参时间短的特点。  相似文献   

13.
基于Fisher 准则和最大熵原理的SVM核参数选择方法   总被引:1,自引:0,他引:1  
针对支持向量机(SVM)核参数选择困难的问题,提出一种基于Fisher准则和最大熵原理的SVM核参数优选方法.首先,从SVM分类器原理出发,提出SVM核参数优劣的衡量标准;然后,根据此标准利用Fisher准则来优选SVM核参数,并引入最大熵原理进一步调整算法的优选性能.整个模型采用粒子群优化算法(PSO)进行参数寻优.UCI标准数据集实验表明了所提方法具有良好的参数选择效果,优选出的核参数能够使SVM具有较高的泛化性能.  相似文献   

14.
Kernel Function in SVM-RFE based Hyperspectral Data band Selection   总被引:2,自引:0,他引:2  
Supporting vector machine recursive feature elimination (SVM-RFE) has a low efficiency when it is applied to band selection for hyperspectral dada,since it usually uses a non-linear kernel and trains SVM every time after deleting a band.Recent research shows that SVM with non-linear kernel doesn’t always perform better than linear one for SVM classification.Similarly,there is some uncertainty on which kernel is better in SVM-RFE based band selection.This paper compares the classification results in SVM-RFE using two SVMs,then designs two optimization strategies for accelerating the band selection process:the percentage accelerated method and the fixed accelerated method.Through an experiment on AVIRIS hyperspectral data,this paper found:① Classification precision of SVM will slightly decrease with the increasing of redundant bands,which means SVM classification needs feature selection in terms of classification accuracy;② The best band collection selected by SVM-RFE with linear SVM that has higher classification accuracy and less effective bands than that with non-linear SVM;③ Both two optimization strategies improved the efficiency of the feature selection,and percentage eliminating performed better than fixed eliminating method in terms of computational efficiency and classification accuracy.  相似文献   

15.
为了提高SVM的分类器性能,提出使用蚁群算法来指导SVM模型参数的选择,并针对采用RBF作为核函数的SVM进行了实验。然后将该方法与基于GA的SVM模型选择方法进行了比较。实验证明采用蚁群算法具有一定的优势,它能在较短的时间内寻找到最优解,且最终得到的分类结果优于遗传算法。  相似文献   

16.
支持向量机最优模型选择的研究   总被引:18,自引:0,他引:18  
通过对核矩阵的研究,利用核矩阵的对称正定性,采用核校准的方法提出了一种SVM最优模型选择的算法——OMSA算法.利用训练样本不通过SVM标准训练和测试过程而寻求最优的核参数和相应的最优学习模型,弥补了传统SVM在模型选择上经验性强和计算量大的不足.采用该算法在UCI标准数据集和FERET标准人脸库上进行了实验,结果表明,通过该算法找到的核参数以及相应的核矩阵是最优的,得到的SVM分类器的错误率最小.该算法为SVM最优模型选择提供了一种可行的方法,同时对其他基于核的学习方法也具有一定的参考价值.  相似文献   

17.
SVM-RFE特征选择算法是一种有效的特征选择方法,具有较高的应用价值。针对传统SVM-RFE特征选择算法中SVM参数(γ和C)难以确定的问题,本文采用粒子群算法搜索SVM的参数。然后将特征向量映射到SVM参数γ确定的核空间中并进行特征选择,有效地将特征选择与SVM分类器设计关联起来。仿真结果表明,特征选择后的数据集仍能保证SVM分类器具有较高的分类正确率。  相似文献   

18.
针对支持向量机(SVM)参数大多凭经验选择的费时问题,提出基于遗传算法(GA)的SVM参数选取方法和基于组件对象模型(COM)技术实现Visual C#与Matlab 的混合编程方法。以质量预测系统中GA-SVM预测模型建模和程序实现为例给出2 种方法的具体实现。结果表明,使用GA优化SVM参数能充分发挥GA算法特性,降低参数选择的时间;使用COM技术的混合编程能提高程序开发和运行的 效率。  相似文献   

19.
基于蚁群算法的SVM模型选择研究   总被引:3,自引:0,他引:3  
为了提高SVM的分类器性能,提出使用蚁群算法来指导SVM模型参数的选择,并针对采用RBF作为核函数的SVM进行了实验。然后将该方法与基于GA的SVM模型选择方法进行了比较。实验证明采用蚁群算法具有一定的优势,它能在较短的时间内寻找到最优解,且最终得到的分类结果优于遗传算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号