首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 156 毫秒
1.
支持向量机的优化算法对准确检索所需信息资料很重要.传统支持向量机参数寻优方法速度慢、运算量大,具有一定的盲目性.针对准确快速检索到所需信息,为提高支持向量机算法的性能,提出了一种采用免疫算法对支持向量机参数进行优化的文本分类方法(IA-SVM).将支持向量机模型参数作为抗体的基因设计了抗体的编码方案,利用人工免疫算法对支持向量机的惩罚因子和径向基核函数进行优化搜索,使支持向量机的分类性能最优.实验结果表明,IA-SVM算法减少了对支持向量机参数选择的盲目性,在文本分类问题上明显提高了分类正确率和检索速度.  相似文献   

2.
基于支持向量机SVM的中文文本分类方法的泛化能力与其参数选取紧密相关,参数优化对文本分类精度有较大影响。为解决优化SVM参数难题,提出一种基于模拟退火(SA)优化SVM的文本分类方法。将文本分类准确率作为模拟退火的优化目标,利用SA良好的寻优能力搜索SVM的最优参数组合。在相同的数据集上进行实验,结果表明模拟退火具有稳定的全局搜索性能,是优化SVM参数的一种有效方式。相比其他文本分类算法,基于SA-SVM的中文文本分类的分类准确率更高,泛化能力更强,具有良好的分类性能。  相似文献   

3.
支持向量机参数是影响其性能的重要因素,为了进一步提高支持向量机分类精度和泛化能力,提出了基于差分进化算法的SVM参数选择。以样本误判率最小为优化准则,利用差分进化算法对SVM参数进行优化选择。实验结果表明,利用差分进化算法选择SVM参数,加快了参数搜索的速度,提高了SVM分类精度,该方法具有良好的鲁棒性和较强的全局寻优能力。  相似文献   

4.
基于遗传算法对支持向量机模型中参数优化   总被引:3,自引:0,他引:3  
支持向量机是基于统计学习理论的结构风险最小化原理基础上提出来的一种学习算法,其在理论上保证了模型的最大泛化能力.针对支持向量机结构参数的选取在没有理论支持,选取又比较困难的情况下,对影响模型分类能力的相关参数进行了研究,提出了一种基于遗传算法和十折交叉检验相结合的遗传支持向量机(GA-SVM)算法,利用遗传算法的全局搜索特性得到支持向量机(SVM)的最优参数值,并用算例表明了此算法有效提高了分类的精度和效率.  相似文献   

5.
基于CMA—ES算法的支持向量机模型选择   总被引:1,自引:0,他引:1  
周文杰  徐勇 《计算机仿真》2010,27(4):163-166
研究模型选择对支持向量机(SVM)的泛化性能有着重要影响。针对传统梯度算法对初始值敏感及网格搜索法计算复杂的缺点,为了提高全面优化能力和分类精度,提出了一种基于协方差矩阵自适应进化策略(CMA-ES)的支持向量机(SVM)模型优化算法,通过对SVM泛化性能界(Bounds on Generalization Performance)的优化求解,实现了基于CMA-ES算法的SVM模型选择。在标准数据集上的实验结果表明:相比遗传算法和梯度算法,上述方法能够在较小计算代价下得到更优的超参数,提高支持向量机的预测精度稳定性,尤其适合大样本数据条件下的模型选择。  相似文献   

6.
文本的倾向性分类器是文本倾向性分类的核心部分,它用于将待分类的文本映射到某一倾向性类别中去。传统支持向量机的核函数学习能力和泛化推广能力的平衡性有待提高,而且参数选择不易。对目前文本倾向性分类算法使用的传统的支持向量机进行了改进,一是构造了多核函数;二是使用粒子群算法对支持向量机的参数进行优化,平衡了核函数的全局性和局部性,更有利于对样本数据的学习和推广;最后利用改进的支持向量机构造文本倾向性分类算法。  相似文献   

7.
支持向量机(Support Vector Machine,SVM)是根据有限的样本信息在模型的复杂性和学习能力之间寻求最佳折中,以期获得最好的泛化能力,并且在解决文本分类中表现出很多特有的优势。本文以文本分类为主要任务,讨论了目前存在的几种二叉树多类SVM算法组合策略。并用中改进的多类SVM分类算法作为文本分类器核心算法,并在多类文本分类实验中进行验证。  相似文献   

8.
支持向量机参数的选择对建模精度和泛化性能等有着重要的影响,提出量子粒子群优化(QPSO)改进算法优化支持向量机(SVM)参数的方法。该方法首先将混合扰动算子引入QPSO算法中,用于获取平均最优位置,建立一种基于混合扰动算子的QPSO算法改进方法(IQPSO),然后用IQPSO算法的全局优化能力对支持向量机惩罚系数和核参数进行综合寻优,求取最优化参数组合,从而提高支持向量机的求解速度和解的精确性。利用测试函数和UCI测试数据,对IQPSO-SVM进行仿真测试与分类,实验结果表明,IQPSO能获得很好的优化结果,IQPSO-SVM具有较好的泛化性能。  相似文献   

9.
马驰  阮秋琦 《微机发展》2007,17(12):20-23
支持向量机(SVM)的学习性能和泛化能力主要取决于参数选择,然而传统的优化算法难以解决此问题。文中通过支持向量的个数建立优化目标函数,采用微粒群优化(PSO)算法对其优化,寻找最优参数。PSO是一种新兴的基于群体智慧的进化算法。实验表明,微粒群优化算法是支持向量机参数选择的有效方法。  相似文献   

10.
支持向量机算法(SVM)具有可靠的全局最优性和良好的泛化能力,适用于有限样本的学习,而该算法的成功与否很大程度上取决于其参数的选择,而常规经验选取方法往往不能获得满意效果。利用粒子群算法(PSO)随机搜索策略对支持向量机参数进行优选,建立基于粒子群算法参数优化的支持向量机模型(PSO-SVM)。仿真结果表明,该优化模型比传统的人工神经网络(BP)模拟效果要好,在拟合精度方面有很大的提高,且具有较好的泛化能力。  相似文献   

11.
针对二类支持向量机分类器在图像密写分析应用中训练步骤复杂与推广性弱的缺点,提出了基于一类支持向量机分类器的真彩隐秘图像盲检测算法,算法选用小波包高阶统计特征,仅对正常图像训练建立分类器。实验表明,算法在检测系统效率和推广性方面有较好的表现。  相似文献   

12.
支持向量机(Support Vector Machines,简称SVM)根据有限的样本信息在对文本分类的精度和学习能力之间,相比其他的文本分类算法寻求了最佳折中,从而获得了较好的推广能力。而SVM是从线性可分情况下的最优分类面发展而来的,因此对于线性可分文本具有更好的分类效果。给出了一种效率较高的线性可分文本的SVM算法,它在训练的时间复杂度上具有明显的改进,从而可以提高训练效率。结果表明:改进后的SVM算法相比以前的算法大大提高了运行效率。  相似文献   

13.
最小二乘支持向量机在睡眠打鼾诊断中的应用   总被引:1,自引:0,他引:1       下载免费PDF全文
支持向量机是数据挖掘和机器学习领域中的重要方法之一,最小二乘支持向量机是支持向量机学习算法的重要扩展,在训练速度方面有明显优势。对支持向量机现有的多类分类算法(一对一方法、一对多方法、纠错输出编码方法和最小输出编码方法)引入了最小二乘支持向量机,并应用于睡眠打鼾疾病的诊断预测中,取得了较好的效果。  相似文献   

14.
基于改进遗传算法的支持向量机参数优化   总被引:2,自引:0,他引:2  
支持向量机是一种非常有前景的学习机器,但是,支持向量机参数的选取一直没有一套成熟的理论,这给支持向量机的应用带来了很大的不便.为此,本文提出了基于改进遗传算法的支持向量机的参数优化方法,利用遗传算法的全局搜索能力得到支持向量机的最优参数值.仿真实验结果表明,得到的参数可使支持向量机具有良好的泛化性能,此方法切实有效.  相似文献   

15.
Large-scale Support Vector Machine (SVM) classification is a very active research line in data mining. In recent years, several efficient SVM generation algorithms based on quadratic problems have been proposed, including: Successive OverRelaxation (SOR), Active Support Vector Machines (ASVM) and Lagrangian Support Vector Machines (LSVM). These algorithms have been used to solve classification problems with millions of points. ASVM is perhaps the fastest among them. This paper compares a new projection-based SVM algorithm with ASVM on a selection of real and synthetic data sets. The new algorithm seems competitive in terms of speed and testing accuracy.  相似文献   

16.
张岩  闫德勤  郑宏亮 《计算机应用》2011,31(10):2786-2789
针对传统支持向量机(SVM)对噪声点过于敏感,模糊支持向量机(FSVM)又对样本集几何形状过分依赖等问题,提出基于噪声过滤系统的粗糙支持向量机(NFS-RSVM)。该方法首先用噪声过滤系统(NFS)将极可能为噪声点的样本过滤掉;然后将数据间隐含的等价类信息作为双惩戒因子融入到支持向量机模型中,进一步区分有效样本和噪声样本。基于UCI数据集的仿真结果表明,NFS-RSVM方法能有效地将数据中的大部分噪声点去除,与传统的SVM和FSVM相比分类精度有一定程度的提高。因此,该方法在处理噪声样本较多又呈现非球形分布的数据集时,表现出较好的抗噪性、分类效果和泛化能力。  相似文献   

17.
模糊支持向量机隶属度的确定方法   总被引:2,自引:0,他引:2  
传统的支持向量机对噪声或野点是敏感的,针对这种情况,引入了模糊支持向量机,但模糊隶属度的确定是个难点。利用基于线性规划下的一类分类算法来确定模糊隶属度,根据不同输入样本对分类的贡献不同,赋予相应的隶属度,将噪声或野点与有效样本区分开。实验结果表明,模糊支持向量机比传统的支持向量机有更好的分类效果,能够削弱噪声或野点的影响。  相似文献   

18.
为解决网络入侵检测系统中检测算法分类精度不高训练样本数需要较多以及训练学习时间较长等问题,在基于支持向量机的基础上,提出一种新的利用隐空间支持向量机设计IDS的检测算法.仿真实验结果表明本算法较基于支持向量机的检测算法具有更良好的泛化性能,更快的迭代速度,更高的检测精度和更低的误报率.  相似文献   

19.
《Pattern recognition》2003,36(7):1479-1488
Semiparametric Support Vector Machines have shown to present advantages with respect to nonparametric approaches, in the sense that generalization capability is further improved and the size of the machines is always under control. We propose here an incremental procedure for Growing Support Vector Classifiers, which serves to avoid an a priori architecture estimation or the application of a pruning mechanism after SVM training. The proposed growing approach also opens up new possibilities for dealing with multi-kernel machines, automatic selection of hyperparameters, and fast classification methods. The performance of the proposed algorithm and its extensions is evaluated using several benchmark problems.  相似文献   

20.
基于神经网络的粒子群算法优化SVM参数问题   总被引:1,自引:0,他引:1  
对支持向量机的核参数选取到目前仍没有形成一套成熟的理论,严重影响了其广泛的应用。对核参数的选取做了一定的探讨。将神经网络与粒子群优化算法相结合并用于支持向量机核函数的参数优化。该方法能够同时具有神经网络较强的非线性拟合能力和粒子群优化算法的寻优能力。数值实验结果表明该算法对支持向量机核参数的优化是可行的、有效的,并且具有较高的分类准确率和较好的推广性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号