首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 78 毫秒
1.
基于RBF核的SVM的模型选择及其应用   总被引:22,自引:2,他引:22  
使用RBF核的SVM(支持向量机)被广泛应用于模式识别中。此类SVM的模型选择取决于两个参数,其一是惩罚因子C,其二是核参数σ2。该文使用了网格搜索和双线性搜索两种方法进行参数选择,并将两者的优点综合,应用于脱机手写体英文字符识别。实验在NIST数据集上进行了验证,对搜索效率和推广识别率进行了比较。实验结果还表明使用最优参数的SVM在识别率上比使用ANN(人工神经元网络)的分类器有较大提高。  相似文献   

2.
基于SVM和GA的药物与人血清白蛋白结合的预测   总被引:5,自引:4,他引:1       下载免费PDF全文
为降低新药在临床实验的失败率,提高新药的ADME特性,在制药初期需考虑预测药物与HSA(人血清白蛋白)的结合能力,以提高预测正确率为目标并因此选取合适的制药成分。首先采用遗传算法对分子描述符进行筛选,然后利用支持向量机(SVM)模型预测药物与HSA的结合能力。针对支持向量机的分类精度和泛化能力取决于核函数参数选取的特点,提出了基于粒子群优化算法(PSO)的SVM核参数优化选择法。通过PSO自动获取SVM最佳核参数,并将结果同双线性网格搜索法比较,结果表明,建立的模型对药物与HSA之间的结合能力有较高的预测性,正确率达到86%。  相似文献   

3.
SVM分类核函数及参数选择比较   总被引:21,自引:0,他引:21       下载免费PDF全文
支持向量机(SVM)被证实在分类领域性能良好,但其分类性能受到核函数及参数影响。讨论核函数及参数对SVM分类性能的影响,并运用交叉验证与网格搜索法进行参数优化选择,为SVM分类核函数及参数选择提供借鉴。  相似文献   

4.
张慧档  贺昱曜 《计算机应用》2007,27(8):1961-1963
基于RBF核的支持向量机(SVM)模型选择取决于两个参数,即惩罚因子和核参数,为了寻找SVM参数的最优组合,利于笔迹鉴别图像的自动识别,提出了基于混沌序列的参数搜索算法以实现SVM模型参数的自动选择。从与网格法和双线性法进行的比较实验可以看出,基于混沌序列的SVM参数选取更简单,更易于实现,并使SVM具有更好的推广能力。在10人笔迹灰度图像库上分类识别实验结果表明,该方法不但可以提高分类识别率,而且显著减少了训练SVM的个数。  相似文献   

5.
一种快速的SVM最优核参数选择方法   总被引:1,自引:1,他引:0       下载免费PDF全文
支持向量机是一种基于核的学习方法,核函数及核参数的选择直接影响到SVM的泛化能力。传统的参数选择方法如网格搜索法,由于其计算量大,训练过程十分耗时,提出了一种新的快速选择最优核参数方法,该方法通过计算各类别在特征空间的可分性度量值来决定最优核参数,不需训练相应SVM分类模型,从而大大缩减了训练时间,提高了训练速度,且分类精度与传统方法相比,具有相当的竞争力。实验证明,该算法是可行有效的。  相似文献   

6.
将支持向量机(SVM)用于高光谱遥感影像分类的研究,采用决策边界特征提取(DBFE)算法对高光谱影像进行维数约简,以径向基函数(RBF)作为SVM模型的核函数,把混沌优化搜索技术引入到PSO算法中,以基本PSO算法为主体流程,对种群中最好的粒子进行给定步数的混沌优化搜索,以改进基本PSO算法进化后期收敛速度慢、易陷入局部极小值的缺陷。利用改进的混合粒子群优化算法(PSO)来实现SVM模型参数的自动选择,继而构建了一种参数最优的粒子群优化支持向量机(PSO-SVM)多类分类模型。选用220波段的AVIRIS高光谱遥感影像进行了分类试验。结果表明,与采用基于留一法(LOO)网格搜索策略的传统SVM相比,改进后的PSO-SVM算法可以提高分类精度约8.8%。该方法对于小样本、非均衡条件下的遥感影像数据分类非常有效。  相似文献   

7.
针对说话人识别实际应用中训练数据不足的问题,选取GMM-UBM作为基准系统模型,用EigenVoice对其作自适应,应用泛化能力较强的多项式核函数和学习能力较强的径向基核函数进行线性加权组合后的组合核函数进行模型参数优化,并用多重网格搜索法确定核函数的最优参数,采用DAG方法实现SVM核函数的多元分类.在仿真实验中评估了线性核、多项式核、径向基核以及组合核函数,实验结果表明,在采用正确的参数前提下,在不同的多分类策略、自适应时间、信噪比和不同的说话人数量的情况下,组合核函数的识别性能明显都优于其它三个单核函数.  相似文献   

8.
RBF核SVM及其应用研究   总被引:8,自引:1,他引:8  
因其核函数的良好性态,RBF核SVM(RBF-SVM)在实际应用中表现出良好的学习性能,但是RBF核函数中的参数对SVM的性能起决定性作用.阐述了RBF-SVM的性能随着变化而变化的规律,并将RBF-SVM引入自动羽绒识别系统中.根据自动羽绒识别系统的实际需求和RBF-SVM的性能变化规律,论述了本系统中参数的选取依据和选取过程,并且给出了的相关曲线变化图.通过研究,最后得到适合本系统的识别模型,从而提高了系统的总体识别率.同时,也验证了RBF-SVM的良好特性和其受参数的约束规律.  相似文献   

9.
传统的支撑向量机(SVM)训练速度非常慢,使用RBF核的序列最小优化(SMO)是有效的SVM改进算法.综合网格法和双线形法的优点,提出分段层近法选择参数惩罚因子C和核参数σ2.同时用来训练二维数据,实验证明,SMO算法与传统的SVM算法都使用该法选定参数,在推广识别率方面为同一水平的情况下,运行速度有很大的提高.  相似文献   

10.
首先运用Bagging算法解决样本数据变化带来的不稳定性,然后运用网格搜索法寻找合适的训练样本尺寸,再结合两者的特点,提出了一种自助网格搜索算法,从多个支持向量机(SVM)分类器中寻求一个最优的SVM分类器.实验结果表明,算法有效地提高了分类器的学习精度与学习性能,对大样本数据来说,可以用相对较少的样本进行训练后的性能来预测它对一个非常庞大的训练集的性能,大大减少了SVM训练的时间.  相似文献   

11.
支持向量机分类器遥感图像分类研究   总被引:1,自引:0,他引:1       下载免费PDF全文
SVM分类器核函数的选择以及参数的设置直接影响系统的泛化能力和运行速度。引入交叉验证技术和栅格搜索技术,对径向基核、多项式核和Sigmoid核函数应用于图像多类别分类的性能进行理论推导、测试及分析,求得三种核函数应用于SVM分类器的性能,并证明了栅格搜索寻找最优参数的有效性。最后通过对TM6波段BSQ格式遥感图像进行分类对比证明了SVM分类器核函数用于TM图像分类的可行性及高效性。  相似文献   

12.
基于网格模式搜索的支持向量机模型选择   总被引:2,自引:0,他引:2       下载免费PDF全文
支持向量机的模型选择问题就是对于一个给定的核函数,调节核参数和惩罚因子C。分析了网格搜索算法和模式搜索算法,通过结合上述两种算法的优点提出了网格模式搜索算法。其核心原理是先用网格算法在全局范围内进行快速搜索,找到最优解的最小区间,再在这个最小区间内用模式搜索算法找到最优解。实验证明,网格模式搜索具有学习精度高和速度快的优点。  相似文献   

13.
针对传统浊度传感器的非线性误差,无法满足直接对水中浊度进行精确测量的需求,提出了一种支持向量机的方法补偿其性能。而支持向量机中惩罚系数和核参数决定了其补偿的性能,传统支持向量机寻参方法速度慢、运算量大,具有一定的局限性。针对其参数的选择优化提出了改进的网格搜索法优化支持向量机,即采用改进的网格搜索法来针对水质浊度监测传感器补偿系统的特性来优化选择惩罚系数和核参数。实验结果表明,基于网格搜索法的支持向量机测量精度达到93.0%,其各项测量误差满足实际标准要求。  相似文献   

14.
针对气体定量分析中,支持向量机建模的参数难以确定以及现有的方法历时长等问题,提出了一种改进的网格搜索法,用于建立基于红外光谱的CO2气体定量分析模型。通过对汽车尾气中CO2气体的初始数据进行优化,再将优化的核函数代入支持向量机进行浓度的回归分析。对浓度范围在0.025%~20%的20组不同浓度的CO2气体进行定量分析,并与PSO算法作对比。实验表明,采用改进的网格搜索法获得的最佳参数c=0.25,g=2.8284,PSO获得的最佳参数c=18.3021,g=0.01,所用时间比PSO算法节省约5倍。预测结果误差在5%以内,符合国家对尾气排放的相关标准。  相似文献   

15.
本文针对核函数参数选择的随意性影响支持向量机分类性能的问题,提出了一种基于离散编码的蚁群算法(C-CACO-DE)的SVM核函数优化模型。C-CACO-DE解决了连续函数优化的蚁群算法(C-ACO)求解之前必须进行预处理的问题,解决了基于网格划分策略的连续域蚁群算法(CACO-GT)在求解精度的缺点、最优解必在定义域内的等分割点问题。仿真结果验证了该方法的有效性,F1值达到了90%以上。  相似文献   

16.
Determining the kernel and error penalty parameters for support vector machines (SVMs) is very problem-dependent in practice. A popular method to deciding the kernel parameters is the grid search method. In the training process, classifiers are trained with different kernel parameters, and only one of the classifiers is required for the testing process. This makes the training process time-consuming. In this paper we propose using the inter-cluster distances in the feature spaces to choose the kernel parameters. Calculating such distance costs much less computation time than training the corresponding SVM classifiers; thus the proper kernel parameters can be chosen much faster. Experiment results show that the inter-cluster distance can choose proper kernel parameters with which the testing accuracy of trained SVMs is competitive to the standard ones, and the training time can be significantly shortened.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号