首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 78 毫秒
1.
为有效解决支持向量回归中的参数选择问题,提出了一种新算法——AGA-SVR.在该算法中,通过适时增加染色体变异的概率来提高染色体的多样性,克服了标准遗传算法存在个体容易早熟的缺陷,从而增加学习到全局最优的几率.通过将AGA-SVR应用于上证开盘指数预测,结果验证了该算法优于标准遗传算法及经典梯度下降算法.  相似文献   

2.
支持向量机最优模型选择的研究   总被引:18,自引:0,他引:18  
通过对核矩阵的研究,利用核矩阵的对称正定性,采用核校准的方法提出了一种SVM最优模型选择的算法——OMSA算法.利用训练样本不通过SVM标准训练和测试过程而寻求最优的核参数和相应的最优学习模型,弥补了传统SVM在模型选择上经验性强和计算量大的不足.采用该算法在UCI标准数据集和FERET标准人脸库上进行了实验,结果表明,通过该算法找到的核参数以及相应的核矩阵是最优的,得到的SVM分类器的错误率最小.该算法为SVM最优模型选择提供了一种可行的方法,同时对其他基于核的学习方法也具有一定的参考价值.  相似文献   

3.
支持向量机回归的参数选择方法   总被引:5,自引:3,他引:5       下载免费PDF全文
闫国华  朱永生 《计算机工程》2009,35(14):218-220
综合4种支持向量机回归的参数选择方法的优点,提出一种对训练样本进行分析并直接确定参数的方法。在标准测试数据集上的试验证明,该方法与传统网格搜索法相比,在时间和预测精度方面取得了更好的结果,可以较好地解决支持向量机在实际应用中参数难以选择、消耗时间长的问题。  相似文献   

4.
基于正则化路径的支持向量机近似模型选择   总被引:2,自引:0,他引:2  
模型选择问题是支持向量机的基本问题.基于核矩阵近似计算和正则化路径,提出一个新的支持向量机模型选择方法.首先,发展初步的近似模型选择理论,包括给出核矩阵近似算法KMA-α,证明KMA-α的近似误差界定理,进而得到支持向量机的模型近似误差界.然后,提出近似模型选择算法AMSRP.该算法应用KMA-α计算的核矩阵的低秩近似来提高支持向量机求解的效率,同时应用正则化路径算法来提高惩罚因子C参数调节的效率.最后,通过标准数据集上的对比实验,验证了AMSRP的可行性和计算效率.实验结果显示,AMSRP可在保证测试集准确率的前提下,显著地提高支持向量机模型选择的效率.理论分析与实验结果表明,AMSRP是一合理、高效的模型选择算法.  相似文献   

5.
支持向量机参数选择方法分析   总被引:1,自引:0,他引:1  
邓小文 《福建电脑》2005,(11):30-31,57
在分析支持向量机原理的基础上,分析了SVM中核函数、核参数及惩罚参数C的影响。介绍了三神SVM参数选择方法,并讨论了其优点和不足。  相似文献   

6.
王强  陈英武  邢立宁 《计算机工程》2007,33(15):40-42,6
为提高支持向量回归算法的学习能力和泛化性能,提出了一种优化支持向量回归参数的混合选择算法。根据训练样本的规模和噪声水平等信息,确定支持向量回归参数的取值范围,用实数编码的免疫遗传算法搜索最佳参数值。混合选择算法具有较高的精度和效率,在选择支持向量回归参数时,不必考虑模型的复杂度和变量维数。仿真实验结果表明,该算法是选择支持向量回归参数的有效方法,应用到函数逼近问题时具有优良的性能。  相似文献   

7.
支持向量机是现代人工智能领域中的一个重要分支,它在统计学习理论的基础上,实现了结构风险最小化,提高了分类器的泛化能力,保证了分类的准确度。论文提出一种基于多分类支持向量机的模式识别方法,采用特征选择序列极小化算法对数据样本特征进行选择,并在此基础上,分析对比了“一对一”分类算法和“一对多”分类算法,实验结果表明,“一对一”分类算法的分类准确性较高,且具有较好的推广能力。  相似文献   

8.
分析支持向量机的几种常用的训练方法,在这个基础上提出一种改进的支持向量机学习方法。该方法将违反KKT条件程度最厉害的样本提取出来,然后缓存这些样本,作为工作集的选择范围,而且根据训练时缓存的特点,在缓存的替换上给出一种新的方法。该方法提高核缓存的命中率,减少工作集选择的代价,从而减少训练时间。实验表明,该方法能够很好地提高支持向量机的训练速度。  相似文献   

9.
核函数是支持向量回归机的重要部分,每种核函数都有其优势和不足。本文基于支持向量机回归机模型相关参数的选取原则,给出了一种具有混合核函数的支持向量机,以基于网格搜索的多蚁群算法为基础,给出了此类混合核函数支持向量回归机参数优化的一种新方法。该方法以最小化交叉验证误差为目标,对包括混合比例和各类核函数的参数在内的5个参数进行优化。仿真结果表明,与遗传算法相比,本方法在参数优化方面有良好的性能,建立的预测模型精度较高。  相似文献   

10.
基于支持向量机的人眼检测   总被引:1,自引:0,他引:1       下载免费PDF全文
人眼检测是计算机人脸识别的重要部分。复杂环境下人眼定位容易受到光照以及人不同姿态的影响。为了解决复杂环境下的人眼定位问题,采用基于支持向量机的人眼检测算法,首先对复杂环境下采集的不同人的人眼样本进行灰度化均衡以及小波变换,将变换结果表示成向量形式,运用序贯最小优化算法进行训练,得到一组支持向量,然后遍历待检测人脸图利用支持向量所构成的分类器进行人眼初检,最后根据先验知识完成信息融合,最终标定人眼。实验结果表明,该算法对各种复杂环境下的含人眼图像有普遍的适应性和有效性。  相似文献   

11.
Choosing Multiple Parameters for Support Vector Machines   总被引:158,自引:0,他引:158  
The problem of automatically tuning multiple parameters for pattern recognition Support Vector Machines (SVMs) is considered. This is done by minimizing some estimates of the generalization error of SVMs using a gradient descent algorithm over the set of parameters. Usual methods for choosing parameters, based on exhaustive search become intractable as soon as the number of parameters exceeds two. Some experimental results assess the feasibility of our approach for a large number of parameters (more than 100) and demonstrate an improvement of generalization performance.  相似文献   

12.
回归支持向量机的改进序列最小优化学习算法   总被引:20,自引:1,他引:20  
张浩然  韩正之 《软件学报》2003,14(12):2006-2013
支持向量机(support vector machine,简称SVM)是一种基于结构风险最小化原理的学习技术,也是一种新的具有很好泛化性能的回归方法,提出了实现回归支持向量机的一种改进的SMO(sequential minimal optimization)算法,给出了两变量子优化问题的解析解,设计了新的工作集选择方法和停止条件,仿真实例说明,所提出的SMO算法比原始SMO算法具有更快的运算速度.  相似文献   

13.
An Incremental Learning Strategy for Support Vector Regression   总被引:1,自引:0,他引:1  
Support vector machine (SVM) provides good generalization performance but suffers from a large amount of computation. This paper presents an incremental learning strategy for support vector regression (SVR). The new method firstly formulates an explicit expression of ||W||2 by constructing an orthogonal basis in feature space together with a basic Hilbert space identity, and then finds the regression function through minimizing the formula of ||W||2 rather than solving a convex programming problem. Particularly, we combine the minimization of ||W||2 with kernel selection that can lead to good generalization performance. The presented method not only provides a novel way for incremental SVR learning, but opens an opportunity for model selection of SVR as well. An artificial data set, a benchmark data set and a real-world data set are employed to evaluate the method. The simulations support the feasibility and effectiveness of the proposed approach.  相似文献   

14.
张凯军  梁循 《自动化学报》2014,40(10):2288-2294
在支持向量机(Support vector machine, SVM)中, 对核函数的定义非常重要, 不同的核会产生不同的分类结果. 如何充分利用多个不同核函数的特点, 来共同提高SVM学习的效果, 已成为一个研究热点. 于是, 多核学习(Multiple kernel learning, MKL)方法应运而生. 最近, 有的学者提出了一种简单有效的稀疏MKL算法,即GMKL (Generalized MKL)算法, 它结合了L1 范式和L2范式的优点, 形成了一个对核权重的弹性限定. 然而, GMKL算法也并没有考虑到如何在充分利用已经选用的核函数中的共有信息. 另一方面, MultiK-MHKS算法则考虑了利用典型关联分析(Canonical correlation analysis, CCA)来获取核函数之间的共有信息, 但是却没有考虑到核函数的筛选问题. 本文模型则基于这两种算法进行了一定程度的改进, 我们称我们的算法为改进的显性多核支持向量机 (Improved domain multiple kernel support vector machine, IDMK-SVM). 我们证明了本文的模型保持了GMKL 的特性, 并且证明了算法的收敛性. 最后通过模拟实验, 本文证明了本文的多核学习方法相比于传统的多核学习方法有一定的精确性优势.  相似文献   

15.
胡庆辉  丁立新  何进荣 《软件学报》2013,24(11):2522-2534
在机器学习领域,核方法是解决非线性模式识别问题的一种有效手段.目前,用多核学习方法代替传统的单核学习已经成为一个新的研究热点,它在处理异构、不规则和分布不平坦的样本数据情况下,表现出了更好的灵活性、可解释性以及更优异的泛化性能.结合有监督学习中的多核学习方法,提出了基于Lp范数约束的多核半监督支持向量机(semi-supervised support vector machine,简称S3VM)的优化模型.该模型的待优化参数包括高维空间的决策函数fm和核组合权系数θm.同时,该模型继承了单核半监督支持向量机的非凸非平滑特性.采用双层优化过程来优化这两组参数,并采用改进的拟牛顿法和基于成对标签交换的局部搜索算法分别解决模型关于fm的非平滑及非凸问题,以得到模型近似最优解.在多核框架中同时加入基本核和流形核,以充分利用数据的几何性质.实验结果验证了算法的有效性及较好的泛化性能.  相似文献   

16.
提出了一种基于局部多核支持向量机的视频镜头边界检测方法.利用视频图像相邻帧的时空信息构建视频中间特征,在此基础上利用局部多核支持向量机将视频帧划分为边界帧和非边界帧.为了提高基于全局优化的多核支持向量机的检测精度,利用局部敏感哈希算法将视频帧投影全哈希子空间,结合多核学习方法为各个哈希子空间构建局部多核支持向量机,利用SMOTE上采样技术解决了视频图像边界帧和普通帧的不平衡问题.试验结果表明,本文提出的镜头边界检测方法的金全率和查准率得到了提高.  相似文献   

17.
We study the typical properties of polynomial Support Vector Machines within a Statistical Mechanics approach that takes into account the number of high order features relative to the input space dimension. We analyze the effect of different features' normalizations on the generalization error, for different kinds of learning tasks. If the normalization is adequately selected, hierarchical learning of features of increasing order takes place as a function of the training set size. Otherwise, the performance worsens, and there is no hierarchical learning at all.  相似文献   

18.
回归最小二乘支持向量机的增量和在线式学习算法   总被引:40,自引:0,他引:40  
首先给出回归最小二乘支持向量机的数学模型,并分析了它的性质,然后在此基础上根据分块矩阵计算公式和核函数矩阵本身的特点设计了支持向量机的增量式学习算法和在线学习算法.该算法能充分利用历史的训练结果,减少存储空间和计算时间.仿真实验表明了这两种学习方法的有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号