首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
最小二乘支持向量机算法研究   总被引:17,自引:0,他引:17  
1 引言支持向量机(SVM,Support Vector Machines)是基于结构风险最小化的统计学习方法,它具有完备的统计学习理论基础和出色的学习性能,在模式识别和函数估计中得到了有效的应用(Vapnik,1995,1998)。支持向量机方法一方面通过把数据映射到高维空间,解决原始空间中数据线性不可分问题;另一方面,通过构造最优分类超平面进行数据分类。神经网络通过基于梯度迭代的方法进行数据学习,容易陷入局部最小值,支持向量机是通过解决一个二次规划问题,来获得  相似文献   

2.
李卉  杨志霞 《计算机应用》2005,40(11):3139-3145
针对多分类学习模型性能会受异常值影响的问题,提出基于Rescaled Hinge损失函数的多子支持向量机(RHMBSVM)。首先,该方法通过引入有界、非凸的Rescaled Hinge损失函数来构建相应的优化问题;然后,利用共轭函数理论将优化问题作等价变换;最后,使用变量交替策略形成一个迭代算法来求解非凸优化问题,该方法在求解的过程中可自动调节每个样本点的惩罚权重,从而削弱了异常值对K个超平面的影响,增强了鲁棒性。使用5折交叉验证的方法进行数值实验,实验结果表明,在数据集无异常值的情况下,该方法的正确率比多子支持向量机(MBSVM)提升了1.11个百分点,比基于Rescaled Hinge损失函数的鲁棒支持向量机(RSVM-RHHQ)提升了0.74个百分点;在数据集有异常值的情况下,该方法的正确率比MBSVM提升了2.10个百分点,比RSVM-RHHQ提升了1.47个百分点。实验结果证明了所提方法在解决有异常值的多分类问题上的鲁棒性。  相似文献   

3.
李卉  杨志霞 《计算机应用》2020,40(11):3139-3145
针对多分类学习模型性能会受异常值影响的问题,提出基于Rescaled Hinge损失函数的多子支持向量机(RHMBSVM)。首先,该方法通过引入有界、非凸的Rescaled Hinge损失函数来构建相应的优化问题;然后,利用共轭函数理论将优化问题作等价变换;最后,使用变量交替策略形成一个迭代算法来求解非凸优化问题,该方法在求解的过程中可自动调节每个样本点的惩罚权重,从而削弱了异常值对K个超平面的影响,增强了鲁棒性。使用5折交叉验证的方法进行数值实验,实验结果表明,在数据集无异常值的情况下,该方法的正确率比多子支持向量机(MBSVM)提升了1.11个百分点,比基于Rescaled Hinge损失函数的鲁棒支持向量机(RSVM-RHHQ)提升了0.74个百分点;在数据集有异常值的情况下,该方法的正确率比MBSVM提升了2.10个百分点,比RSVM-RHHQ提升了1.47个百分点。实验结果证明了所提方法在解决有异常值的多分类问题上的鲁棒性。  相似文献   

4.
具有多分段损失函数的多输出支持向量机回归   总被引:1,自引:1,他引:1  
对多维输入、多维输出数据的回归,可以采用多输出支持向量机回归算法.本文介绍具有多分段损失函数的多输出支持向量机回归,其损失函数对落在不同区间的误差值采用不同的惩罚函数形式,并利用变权迭代算法,给出回归函数权系数和偏置的迭代公式.仿真实验表明,该算法的精确性和计算工作量都优于使用多个单输出的支持向量机回归算法.  相似文献   

5.
支持向量机回归模型的性能与所选用的损失函数有很大关系.本文提出一种具分段损失函数的支持向量机回归模型,其分段损失函数对落在不同区间的误差项采用不同的惩罚函数形式,并将该模型应用于投资决策问题中,估计收益率向量的联合概率密度函数和最优投资组合.仿真实验表明,其性能要优于一般的支持向量回归方法.  相似文献   

6.
提出一种新型的基于光滑Ramp损失函数的健壮支持向量机,能够有效抑制孤立点对泛化性能的影响,并采用CCCP将它的非凸优化目标函数转换成连续、二次可微的凸优化。在此基础上,给出训练健壮支持向量机的一种Newton型算法并且分析了算法的收敛性质。实验结果表明,提出的健壮支持向量机对孤立点不敏感,在各种数据集上均获得了比传统的SVMlight算法和Newton-Primal算法更优的泛化能力。  相似文献   

7.
基于尺度核函数的最小二乘支持向量机   总被引:1,自引:0,他引:1  
支持向量机的核函数一直是影响其学习效果的重要因素.本文基于小波分解理论和支持向量机核函数的条件,提出一种多维允许支持向量尺度核函数.该核函数不仅具有平移正交性,且可以以其正交性逼近二次可积空间上的任意曲线,从而提升支持向量机的泛化性能.在尺度函数作为支持向量核函数的基础之上,提出基于尺度核函数的最小二乘支持向量机(LS-SSVM).实验结果表明,LS-SSVM在同等条件下比传统支持向量机的学习精度更高,因而更适用于复杂函数的学习问题.  相似文献   

8.
为了求解广义支持向量机(GSVM)的优化问题,将带有不等式约束的原始优化问题转化为无约束优化问题,由于此无约束优化问题的目标函数不光滑,所以引入一族多项式光滑函数进行逼近,实验中可以根据不同的精度要求选择不同的逼近函数。用BFGS算法求解。实验结果表明,该算法和已有的GSVM的求解算法相比,更快地获得了更高的测试精度,更适合大规模数据集的训练。因此给出的GSVM的求解算法是有效的。  相似文献   

9.
最小二乘隐空间支持向量机   总被引:9,自引:0,他引:9  
王玲  薄列峰  刘芳  焦李成 《计算机学报》2005,28(8):1302-1307
在隐空间中采用最小二乘损失函数,提出了最小二乘隐空间支持向量机(LSHSSVMs).同隐空间支持向量机(HSSVMs)一样,最小二乘隐空间支持向量机不需要核函数满足正定条件,从而扩展了支持向量机核函数的选择范围.由于采用了最小二乘损失函数,最小二乘隐空问支持向量机产生的优化问题为无约束凸二次规划,这比隐空间支持向量机产生的约束凸二次规划更易求解.仿真实验结果表明所提算法在计算时间和推广能力上较隐空间支持向量机存在一定的优势.  相似文献   

10.
针对传统支持向量机无法适应大规模问题,通过引入加权线性损失函数,取代标准支持向量机的Hinge损失,提出一种加权线性损失支持向量机WLSVM(Weighted Linear Loss Support Vector Machine)。它的主要方法是:(1)通过对线性损失增加权重,提出对不同位置上的训练点给出不同惩罚,在一定程度上避免了过度拟合,增强了泛化能力。(2)仅需计算非常简单的数学表达式就可获得分类超平面,且方便解决大规模问题。通过在合成和真实数据集上的试验,结果表明:WLSVM的分类精度高于SVM和LSSVM,且减少了计算时间,尤其对于大规模问题。  相似文献   

11.
基于核函数的支持向量机分类方法   总被引:2,自引:0,他引:2  
支持向量机是目前正在兴起的一种新的数据挖掘分类方法,阐述了支持向量机的理论基础及核函数,阐明了支持向量机分类的基本思想,分析了支持向量机的优缺点,对支持向量机在海量数据分类中的应用前景进行了展望。  相似文献   

12.
罗瑜  李涛  王丹琛  何大可 《计算机工程》2007,33(19):186-187
继神经网络方法之后,支持向量机成为机器学习领域中的有效方法,但是核函数的评价和选取问题一直存在。该文从结构风险出发,通过经验风险和置信区间2个方面对核函数的性能进行量化,给出评价核函数性能的公式,指出传统经验风险定义的缺陷,并提出了一个新的定义。实验证明了该算法的可行性和有效性。  相似文献   

13.
不平衡数据广泛存在于现实生活中,代价敏感学习能有效解决这一问题。然而,当数据的标记信息有限或不足时,代价敏感学习分类器的分类精度大大下降,分类性能得不到保证。针对这一情况,该文提出了一种局部几何保持的Laplacian代价敏感支持向量机(LPCS-LapSVM),该模型基于半监督学习框架,将代价敏感学习和类内局部保持散度的思想引入其中,从考虑内在可分辨信息和样本的局部几何分布两方面来提高代价敏感支持向量机在标记信息有限的场景中的分类性能。UCI数据集上的实验结果表明了该算法的有效性。  相似文献   

14.
支持向量机的核函数类型分为两类:局部核函数和全局核函数.局部核函数的值只受到相距很近数据点的影响,有很好的学习能力.全局核函数的值会受到距离较远数据点的影响,有很好的推广泛化能力.针对局部核函数学习能力良好但泛化能力差的缺点,提出一种结合局部核函数和全局核函数构造新联合函数的方法.实验结果表明,与局部核函数和全局核函数相比,新联合核函数有更好的预测能力,并且能够适应增量学习的过程.  相似文献   

15.
基于向量投影的支撑向量预选取   总被引:21,自引:0,他引:21  
支撑向量机是近年来新兴的模式识别方法,在解决小样本、非线性及高维模式识别问题中表现出了突出的优点.但在支撑向量机中,支撑向量的选取相当困难,这也成为限制其应用的瓶颈问题.该文对支撑向量机的机理经过认真分析,研究其支撑向量的分布特性,在不影响分类性能的前提下,提出了基于向量投影的支撑向量预选取法,从训练样本中预先选择具有一定特征的边界向量来代替训练样本进行训练,这样就减少了训练样本,大大加快了支撑向量机的训练速度。  相似文献   

16.
基于线性临近支持向量机,提出一种改进的分类器一直接支持向量机.该分类器与临近支持向量机相比,对线性分类二者相同;对于非线性分类,直接支持向量机的Lagrangian乘子求解公式和分类器的表达式都更加简单,计算复杂度降低一半,且通过替代核函数就可实现线性与非线性的统一,可使用相同的算法代码,改正了临近支持向量机的不足.数值实验表明,非线性分类时,直接支持向量机的训练速度比临近支持向量机要快一倍左右,而测试速度则快更多,且分类精度并没有降低.  相似文献   

17.
工程造价预测一直是工程管理研究中的重点,针对工程造价预测中的支持向量机参数优化问题,提出一种改进粒子群算法优化支持向量机的工程造价预测模型(IPSO-SVM).首先收集工程造价数据,并对其进行归一化处理,然后采用支持向量机对工程造价的训练样本进行学习,并采用改进粒子群算法对支持向量机的核函数参数进行优化,最后采用Matlab 2012工具箱对工程造价进行仿真实验.实验结果表明,IPSO-SVM有效提高工程造价的预测精度,预测结果具有一定的实际应用价值.  相似文献   

18.
胡金扣  邢红杰 《计算机科学》2015,42(10):235-238
光滑支持向量机(Smooth Support Vector Machine,SSVM)是传统支持向量机的一种改进模型,它利用光滑方法将传统支持向量机的二次规划问题转化成无约束优化问题,并使用Newton-Armijo算法求解该无约束优化问题。在光滑支持向量机的基础上提出了鲁棒的光滑支持向量机(Robust Smooth Support Vector Machine,RSSVM),其利用M-estimator代替SSVM中基于L2范数的正则化项,并利用半二次最小化优化方法求解相应的最优化问题。实验结果表明所提方法可以有效地提高SSVM的抗噪声能力。  相似文献   

19.
一种新颖隶属度函数的模糊支持向量机   总被引:1,自引:0,他引:1  
传统的支持向量机(SVM)训练含有外部点或噪音数据时,容易产生过拟合(over-fitting)。通过模糊隶属度函数来降低外部点或被污染数据的选择。本文提出了一种新的核隶属度函数,这种新的隶属度函数不仅依赖于每个样本点到类型中心的距离,还依赖于该样本点最邻近的K个其他样本点的距离。实验结果表明了具有该隶属度函数的模糊支持向量机的有效性。  相似文献   

20.
不同种类支持向量机算法的比较研究   总被引:3,自引:0,他引:3  
介绍一种新型的机器学习方法-支持向量机.论述了不同种类支持向量机算法并指出了每种算法的优劣.实验结果显示了核函数中选择合适的参数对分类器的效果是很重要的,通过实验还重点比较了Chunking、SMO和SVMlight三种典型分解算法,并分析了训练速度优劣的原因.文章最后给出了今后SVM研究方向的一些预见.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号