首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 527 毫秒
1.
支持向量机核函数选择研究与仿真   总被引:2,自引:0,他引:2       下载免费PDF全文
支持向量机是一种基于核的学习方法,核函数选取对支持向量机性能有着重要的影响,如何有效地进行核函数选择是支持向量机研究领域的一个重要问题。目前大多数核选择方法不考虑数据的分布特征,没有充分利用隐含在数据中的先验信息。为此,引入能量熵概念,借助超球体描述和核函数蕴藏的度量特征,提出一种基于样本分布能量熵的支持向量机核函数选择方法,以提高SVM学习能力和泛化能力。数值实例仿真验证表明了该方法的可行性和有效性。  相似文献   

2.
支持向量机(SVM)具有适合处理小样本、非线性和高维数问题,利用核函数且泛化能力强等多方面的优点。文章简要介绍了SVM的基本原理,然后利用支持向量机(SVM)进行两类分类和多类分类实验,比较不同核函数的结果。实验证明支持向量机的分类效果比较好。  相似文献   

3.
支持向量机(SVM)是在统计学习理论基础上发展起来的一种新的机器学习算法。依据SVM良好识别和泛化能力,实现了一种基于支持向量机的图像人脸识别方法。利用Opencv提取样本类的低层特征,训练具有径向基核函数的SVM分类器,在VS2008和Qt平台下实现识别软件开发。运行结果表明,软件具有良好的图像人脸检测能力。  相似文献   

4.
支持向量机(SVM)的核函数类型和超参数对预测的精度有重要影响。由于局部核函数学习能力强、泛化性能弱,而全局核函数泛化性能强、学习能力弱的矛盾,通过综合两类核函数各自优点构造了基于全局多项式核和高斯核的混合核函数,并引入果蝇优化算法(FOA)对最小二乘支持向量机(LSSVM)参数进行全局寻优,提出了混合核函数FOA-LSSVM 预测模型。结果表明,该模型较传统方法在电力负荷预测精度上有了明显提高,预测结果科学可靠,在预测中具有良好的实际应用价值。  相似文献   

5.
陈涛 《计算机仿真》2012,(6):112-116
支持向量机集成是提高支持向量机泛化性能的有效手段,个体支持向量机的泛化能力及其之间的差异性是影响集成性能的关键因素。为了进一步提升支持向量机整体泛化性能,提出利用动态粗糙集的选择性支持向量机集成算法。首先在利用Boosting算法对样本进行扰动基础上,采用遗传算法改进的粗糙集与重采样技术相结合的动态约简算法进行特征扰动,获得稳定、泛化能力较强的属性约简集,继而生成差异性较大的个体学习器;然后利用模糊核聚类根据个体学习器在验证集上的泛化误差来选择最优个体;并用支持向量机算法对最优个体进行非线性集成。通过在UCI数据集进行仿真,结果表明算法能明显提高支持向量机的泛化性能,具有较低的时、空复杂性,是一种高效、稳定的集成方法。  相似文献   

6.
基于支持向量机的直接逆模型辨识   总被引:6,自引:0,他引:6  
在简单讨论逆模型辨识原理的基础上,利用支持向量机(SVM)对函数逼近的能力,提出了基于支持向量机的直接逆模型辨识方法.分别采用二次核函数以及高斯RBF核函数,利用训练数据对线性和非线性系统进行黑箱辨识.仿真结果表明,基于支持向量机的直接逆模型辨识方法在处理线性和非线性对象时,辨识性能都优于传统的BP神经网络,不仅辨识精度高,辨识速度快,而且泛化能力较强.  相似文献   

7.
购物网站在线评论系统收集了大量的顾客评价。支持向量机(SVM)是一种有效的文本分类方法,可以用于跟踪和管理顾客意见,但是SVM存在训练收敛速度慢,分类精度难以提高等缺点。文章提出利用异质核函数性的不同特性,解决支持向量机(SVM)数据泛化学习能力弱的问题,提高SVM的分类精度,通过对顾客购物评论进行分类,解决购物网站海量顾客评论分析的问题,帮助企业及时进行顾客反馈,提升服务水平。  相似文献   

8.
选择性支持向量机集成算法   总被引:1,自引:0,他引:1  
陈涛 《计算机工程与设计》2011,32(5):1807-1809,1819
为有效提升支持向量机泛化性能,提出了基于差分进化算法和负相关学习的选择性支持向量机集成。通过bootstrap技术产生并训练得到多个独立子SVM,基于负相关学习理论构造适应度函数,既提高子SVM的泛化性能,又增大其之间差异度。利用差分进化算法计算各子SVM在加权平均中的最优权重,选择权值大于一定阈值的部分SVM进行加权集成。实验结果表明,该算法是一种有效的集成方法,能进一步提高SVM的泛化性能。  相似文献   

9.
基于混合核支持向量机的金融时间序列分析   总被引:2,自引:0,他引:2       下载免费PDF全文
核函数是支持向量机(SVM)的重要部分,它直接影响到SVM的各项性能。当前SVM在金融时间序列分析中,基本上采用高斯径向核函数(RBF),其次才是多项式核函数。然而,每种核函数都有它的优势和不足,整合两个或多个核函数对于学习能力和泛化能力的提高是一个有效的途径。采用高斯径向核函数与多项式核函数的混合核函数运用于金融时间序列预测中,且与其单个核函数的支持向量机的实验结果进行了比较。结果表明,混合核函数具有更好的性能。  相似文献   

10.
基于加速遗传算法的选择性支持向量机集成*   总被引:3,自引:1,他引:2  
为有效提升支持向量机的泛化性能,提出基于加速遗传算法的选择性支持向量机集成。通过Bootstrap技术产生并训练得到多个独立子SVM,基于负相关学习理论构造适应度函数,提高子SVM的泛化性能,并增大其之间差异度。利用加速遗传算法计算各子SVM在加权平均中的最优权重,然后选择权值大于一定阈值的部分SVM进行加权集成。实验结果表明,该算法是一种有效的集成方法,能进一步提高SVM的集成效率和泛化性能。  相似文献   

11.
提出了一种新的针对记忆非线性功率放大器的支持向量机(SVM)预失真器。通过对其建模中采用径向基核函数和多项式核函数所表现出的性能特点进行分析,为核函数的选取提供了参考。采用以多项式为核函数的SVM对3种典型的记忆非线性功率放大器模型进行线性化仿真,结果表明了该方法的有效性和鲁棒性。  相似文献   

12.
基于Fisher 准则和最大熵原理的SVM核参数选择方法   总被引:1,自引:0,他引:1  
针对支持向量机(SVM)核参数选择困难的问题,提出一种基于Fisher准则和最大熵原理的SVM核参数优选方法.首先,从SVM分类器原理出发,提出SVM核参数优劣的衡量标准;然后,根据此标准利用Fisher准则来优选SVM核参数,并引入最大熵原理进一步调整算法的优选性能.整个模型采用粒子群优化算法(PSO)进行参数寻优.UCI标准数据集实验表明了所提方法具有良好的参数选择效果,优选出的核参数能够使SVM具有较高的泛化性能.  相似文献   

13.
一种快速的SVM最优核参数选择方法   总被引:1,自引:1,他引:0       下载免费PDF全文
支持向量机是一种基于核的学习方法,核函数及核参数的选择直接影响到SVM的泛化能力。传统的参数选择方法如网格搜索法,由于其计算量大,训练过程十分耗时,提出了一种新的快速选择最优核参数方法,该方法通过计算各类别在特征空间的可分性度量值来决定最优核参数,不需训练相应SVM分类模型,从而大大缩减了训练时间,提高了训练速度,且分类精度与传统方法相比,具有相当的竞争力。实验证明,该算法是可行有效的。  相似文献   

14.
针对多标签图像标注问题,提出一种改进的支持向量机多分类器图像标注方法。首先引入直方图交叉距离作为核函数,然后把传统支持向量机的输出值变换为样本到超平面的距离。基于这两点改进,采用一种特征选择方法,从众多的图像特征中,选择那些相互之间冗余度较小的视觉特征,分别建立分类器,最终形成以距离大小为判别依据的支持向量机多分类器模型。此外,在建立分类器时,考虑到训练图像中不同标签类样本分布的不均匀,引入了一个关于图像类标签的概率分布值做为分类器的权重系数。实验采用ImageCLEF提供的图像标注数据集,在其上的实验验证了所采用的特征选择算法和多分类模型的有效性,其标注精度要优于其他传统分类模型,并且,实验结果与最新的方法相比也具有一定的竞争力。  相似文献   

15.
核方法是解决非线性模式分析问题的一种有效方法,是当前机器学习领域的一个研究热点.核函数是影响核方法性能的关键因素,以支持向量机作为核函数的载体,从核函数的构造、核函数中参数的选择、多核学习3个角度对核函数的选择的研究现状及其进展情况进行了系统地概述,并指出根据特定应用领域选择核函数、设计有效的核函数度量标准和拓宽核函数选择的研究范围是其中3个值得进一步研究的方向.  相似文献   

16.
高斯核参数σ的选择,直接影响着高斯核支持向量机的分类性能。将聚类方法与最小距离分类法进行融合,构造了能有效确定高斯核参数σ的优化算法。采用高斯核支持向量机方法对测试集进行分类,以分类正确率来评判选取核参数σ的效果。实验表明,该方法适宜于较广泛的数据类型,具有良好的推广能力,并能有效提高分类效果。  相似文献   

17.
盛明明  黄海燕  赵玉 《计算机科学》2015,42(Z11):19-21, 48
支持向量机参数是影响其性能的重要因素,但对支持向量机核参数的选取仍没有形成一套成熟的理论,从而严重影响了其广泛的应用。将克隆选择算法引入差分进化算法,对基本克隆选择算法和差分进化算法中的策略进行改进。将两种改进的算法进行融合,提出了一种基于克隆选择的差分进化算法,并将其应用于SVM核参数的优化中。测试结果表明,该算法不仅可以有效避免差分进化算法易早熟收敛的问题,而且寻优能力得到显著提高;在UCI数据库wine数据中的应用表明,利用克隆选择差分进化算法优化SVM核参数加快了参数搜索的速度,提高了SVM预测精度和泛化能力,具有较高的分类准确率和较好的推广性能。  相似文献   

18.
面向特定领域文本分类的实际应用,存在大量样本相互掺杂的现象,使其无法线性表述,在SVM中引入核函数可以有效地解决非线性分类的问题,而选择不同的核函数可以构造不同的SVM,其识别性能也不同,因此,选择合适的核函数及其参数优化成为SVM的关键.本文基于单核核函数的性质,对多项式核函数与径向基核函数进行线性加权,构建具有良好的泛化能力与良好的学习能力的组合核函数.仿真实验结果表明,在选择正确参数的情况下,组合核函数SVM的宏平均准确率、宏平均召回率及宏平均综合分类率都明显优于线性核、多项式核与径向基核,而且能够兼顾准确率与召回率.  相似文献   

19.
基于蚁群算法的SVM模型选择研究   总被引:3,自引:0,他引:3  
为了提高SVM的分类器性能,提出使用蚁群算法来指导SVM模型参数的选择,并针对采用RBF作为核函数的SVM进行了实验。然后将该方法与基于GA的SVM模型选择方法进行了比较。实验证明采用蚁群算法具有一定的优势,它能在较短的时间内寻找到最优解,且最终得到的分类结果优于遗传算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号