共查询到19条相似文献,搜索用时 62 毫秒
1.
提出了一个最小二乘双支持向量回归机,它是在双支持向量回归机基础之上建立的,打破了标准支持向量回归机利用两条平行超平面构造ε带的思想。事实上,它是利用两条不一定平行的超平面构造ε带,每条超平面确定一个半ε-带,从而得到最终的回归函数,这使该回归函数更符合数据本身的分布情况,回归算法有更好的推广能力。另外,最小二乘双支持向量机只需求解两个较小规模的线性方程组就能得到最后的回归函数,其计算复杂度相对较低。数值实验也表明该回归算法在推广能力和计算效率上有一定的优势。 相似文献
2.
在线稀疏最小二乘支持向量机回归的研究 总被引:6,自引:0,他引:6
现有最小二乘支持向量机回归的训练和模型输出的计算需要较长的时间,不适合在线实时训练.对此,提出一种在线稀疏最小二乘支持向量机回归,其训练算法采用样本字典,减少了训练样本的计算量.训练样本采用序贯加入的方式,适合在线获取,并且该算法在理论上是收敛的.仿真结果表明,该算法具有较好的稀疏性和实时性,可进一步用于建模与实时控制等方面的研究. 相似文献
3.
基于线性无关度提出了一种在高维特征空间中选择近似基的方法,并采用不完全抛弃法,充分利用非支持向量中的信息来建立稀疏最小二乘支持向量回归机的数学模型.另外,采用递推法加快了其模型的建立.该模型在保持预测精度基本不变的情况下,使支持向量的数目大大减少.最后,通过3个UCI数据集验证了该模型的有效性. 相似文献
4.
回归最小二乘支持向量机的增量和在线式学习算法 总被引:40,自引:0,他引:40
首先给出回归最小二乘支持向量机的数学模型,并分析了它的性质,然后在此基础上根据分块矩阵计算公式和核函数矩阵本身的特点设计了支持向量机的增量式学习算法和在线学习算法.该算法能充分利用历史的训练结果,减少存储空间和计算时间.仿真实验表明了这两种学习方法的有效性. 相似文献
5.
为了解决最小二乘支持向量机模型稀疏性不足的问题,提出了一种约简核矩阵的LS-SVM稀疏化方法.按照空间两点的欧式距离寻找核矩阵中相近的行(列),并通过特定的规则进行合并,以减小核矩阵的规模,进而求得稀疏LS-SVM模型.以高斯径向基核函数为例,详细阐述了改进方法的实现步骤,并通过仿真表明了采用该方法求得的稀疏LS-SVM模型泛化能力良好. 相似文献
6.
针对最小二乘支持向量机缺乏稀疏性的问题,提出了一种基于边界样本的最小二乘支持向量机算法。该算法利用中心距离比来选取支持度较大的边界样本作为训练样本,从而减少了支持向量的数目,提高了算法的速度。最后将该算法在4个UCI数据集上进行实验,结果表明:在几乎不损失精度的情况下,可以得到稀疏解,且算法的识别速度有了一定的提高。 相似文献
7.
基于核的偏最小二乘特征提取的最小二乘支持向量机回归方法 总被引:4,自引:0,他引:4
提出了用核的偏最小二乘进行特征提取.首先把初始输入映射到高维特征空间,然后在高维特征空间中计算得分向量,降低样本的维数,再用最小二乘支持向量机进行回归.通过实验表明,这种方法得到的效果优于没有特征提取的回归.同时与PLS提取特征相比,KPLS分析效果更好. 相似文献
8.
最小二乘孪生支持向量机通过求解两个线性规划问题来代替求解复杂的二次规划问题,具有计算简单和训练速度快的优势。然而,最小二乘孪生支持向量机得到的超平面易受异常点影响且解缺乏稀疏性。针对这一问题,基于截断最小二乘损失提出了一种鲁棒最小二乘孪生支持向量机模型,并从理论上验证了模型对异常点具有鲁棒性。为使模型可处理大规模数据,基于表示定理和不完全Cholesky分解得到了新模型的稀疏解,并提出了适合处理带异常点的大规模数据的稀疏鲁棒最小二乘孪生支持向量机算法。数值实验表明,新算法比已有算法分类准确率、稀疏性、收敛速度分别提高了1.97%~37.7%、26~199倍和6.6~2 027.4倍。 相似文献
9.
一种稀疏最小二乘支持向量分类机 总被引:1,自引:0,他引:1
一般的支持向量分类机需要求解二次规划问题,最小二乘支持向量机只需求解一个线性方程组,但其缺乏稀疏性.为了改进最小二乘支持向量分类机,本文结合中心距离比值及增量学习的思想提出一种基于预选、筛选支持向量的稀疏最小二乘支持向量机.该方法既能弥补最小二乘向量机的稀疏性,减少计算机的存储量和计算量,加快最小二乘支持向量机的训练速度和决策速度,又能对非均衡训练数据造成的分类面的偏移进行纠正,还不影响最小二乘支持向量机的分类能力.3组实验结果也证实了这一点. 相似文献
10.
11.
基于最小二乘支持向量机的预测控制 总被引:2,自引:0,他引:2
最小二乘支持向量机(LS—SVM)方法克服了经典二次规划方法求解支持向量机的维数灾问题。适合于大样本的学习。提出一种新的基于LS—SVM模型的预测控制结构,对一典型非线性系统-连续搅拌槽反应器(CSTR)的仿真表明,该控制方案表现出优良的控制品质并能适应被控对象参数的变化,具有较强的鲁棒性和自适应能力。 相似文献
12.
提出一种稳健的LS-SVM回归算法。该算法建立在异常样本逐步剔除的框架上,每次循环中选择误差最大的样本加以考察,然后使用统计假设检验方法对其进行诊断。若样本被诊断为异常样本,则将其剔除,并重新训练LS-SVM,为下一轮的异常点诊断和剔除提供更准确的信息。同时为了减少运算复杂度,我们还将减量学习引入到算法的重新训练过程中,从而保证算法的附加复杂度不超过O(N3)。仿真数据集和实际数据集上的详细实验证实该算法的优越性,并提供一种使用该算法建立异常样本检测器的思路。 相似文献
13.
部分函数线性模型是用于处理输入变量包含函数型和数值型两种数据类型而输出变量为数值的一类回归机.为提高该模型的预测精度,基于函数系数在再生核Hilbert空间上的表示,得到模型的结构化表示,将函数系数的估计转化为参数向量的估计问题,并运用最小二乘支持向量机方法得到参数估计形式.实验表明,文中算法对数值型数据的向量系数的估计与其他参数估计方法性能相近,但对函数型数据的函数系数的估计更加准确稳健,有助于确保学习机的预测精度. 相似文献
14.
15.
孪生参数化不敏感支持向量回归机(Twin Parametric Insensitive Support Vector Regression,TPISVR)是最近提出的一种新型机器学习方法.和其它回归方法相比,TPISVR在处理异方差噪声方面具有独特的优势.标准TPISVR的训练算法可以归结为在对偶空间求解一对具有不等式约束的二次规划问题.然而,这种求解方法的时间消耗比较大.本文引入最小二乘思想,将TPISVR的两个二次规划问题转化为两个线性方程组,并在原始空间上直接求解,提出了最小二乘孪生参数化不敏感支持向量回归机(Least Squares TPISVR,LSTPISVR).为了解决LSTPISVR的参数选择问题,提出混沌布谷鸟优化算法,并用其对LSTPISVR的参数进行优化选择.在人工数据集和UCI数据集上的实验表明了LSTPISVR在保持精度不下降的情况下比TPISVR具有更高的运行效率. 相似文献
16.
石磊 《数字社区&智能家居》2007,(20)
函数拟合通常要在有限的训练样本下对函数变量之间的关系做出预测,在实践中由于训练样本有限,并且训练样本本身存在噪音和孤立点,用传统的方法进行函数拟合的结果往往不能满足要求.本文主要利用最小二乘支持向量机对函数进行拟合.首先介绍了最小二乘支持向量机的工作原理,并对参数选择方法进行了研究,然后通过仿真实验对利用最小二乘支持向量机进行函数拟合的效果加以对比说明. 相似文献
17.
18.
针对最小二乘支持向量机对噪声或孤立点敏感的问题,提出一种融合先验知识的模糊最小二乘支持向量机模型。在训练过程中考虑样本的噪声分布模型,结合样本紧密度策略,自动生成相应样本的模糊隶属度。实验结果表明,该模型对噪声样本具有较好的分类精度。 相似文献
19.
目前使用的已有SVM核函数,在分类中不能逼近某一L2(R)(平方可积空间)子空间上的任意分类界面。针对上述问题,在支持向量机的核函数方法和小波框架理论的基础上,提出了LS-WSVM结构模型。实验结果表明,和标准的SVM和LS-SVM比较起来,在同等条件下,LS-WSVM在分类方面具有优良的特征提取性能。 相似文献