共查询到19条相似文献,搜索用时 109 毫秒
1.
如何有效利用海量的数据是当前机器学习面临的一个重要任务,传统的支持向量机是一种有监督的学习方法,需要大量有标记的样本进行训练,然而有标记样本的数量是十分有限的并且非常不易获取.结合Co-training算法与Tri-training算法的思想,给出了一种半监督SVM分类方法.该方法采用两个不同参数的SVM分类器对无标记样本进行标记,选取置信度高的样本加入到已标记样本集中.理论分析和计算机仿真结果都表明,文中算法能有效利用大量的无标记样本,并且无标记样本的加入能有效提高分类的正确率. 相似文献
2.
针对传统SVM对噪声点和孤立点敏感的问题,以及不能解决样本特征规模大、含有异构信息、在特征空间中分布不平坦的问题,将模糊隶属度融入多核学习中,提出了一种模糊多核学习的方法;通过实验验证了模糊多核学习比传统SVM、模糊支持向量机以及多核学习具有更好的分类效果,从而验证了所提方法能够有效的克服传统SVM对噪声点敏感以及数据分布不平坦的问题。 相似文献
3.
提出一种基于支持向量机的渐近式半监督式学习算法,它以少量的有标记数据来训练初始学习器,通过选择性取样规则和核参数来调节无标记样本的选择范围和控制学习器决策面的动态调节方向,并通过删除非支持向量来降低学习代价。仿真实验表明,只要能够选择适当的选择性取样的阈值和核参数,这种学习算法就能够以较少的学习代价获得较好的学习效果。 相似文献
4.
半监督型广义特征值最接近支持向量机 总被引:1,自引:0,他引:1
广义特征值最接近支持向量机(GEPSVM)是近年提出的一种两分类方法.本文结合GEPSVM的平面特点和流形学习,给出一类半监督学习算法SemiGEPSVM.该方法不仅仍保持对诸如XOR问题的分类能力,而且在每类仅有一个有标样本的极端情形下,仍具有适用性.当已标样本不能用于构建超平面时,本文采用k-近邻方法选择样本并标记类别.一旦已标样本的个数可构建超平面时,采用本文的选择方法标记样本.此外,本文还从理论上证明该算法存在全局最优解.最后,SemiGEPSVM算法的有效性在人工数据集和标准数据集上得到验证. 相似文献
5.
增量支持向量机(ISVM)由于在每次增量学习过程中无法选择最有效的增量样本,导致模型的泛化性能较差.针对此问题,文中提出基于组合半监督方式的增量支持向量机学习算法(ICS3VM).通过将大量的无标记样本分批进行组合标记以选择最优的增量样本,即每次选择位于分类间隔内部的最有价值样本加入训练集,以此修正模型.同时选择分类间隔最大的一组标记作为最终标记,确保标记的准确性.在标准数据集上的实验表明,ICS3VM能以较高的学习效率提高模型的泛化性能. 相似文献
6.
7.
8.
针对传统网络流量分类方法准确率低、开销大、应用范围受限等问题,提出一种支持向量机(SVM)的半监督网络流量分类方法。该方法在SVM训练中,使用增量学习技术在初始和新增样本集中动态地确定支持向量,避免不必要的重复训练,改善因出现新样本而造成原分类器分类精度降低、分类时间长的情况;改进半监督Tri-training方法对分类器进行协同训练,同时使用大量未标记和少量已标记样本对分类器进行反复修正, 减少辅助分类器的噪声数据,克服传统协同验证对分类算法及样本类型要求苛刻的不足。实验结果表明,该方法可明显提高网络流量分类的准确率和效率。 相似文献
9.
10.
11.
12.
在支持向量机(Support vector machine, SVM)中, 对核函数的定义非常重要, 不同的核会产生不同的分类结果. 如何充分利用多个不同核函数的特点, 来共同提高SVM学习的效果, 已成为一个研究热点. 于是, 多核学习(Multiple kernel learning, MKL)方法应运而生. 最近, 有的学者提出了一种简单有效的稀疏MKL算法,即GMKL (Generalized MKL)算法, 它结合了L1 范式和L2范式的优点, 形成了一个对核权重的弹性限定. 然而, GMKL算法也并没有考虑到如何在充分利用已经选用的核函数中的共有信息. 另一方面, MultiK-MHKS算法则考虑了利用典型关联分析(Canonical correlation analysis, CCA)来获取核函数之间的共有信息, 但是却没有考虑到核函数的筛选问题. 本文模型则基于这两种算法进行了一定程度的改进, 我们称我们的算法为改进的显性多核支持向量机 (Improved domain multiple kernel support vector machine, IDMK-SVM). 我们证明了本文的模型保持了GMKL 的特性, 并且证明了算法的收敛性. 最后通过模拟实验, 本文证明了本文的多核学习方法相比于传统的多核学习方法有一定的精确性优势. 相似文献
13.
基于类分布的领域自适应支持向量机 总被引:2,自引:0,他引:2
现有的领域自适应方法在定义领域间分布距离时, 通常仅从领域样本的整体分布上考虑, 而未对带类标签的领域样本分布分别进行考虑, 从而在一些具有非平衡数据集的应用领域上表现出一定的局限性. 对此, 在充分考虑源领域样本类信息的基础上, 基于结构风险最小化模型, 提出了基于类分布的领域自适应支持向量机(Domain adaptation support vector machine based on class distribution, CDASVM), 并将其拓展为可处理多源问题的多源领域自适应支持向量机(CDASVM from multiple sources, MSCDASVM), 在人造和真实的非平衡数据集上的实验结果表明, 所提方法具有优化或可比较的模式分类性能. 相似文献
14.
15.
最小二乘Littlewood-Paley小波支持向量机 总被引:11,自引:0,他引:11
基于小波分解理论和支持向量机核函数的条件,提出了一种多维允许支持向量核函数——Littlewood-Paley小波核函数.该核函数不仅具有平移正交性,而且可以以其正交性逼近二次可积空间上的任意曲线,从而提升了支持向量机的泛化性能.在Littlewood-Paley小波函数作为支持向量核函数的基础上,提出了最小二乘Littlewood-Paley小波支持向量机(LS-LPWSVM).实验结果表明,LS-LPWSVM在同等条件下比最小二乘支持向量机的学习精度要高,因而更适用于复杂函数的学习问题. 相似文献
16.
回归支持向量机的改进序列最小优化学习算法 总被引:20,自引:1,他引:20
支持向量机(support vector machine,简称SVM)是一种基于结构风险最小化原理的学习技术,也是一种新的具有很好泛化性能的回归方法,提出了实现回归支持向量机的一种改进的SMO(sequential minimal optimization)算法,给出了两变量子优化问题的解析解,设计了新的工作集选择方法和停止条件,仿真实例说明,所提出的SMO算法比原始SMO算法具有更快的运算速度. 相似文献
17.
18.
19.
为了使数字水印综合性能更好,根据图像邻域像素之间具有很强的相关性这一特点,提出了一种基于支持向量机的图像水印算法。该算法将支持向量机的思想用于数字水印,并取得了较好的效果。由于支持向量机在有限训练样本的情况下具有很好的学习和泛化能力,因此,可以首先利用回归型支持向量机较好地建立图像邻域像素之间的关系模型,然后,通过调整模型的输出值与中心像素值之间的大小关系来嵌入或提取水印。实验表明,用该技术嵌入水印后的图像不仅具有很好的图像感知质量和较强的鲁棒性,对图像增强、JPEG压缩、噪声、几何剪切等抵抗强,而且安全性好、实用性较强。 相似文献