首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 328 毫秒
1.
提出一种集成主动学习和支持向量机的学习算法并应用于基于内容的图像检索.首先在相关反馈过程中结合样本不确定性与减小样本间冗余度的采样策略选择样本进行类别标记组成样本集训练支持向量机分类器,然后利用得到的分类器进行图像检索,直至用户满意为止.基于遥感影像的实验表明,算法能够提高基于内容的图像检索的效率和性能.  相似文献   

2.
一种新的基于SVM的相关反馈图像检索算法   总被引:4,自引:0,他引:4  
提出了一种新的基于支持向量机(SVM)的相关反馈图像检索算法。实验结果表明,该算法在一定程度上解决了基于SVM的相关反馈图像检索中存在的样本不足的困难,提高了系统的检索性能。  相似文献   

3.
针对支持向量机在大规模数据集上的低效率,提出了基于约减支持向量机的相关反馈图像检索算法。首先采用约减支持向量机训练初始分类器,以该分类器作为检索模型,根据检索结果进行相关反馈,从而进行再检索。实验结果表明,随着反馈次数的增加,检索到的相关图像也会增加;另外相对传统的基于向量机的方法,数据集规模越大,基于约减支持向量机的算法在时间上的优势越明显。  相似文献   

4.
基于核函数的支持向量机样本选取算法   总被引:2,自引:0,他引:2  
使用支持向量机求解大规模数据分类需要较大内存来存储Hessian矩阵,而矩阵的大小则依赖于样本数1,因此在一定程度上导致支持向量机分类效率及质量难以提高.考虑到只有成为支持向量的样本才对决策函数起作用,为了减少训练样本时所需空间及时间开销,提高支持向量机分类效率与质量,提出了一种基于核函数的样本选取算法.该算法通过选取最大可能成为支持向量的样本,以达到减少训练时存储Hessian矩阵所需空间及时间开销的目的.实验结果表明,该算法所筛选出的样本不仅可以提高样本训练准确率,而且可以提高分类计算速度和减少存储空间开销.  相似文献   

5.
提出一种基于SVM和Adaboost集成学习相结合的相关反馈算法。在相关反馈过程中选择最具信息的样本训练支持向量机,可以有效减少相关反馈的次数和所需学习样本的数量,通过两者的互补来有效地提高图像检索的精度。最后提出Adaboost算法对SVM分类器进行加权投票,这样进一步提高了图像检索的性能。实验表明,该方法较好地解决了图像检索中的小样本选择问题,能够显著提高图像检索的效率和性能。  相似文献   

6.
检索算法是海量图像自动检索基础。鉴于单一特征无法准确描述图像内容,结合时域和频域纹理特征优点,提出一种特征融合和支持向量机反馈的图像检索算法。首先取图像的LBP直方图作为空域特征,并利用Brushlet变换提取子带能量特征作为频域特征;然后采用马氏距离相似度量进行图像初步检察;最后采用支持向量机反馈提高图像检索准确率。仿真结果表明,相对于单一特征检索算法,该图像检索算法提高了图像检索的平均准确率,可以更准确地查找到用户所需的图像。  相似文献   

7.
基于模糊支持向量机的面向语义图像检索算法*   总被引:1,自引:0,他引:1  
为了缩减图像低层特征和高层语义之间的“语义鸿沟”,本文提出一种基于模糊支持向量机的面向语义图像检索(SBIR-FSVM)算法。在提取图像的低层特征的基础上,本文将最小隶属度模糊支持向量机引入到图像检索技术中,获取图像语义信息及消除传统支持向量机(SVM)在多类分类中产生的不可分区域,从而实现面向语义的图像检索。实验结果表明,本文提出的SBIR-FSVM算法与基于SVM的图像检索算法及综合多特征的基于内容的图像检索算法相比均有了显著的改进。  相似文献   

8.
基于内容的图像检索中SVM和Boosting方法集成应用   总被引:2,自引:2,他引:0  
解洪胜  张虹 《计算机应用》2009,29(4):979-981,
提出一种适用于图像内容检索的AdaBoostSVM算法。算法思想是采用支持向量机(SVM)作为AdaBoost算法的分量分类器;基于相关反馈检索机制,通过增加重要样本来模拟AdaBoost算法的权重调整方法。在包含2000幅图像的数据库中进行了检索实验,结果表明AdaBoostSVM算法能有效提高系统的检索性能。  相似文献   

9.
邢笛  葛洪伟  李志伟 《计算机应用》2012,32(8):2227-2234
针对在小样本图像分类应用中,以向量空间作为输入的传统分类算法的不足,提出以张量理论为基础,结合模糊支持向量机思想的基于张量图像样本的模糊支持张量机分类器,利用张量表示图像样本,求解最优张量面。通过手写体数字图像样本实验仿真,验证该算法的性能,随后将其应用到羽绒菱节图像识别中进行对比,该算法较传统算法平均高出6.3%以上的识别率。实验证明该算法更适合应用于图像样本分类识别。  相似文献   

10.
梁竞敏  唐斌 《微计算机信息》2012,(5):174-176,173
语义图像检索已成为解决简单视觉特征和用户检索高级语义之间存在的"语义鸿沟"问题的关键,本文试图提出一种基于SVM和Adaboost集成学习相结合的相关反馈算法。在相关反馈过程中选择最具信息的样本训练支持向量机,可以有效减少相关反馈的次数和所需学习样本的数量,通过两者的互补来有效地提高图像检索的精度。最后提出Adaboost算法对SVM分类器进行加权投票,这样进一步提高了图像检索的性能。实验表明,该方法能较好地解决了图像检索中的小样本选择问题,并能显著提高图像检索的效率和性能。  相似文献   

11.
12.
Relevance feedback schemes based on support vector machines (SVM) have been widely used in content-based image retrieval (CBIR). However, the performance of SVM-based relevance feedback is often poor when the number of labeled positive feedback samples is small. This is mainly due to three reasons: 1) an SVM classifier is unstable on a small-sized training set, 2) SVM's optimal hyperplane may be biased when the positive feedback samples are much less than the negative feedback samples, and 3) overfitting happens because the number of feature dimensions is much higher than the size of the training set. In this paper, we develop a mechanism to overcome these problems. To address the first two problems, we propose an asymmetric bagging-based SVM (AB-SVM). For the third problem, we combine the random subspace method and SVM for relevance feedback, which is named random subspace SVM (RS-SVM). Finally, by integrating AB-SVM and RS-SVM, an asymmetric bagging and random subspace SVM (ABRS-SVM) is built to solve these three problems and further improve the relevance feedback performance.  相似文献   

13.
基于F-SVMs的多模型建模方法   总被引:5,自引:1,他引:4  
针对全局模型难以精确描述复杂工业过程的问题,提出一种基于模糊支持向量机(F-SVMs)的多模型(F-SVMs MM)建模方法。用模糊支持向量分类算法(F-SVC)对输入数据进行预处理,得到多模型模糊隶属度;用模糊支持回归算法(F-SVR)建立多模型(MM)估计器。应用该方法对pH中和滴定过程进行建模,仿真结果表明,F-SVMs MM跟踪性能好、泛化能力强,比USOCPN方法和标准支持向量机(SVMs)方法具有更好的性能和推广能力。  相似文献   

14.
Conventional relevance feedback in content-based image retrieval (CBIR) systems uses only the labeled images for learning. Image labeling, however, is a time-consuming task and users are often unwilling to label too many images during the feedback process. This gives rise to the small sample problem where learning from a small number of training samples restricts the retrieval performance. To address this problem, we propose a technique based on the concept of pseudo-labeling in order to enlarge the training data set. As the name implies, a pseudo-labeled image is an image not labeled explicitly by the users, but estimated using a fuzzy rule. Therefore, it contains a certain degree of uncertainty or fuzziness in its class information. Fuzzy support vector machine (FSVM), an extended version of SVM, takes into account the fuzzy nature of some training samples during its training. In order to exploit the advantages of pseudo-labeling, active learning and the structure of FSVM, we develop a unified framework called pseudo-label fuzzy support vector machine (PLFSVM) to perform content-based image retrieval. Experimental results based on a database of 10,000 images demonstrate the effectiveness of the proposed method.  相似文献   

15.
支持向量机针对大规模数据集学习问题的处理需要耗费很长的时间,提出一种数据预处理的方法对学习样本进行聚 类,以此为基础得到一种模糊支持向量机.计算机仿真结果表明提出的SVM算法与传统的SVM训练算法相比,在不降低分 类精度的情况下,大大缩短了支持向量机的学习训练时间.  相似文献   

16.
使用基于SVM的否定概率和法的图像标注   总被引:1,自引:0,他引:1  
在基于内容的图像检索中,建立图像底层视觉特征与高层语义的联系是个难题.对此提出了一种为图像提供语义标签的标注方法.先建立小规模图像库为训练集,库中每个图像标有单一的语义标签,再利用其底层特征,以SVM为子分类器,“否定概率和”法为合成方法构建基于成对耦合方式(PWC)的多类分类器,并对未标注的图像进行分类,结果以N维标注向量表示,实验表明,与一对多方式(OPC)的多类分类器及使用概率和法的PWC相比,“否定概率和”法性能更好.  相似文献   

17.
分析了硬间隔模糊粗糙支持向量机(FRSVMs)的优点与不足。FRSVMs通过修改硬间隔支持向量机(SVMs)的约束条件提高了泛化能力;FRSVMs虽然将训练样例的条件属性与决策属性之间的不一致性考虑在内,但是在寻找最优超平面时仍然要求将训练集完全正确地分开,因此对噪音具有敏感性。针对FRSVMs的这个缺点,提出了软间隔模糊粗糙支持向量机(C-FRSVMs)。它使用高斯核函数作为模糊相似关系,将数据集中样例的条件属性与决策标签之间的不一致程度考虑在内;在训练寻找最优超平面的过程中允许存在错分点,并对原始最优化问题中训练样例的错分程度进行惩罚;既考虑了间隔最大,又考虑了训练误差最小,从而降低了对噪音的敏感性。实验表明:针对一些数据集,无论其是否存在异常点,C-FRSVMs在测试精度上都可以同时优于硬间隔SVMs、软间隔支持向量机(C-SVMs)和FRSVMs,从而进一步提高了FRSVMs的泛化能力。  相似文献   

18.
Type-2 fuzzy logic-based classifier fusion for support vector machines   总被引:1,自引:0,他引:1  
As a machine-learning tool, support vector machines (SVMs) have been gaining popularity due to their promising performance. However, the generalization abilities of SVMs often rely on whether the selected kernel functions are suitable for real classification data. To lessen the sensitivity of different kernels in SVMs classification and improve SVMs generalization ability, this paper proposes a fuzzy fusion model to combine multiple SVMs classifiers. To better handle uncertainties existing in real classification data and in the membership functions (MFs) in the traditional type-1 fuzzy logic system (FLS), we apply interval type-2 fuzzy sets to construct a type-2 SVMs fusion FLS. This type-2 fusion architecture takes considerations of the classification results from individual SVMs classifiers and generates the combined classification decision as the output. Besides the distances of data examples to SVMs hyperplanes, the type-2 fuzzy SVMs fusion system also considers the accuracy information of individual SVMs. Our experiments show that the type-2 based SVM fusion classifiers outperform individual SVM classifiers in most cases. The experiments also show that the type-2 fuzzy logic-based SVMs fusion model is better than the type-1 based SVM fusion model in general.  相似文献   

19.
何强  张娇阳 《智能系统学报》2019,14(6):1163-1169
支持向量机(SVMs)是当前被广泛使用的机器学习技术,其通过最优分割超平面来提高分类器的泛化能力,在实际应用中表现优异。然而SVM也存在易受噪声影响,以及核函数选择等难题。针对以上问题,本文将基于核对齐的多核学习方法引入到模糊支持向量机(fuzzy support vector machine, FSVM)中,提出了模糊多核支持向量机模型(multiple kernel fuzzy support vector machine,MFSVM)。MFSVM通过模糊粗糙集方法计算每一样例隶属度;其次,利用核对齐的多核方法计算每一单核权重,并将组合核引入到模糊支持向量机中。该方法不仅提高了支持向量机的抗噪声能力,也有效避免了核选择难题。在UCI数据库上进行实验,结果表明本文所提方法具有较高的分类精度,验证了该方法的可行性与有效性。  相似文献   

20.
Constructing support vector machine ensemble   总被引:30,自引:0,他引:30  
Hyun-Chul  Shaoning  Hong-Mo  Daijin  Sung 《Pattern recognition》2003,36(12):2757-2767
Even the support vector machine (SVM) has been proposed to provide a good generalization performance, the classification result of the practically implemented SVM is often far from the theoretically expected level because their implementations are based on the approximated algorithms due to the high complexity of time and space. To improve the limited classification performance of the real SVM, we propose to use the SVM ensemble with bagging (bootstrap aggregating) or boosting. In bagging, each individual SVM is trained independently using the randomly chosen training samples via a bootstrap technique. In boosting, each individual SVM is trained using the training samples chosen according to the sample's probability distribution that is updated in proportional to the errorness of the sample. In both bagging and boosting, the trained individual SVMs are aggregated to make a collective decision in several ways such as the majority voting, least-squares estimation-based weighting, and the double-layer hierarchical combining. Various simulation results for the IRIS data classification and the hand-written digit recognition, and the fraud detection show that the proposed SVM ensemble with bagging or boosting outperforms a single SVM in terms of classification accuracy greatly.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号