首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
基于SVM的图像分类算法与实现   总被引:4,自引:1,他引:4       下载免费PDF全文
提出了一种对人类视觉中的黑白老照片和彩色照片进行分类的方法,其基本思想是,首先在分析两者各自特点的基础上,定义了一些指标特征;其次利用这些指标对图像进行预分类,找出其中特征明显的图像;然后使用支持向量机(SVM)的算法对这些指标进行学习来区分剩余图像,最终达到对图像分类的效果。实验结果表明指标定义是合理的,效果也较满意。  相似文献   

2.
基于SVM的图像分类   总被引:6,自引:0,他引:6  
SVM能够解决线性及非线性分类问题,以较少的支持向量确定分类面,对样本数量及维数不敏感。基于直方图及惯性比确定图像特征能够保证平移、旋转和尺度不变性,是最优分类面确定的可靠保证。利用SVM进行图像分类,充分体现SVM理论的实用价值。  相似文献   

3.
基于Ncut分割和SVM分类器的医学图像分类算法   总被引:2,自引:0,他引:2  
为解决医疗诊断中由于疲劳和主观因素影响导致的诊断错误,本文提出了基于Ncut分割方法的医学CT图像的分割、特征提取和诊断的新方案.将Ncut分割方法应用于脑CT图像.先进行图像分割,提取感兴趣区域,再从边缘、灰度,纹理三方面提取特征,最后利用支持向量机(SVM)对图像进行分类,为医生的诊断提供参考.从表格化的分类结果看,所提方案有较大的应用价值.  相似文献   

4.
小样本学习的目的是使用极少的样本训练模型,并在有限的数据集上构建一种有效的模型,以实现对新样本的准确预测。关于小样本图像分类的研究大多只从空域的角度去提取图像的特征进行学习,且在计算相似性分数时采用单一的度量模式,极大地降低了图像分类的准确性。为此,提出了一种基于空频域特征提取的小样本图像分类算法网络(FENet),从空域和频域角度出发,提取图像特征,并结合图像到图像的度量与图像到类的度量方式,引入干扰因子,提高模型的鲁棒性和泛化性。在CUB-200-2011、Stanford-Cars、Stanford-Dogs 3个数据集上进行了大量的实验,结果表明,FENet在一定程度上能提升小样本图像分类的准确性。  相似文献   

5.
针对SAR图像具有斑点噪声强和目标特征差异小的特点,通过研究地物特征,提出一种基于C均值和支持向量机(Support Vector Machine)的SAR图像目标分类算法.该算法的前端在特征空间运用C均值聚类算法,有效抑制斑点噪声;后端在图像空间运用支持向量机分类器,提高分类精度.实验结果表明该分类算法能够减少SVM的特征维数,具有较好的分类性能.  相似文献   

6.
在基于内容图像检索中,图像的底层视觉特征和高层语义概念之间存在着较大的语义间隔。使用机器学习方法学习图像特征,自动建立图像类的模型成为一种有效的方法。本文提出了一种用支持向量机(SVM)实现自然图像自动语义归类的方法,基于块划分聚类得到特征向量作为SVM训练样本,实现语义分类器。由于参与聚类的是某类图像所有块的特征,提取的特征更能反映某一类图像特征。实验证明这种方法是有效的。  相似文献   

7.
基于SVM的SAR图像分类研究   总被引:5,自引:3,他引:2  
支持向量机(SVM)是一种卓越的分类方法,灰度共生矩阵(GLCM)则是一种很好的纹理分析方法,而纹理是合成孔径雷达(SAR)图像分类的一个重要特征,故而提出了一种使用灰度共生矩阵进行特征提取的应用支持向量的SAR图像分类法。实验结果证明了支持向量机算法的可行性和有效性。  相似文献   

8.
卷积神经网络(CNN)是目前基于深度学习的计算机视觉领域中重要的研究方向之一。它在图像分类和分割、目标检测等的应用中表现出色,其强大的特征学习与特征表达能力越来越受到研究者的推崇。然而,CNN仍存在特征提取不完整、样本训练过拟合等问题。针对这些问题,介绍了CNN的发展、CNN经典的网络模型及其组件,并提供了解决上述问题的方法。通过对CNN模型在图像分类中研究现状的综述,为CNN的进一步发展及研究方向提供了建议。  相似文献   

9.
根据文本分类通常包含多异类数据源的特点,提出了多核SVM学习算法。该算法将分类核矩阵的二次组合重新表述成半无限规划,并说明其可以通过重复利用SVM来实现有效求解。实验结果表明,提出的算法可以用于数百个核的结合或者是数十万个样本的结合,对于多异类数据源的文本分类具有较高的查全率和查准率。  相似文献   

10.
伴随着存储技术以及网络技术的飞速发展,以图像形式来表现大量有效信息成为有效手段。这样一来,怎样实现对海量图像库的有效检索和管理已经非常重要,而其中语义清晰又是重中之重。在图像自动标注技术中,基于图像底层视觉特征的标注技术能够完成,利用图像的底层特征中提取出高级语义信息来标注待标注图像。通过SVM(Support Vector Machine)支持向量机学习方法来自动获取图像高级语义信息关键字,来完成图像的自动标注具有深远的研究意义。  相似文献   

11.
中国画的特征提取及分类   总被引:1,自引:0,他引:1       下载免费PDF全文
中国画作为中国传统文化艺术的瑰宝,根据语义对国画图像进行检索是必要的。国画的语义主要反映在颜色和形状。依据国画自身的特点,研究了颜色和形状的特征提取算法,融合图像的颜色和目标的形状特征,构建了一种新的特征向量,分析了国画图像的多维低阶特征与高阶语义之间的相关性,采用支持向量机实现语义分类,实验结果表明该方法提取的特征向量稳定,能得到较高的分类精度。  相似文献   

12.
基于图像中心加权特征的图像检索   总被引:10,自引:0,他引:10  
本文讨论了基于内容的图像检索系统中特征提取的技术,并提出了一种基于图像中心加权特征提取算法,即对图像不同位置提取的特征采用不同的加权系数,越靠近图像中心加权系数越大。最后使用支持向量机技术作为图像分类器进行图像的检索。实验表明该系统能有效地检索大规模的图像数据厍,并取得了比较好的效果。  相似文献   

13.
提出一种基于多示例学习的图像表示方法,将图像作为多示例包,用高斯滤波器将图像滤波并取样为由颜色区域构成的矩阵,使用单颜色及相邻区域(single blob with neighbors)的包生成方法.根据用户选择的实例图像生成正包和负包,使用MIL-SVDD_I和MIL-SVDD_B算法进行实验.实验表明该图像表示方法是可行的.  相似文献   

14.
通过和积网络的结构学习,将其与新颖的图像特征提取方法相结合,提出了一个新的花朵图像分类方法。所提出的分类方法在考虑了自然场景图像的特点下,利用图像小块的信息进行特征提取,提取到的特征向量具有可辨别性、独立性和鲁棒性;对特征向量构成的矩阵使用和积网络结构学习算法,有利于将相似的实例聚为一类,不同的变量分为不同类。实验结果表明,提出的基于和积网络的花朵图像分类算法有着更理想的分类效果。  相似文献   

15.
目的 传统以先验知识为基础的去雾算法,如最大化饱和度、暗通道等,在某些特定场景下效果非常不稳定,会出现色彩扭曲和光晕等现象。由于标注好的训练数据严重不足、特征的冗余性等原因,传统基于学习的去雾算法容易导致模型过拟合。为克服这些问题,本文提出一种基于两阶段特征提取的场景透射率回归去雾方法。方法 在第1阶段,提取图像在颜色空间上的饱和度、最小通道、最大通道以及灰度图的盖博响应等43维特征作为初始雾的特征,并在提取的特征图像局部窗口内,进一步提取最小值、最大值、均值、方差、偏度、峰度、高斯均值等7维特征。在第2阶段,将提取的43×7=301个维度特征组成表征雾的二阶段特征向量。最后采用支持向量机进行训练,得到雾的特征向量和场景透射率的回归模型。结果 实验结果表明,本文算法取得了非常好的去雾效果。平均梯度值为4.475,高于所有对比算法;峰值信噪比为18.150 dB,仅次于多尺度卷积神经网络去雾算法;结构相似性为0.867,处于较高水平;去雾后的亮度和对比度,也均排于前列。本文算法的去雾测试性能接近甚至超过了已有的基于深度学习的去雾算法,表明本文提出的两阶段特征能够很好地对雾进行表征,实现了小样本学习的高效去雾。结论 本文通过两阶段的特征提取策略,极大提升了算法的鲁棒性,仅需要极少量样本就能训练得到性能很好的去雾模型,具有很好的泛化性能。  相似文献   

16.
针对现有基于结构元描述的图像特征提取算法缺少连续像素或结构元的相关性描述,对图像特征的区分能力不足的问题.通过定义新的结构元和自适应向量融合模型,并引入连通粒概念,提出一种加权量化方法对图像目标和背景进行自适应融合.首先根据视觉选择特性定义9种新的结构元,并且构建了连通粒属性及分层统计模型;然后通过颜色转换和结构元匹配生成相应的映射子图,从中提取统计结构元和连通性特征向量;最后利用自适应向量融合模型把各分量合并为一组特征向量用于图像检索.在3个Corel数据集上的实验结果表明,与其他算法相比,文中方法性能更稳定,能达到更高的检索精度;该方法既能描述图像的全局特征,又能反映图像的局部细节信息.  相似文献   

17.
    
The number of applications based on the Internet is increasing, which results the traffic becoming more and more complex. Therefore, how to improve the service quality and security of the network is becoming more and more important. This paper studies the application of SVM in traffic identification to classify network traffic. Through data collection and feature generation methods and network traffic feature screening methods, SVM is used as a classifier by using the generalization capability of SVM, and the parameters and kernel functions of the SVM are adjusted and selected based on cross comparison ideas and methods. Using the cross‐validation method to make the most reasonable statistics for the classification and recognition accuracy of the adjusted support vector machine avoids the situation that the classification accuracy of the support vector machine is unstable or the statistics are inaccurate. Finally, a traffic classification and identification system based on SVM is realized. The final recognition rate of encrypted traffic is up to 99.31%, which overcomes the disadvantages of traditional traffic identification and achieves a fairly reliable accuracy.  相似文献   

18.
刘俊  李鹏飞 《计算机应用》2017,37(7):2089-2094
针对传统的支持向量机(SVM)模型对连续超声图像集进行分割时需要为图像集中每张图片提取样本点来建立分割模型的问题,提出了一个对整个连续超声图像集的统一的SVM分割模型。首先,从图像的灰度直方图中提取灰度特征作为表征图像集中图像连续性的特征;其次,从图像集中选取部分图像作为样本,并从中提取像素点的灰度特征;最后,将各像素点的灰度特征与各像素点所在图像中表征图像集连续性的特征相结合,用SVM的方法训练出分割模型对整个图像集进行分割。实验结果表明,与传统SVM分割方法相比,新模型在面对大量的有连续变化的图像集的分割问题上,大幅地减少了人工选取样本点的工作量,并且在分割的准确率上也有保证。  相似文献   

19.
刘林嵩  仝明磊  吴东亮 《计算机应用研究》2021,38(10):3005-3008,3039
胶囊网络(CapsNet)强调对图像特征的空间关系进行编码,但是其特征提取模块难以应对复杂分类场景.为了提升CapsNet的性能,提出了一种具有自注意力(self-attention)特征提取模块的胶囊网络(self-attention capsule network,SA-CapsNet).首先通过降低胶囊维度,并增加一个中间层来改进CapsNet;然后将SA模块映射到胶囊网络的特征提取层,增加特征提取能力.在MNIST、Fashion MNIST和CIFAR10数据集上进行实验,分类准确率分别为99.67%、92.21%和82.51%.实验结果验证了改进网络的有效性,整体性能有较大提升.  相似文献   

20.
针对遥感影像场景中空间信息丰富以及冗余的地理特征会对网络训练时造成干扰等问题,提出一种采用特征重校准融合密集神经网络的遥感影像场景分类方法。通过缩聚与激发机制建立SE block,将SE block与其多尺度分支嵌入DenseNet-121中进行特征重校准,利用DenseNet中密集连接方式加强信息流的传递。该方法使得整体模型获得全局感受野的稳健特征表示,减少遥感场景特征的冗余映射。通过在两个公开遥感影像数据集UCMercedLandUse和SIRI-WHU中进行实验,分类精度分别高达97.7%和98.9%,验证了该方法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号