首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
This letter proposes a processing chain for detecting aeroplanes from very high-resolution (VHR) remotely sensed images with the fusion of deep feature representation and rotation-invariant Hough forests. First, superpixel segmentation is used to generate meaningful and non-redundant patches. Second, deep learning techniques are exploited to construct a multi-layer feature encoder for representing high-order features of patches. Third, a set of multi-scale rotation-invariant Hough forests are trained to detect aeroplanes of varying orientations and sizes. Experiments show that the proposed method is a promising solution for detecting aeroplanes from VHR remotely sensed images, with a completeness, correctness, and F-measure of 0.956, 0.970, and 0.963, respectively. Comparative studies with four existing methods also demonstrate that the proposed method outperforms the other existing methods in accurately detecting aeroplanes of varying appearances, orientations, and sizes.  相似文献   

2.
目的 为了解决现有图像区域复制篡改检测算法只能识别图像中成对的相似区域而不能准确定位篡改区域的问题,提出一种基于JPEG(joint photographic experts group)图像双重压缩偏移量估计的篡改区域自动检测定位方法。方法 首先利用尺度不变特征变换(SIFT)算法提取图像的特征点和相应的特征向量,并采用最近邻算法对特征向量进行初步匹配,接下来结合特征点的色调饱和度(HSI)彩色特征进行优化匹配,消除彩色信息不一致引发的误匹配;然后利用随机样本一致性(RANSAC)算法对匹配对之间的仿射变换参数进行估计并消除错配,通过构建区域相关图确定完整的复制粘贴区域;最后根据对复制粘贴区域分别估计的JPEG双重压缩偏移量区分复制区域和篡改区域。结果 与经典SIFT和SURF(speeded up robust features)的检测方法相比,本文方法在实现较高检测率的同时,有效降低了检测虚警率。当第2次JPEG压缩的质量因子大于第1次时,篡改区域的检出率可以达到96%以上。 结论 本文方法可以有效定位JPEG图像的区域复制篡改区域,并且对复制区域的几何变换以及常见的后处理操作具有较强的鲁棒性。  相似文献   

3.
目的 图像配准是影响拼接质量的关键因素。已有的视差图象拼接方法没有解决匹配特征点对间的错误配准问题,容易引起不自然的拼接痕迹。针对这一问题,提出了使用线约束运动最小二乘法的配准算法,减少图像的配准误差,提高拼接质量。方法 首先,计算目标图像和参考图像的SIFT(scale-invariant feature transform)特征点,应用RANSAC(random sample consensus)方法建立特征点的匹配关系,由此计算目标到参考图像的最佳单应变换。然后,使用线约束运动最小二乘法分别配准两组图像:1)第1组是目标图像和参考图像;2)第2组是经单应变换后的目标图像和参考图像。第1组用逐点仿射变换进行配准,而第2组配准使用了单应变换加上逐点仿射变换。最后,在重叠区域,利用最大流最小割算法寻找最优拼接缝,沿着拼接缝评估两组配准的质量,选取最优的那组进行融合拼接。结果 自拍图库和公开数据集上的大量测试结果表明,本文算法的配准精度超过95%,透视扭曲比例小于17%。与近期拼接方法相比,本文配准算法精度提高3%,拼接结果中透视扭曲现象减少73%。结论 运动最小二乘法可以准确地配准特征点,但可能会扭曲图像中的结构对象。而线约束项则尽量保持结构,阻止扭曲。因此,线约束运动最小二乘法兼顾了图像结构的完整性和匹配特征点的对准精度,基于此配准模型的拼接方法能够有效减少重影和鬼影等人工痕迹,拼接结果真实自然。  相似文献   

4.
ABSTRACT

An automatic object-detection method is necessary to facilitate the efficient analysis of satellite images consisting of multispectral images. Considering that the relationship between spectrums is important for discriminating objects in multispectral images. This paper proposes a feature extraction method that can capture both spatial and spectral relationships of the multispectral images. Moreover, image preprocessing and dimensionality reduction procedures are introduced for stable feature extraction. In this study, we conducted experiments for detecting two types of objects by using Landsat 8 images. The proposed method improved the detection performance relative to other image features.  相似文献   

5.
目的 目前行人检测存在特征维度高、检测耗时的问题,行人图像易受到光照、背景、遮挡等影响,给实际行人检测造成了一定困难。为了提高检测准确性,减少检测耗时,针对以上问题,提出一种改进特征与GPU (graphic processing unit)加速的行人检测算法。方法 首先,采用多尺度无缩放思想,通过canny算子对所有样本进行预处理,减少背景干扰与统一归格化的形变影响。然后,针对实际视频中的遮挡问题,把图像分成头部、左臂、上身、右臂、左腿、右腿6个区域。接着选取比LBP (local binary patterns)特征鲁棒性更好的SILTP (scale invariant local ternary pattern)特征作为纹理特征,在GPU空间中并行提取;同时,分别提取6个区域的HOG (histogram of oriented gradient)特征值,结合行人轮廓在6个区域上的梯度方向分布特性,对其进行加权。最后,将提取的全部特征输出到CPU (central processing unit),利用支持向量机(SVM)分类器实现行人检测。结果 在INRIA、NICTA数据集上进行实验,INRIA数据集上检测率达到99.80%,NICTA数据集上检测率达到99.91%,并且INRIA数据集上检测时间加速比达到12.19,NICTA数据集上达到13.49,相对传统HOG、LBP算法,检测率、时间比实现提高。结论 提出的改进HOG-SILTP特征与GPU加速的行人检测算法,能够有效表达行人信息,改善传统特征提取方式带来的耗时与形变影响,对环境变化、遮挡具有较强的鲁棒性。该算法在检测率、检测时间方面均有提高,能够实现有效、快速的行人检测,具有实际意义。  相似文献   

6.
目的 近年来关于人脸老化/去龄化的研究在深度学习的推动下取得了飞速发展,2017年提出的条件对抗自编码器(CAAE)人脸老化/去龄化模型生成的人脸不仅可信度高,而且更贴近目标年龄。然而在人脸老化/去龄化过程中仍存在生成图像分辨率低、人工鬼影噪声严重(生成人脸器官扭曲)等问题。为此,在CAAE的基础上,提出一个人脸老化/去龄化的高质量图像生成模型(HQGM)。方法 用边界平衡对抗生成网络(BEGAN)替换CAAE中的对抗生成网络(GAN)。BEGAN在人脸图像生成上不仅分辨率更高而且具有更好的视觉效果。在此基础上,添加两个提高生成图像质量的损失函数:图像梯度差损失函数和人脸特征损失函数。图像梯度差损失函数通过缩小生成图像和真实图像的图像梯度,使生成图像具有更多轮廓等高频信息;人脸特征损失函数将生成图像和真实图像分别输入到配置预训练参数的VGG-FACE网络模型中,输出各自的特征图。通过缩小两幅特征图的对应点差值,使生成图像具有更多真实图像的人脸特征信息。结果 实验使用UTKface、FGnet和Morph数据集,经过训练,每幅测试图像分别生成10幅不同年龄的图像。与CAAE相比,HQGM可以有效去除人工鬼影噪声,峰值信噪比高3.2 dB,结构相似性高0.06,提升显著。结论 HQGM可以生成具有丰富纹理信息和人脸特征信息的人脸老化/去龄化图像。  相似文献   

7.
目的 从图像中裁剪出构图更佳的区域是提升图像美感的有效手段之一,也是计算机视觉领域极具挑战性的问题。为提升自动裁图的视觉效果,本文提出了聚合细粒度特征的深度注意力自动裁图方法(deep attention guided image cropping network with fine-grained feature aggregation,DAIC-Net)。方法 整体模型结构由通道校准的语义特征提取(semantic feature extraction with channel calibration,ECC)、细粒度特征聚合(fine-grained feature aggregation,FFA)和上下文注意力融合(contextual attention fusion,CAF)3个模块构成,采用端到端的训练方式,核心思想是多尺度逐级增强不同细粒度区域特征,融合全局和局部注意力特征,强化上下文语义信息表征。ECC模块在通用语义特征的通道维度上进行自适应校准,融合了通道注意力;FFA模块将多尺度区域特征级联互补,产生富含图像构成和空间位置信息的特征表示;CAF模块模拟人眼观看图像的规律,从不同方向、不同尺度显式编码图像空间不同像素块之间的记忆上下文关系;此外,定义了多项损失函数以指导模型训练,进行多任务监督学习。结果 在3个数据集上与最新的6种方法进行对比实验,本文方法优于现有的自动裁图方法,在最新裁图数据集GAICD (grid anchor based image cropping database)上,斯皮尔曼相关性和皮尔森相关性指标分别提升了2.0%和1.9%,其他最佳回报率指标最高提升了4.1%。在ICDB (image cropping database)和FCDB (flickr cropping database)上的跨数据集测试结果进一步表明了本文提出的DAIC-Net的泛化性能。此外,消融实验验证了各模块的有效性,用户主观实验及定性分析也表明DAIC-Net能裁剪出视觉效果更佳的裁图结果。结论 本文提出的DAIC-Net在GAICD数据集上多种评价指标均取得最优的预测结果,在ICDB和FCDB测试集上展现出较强的泛化能力,能有效提升裁图效果。  相似文献   

8.
目的 现有的图匹配算法大多应用于二维图像,对三维图像的特征点匹配存在匹配准确率低和计算速度慢等问题。为解决这些问题,本文将分解图匹配算法扩展应用在了三维图像上。方法 首先将需要匹配的两个三维图像的特征点作为图的节点集;再通过Delaunay三角剖分算法,将三维特征点相连,则相连得到的边就作为图的边集,从而建立有向图;然后,根据三维图像的特征点构建相应的三维有向图及其邻接矩阵;再根据有向图中的节点特征和边特征分别构建节点特征相似矩阵和边特征相似矩阵;最后根据这两个特征矩阵将节点匹配问题转化为求极值问题并求解。结果 实验表明,在手工选取特征点的情况下,本文算法对相同三维图像的特征点匹配有97.56%的平均准确率;对不同三维图像特征点匹配有76.39%的平均准确率;在三维图像有旋转的情况下,有90%以上的平均准确率;在特征点部分缺失的情况下,平均匹配准确率也能达到80%。在通过三维尺度不变特征变换(SIFT)算法得到特征点的情况下,本文算法对9个三维模型的特征点的平均匹配准确率为98.78%。结论 本文提出的基于图论的三维图像特征点匹配算法,经实验结果验证,可以取得较好的匹配效果。  相似文献   

9.
目的 许多先前的显著目标检测工作都是集中在2D的图像上,并不能适用于RGB-D图像的显著性检测。本文同时提取颜色特征以及深度特征,提出了一种基于特征融合和S-D概率矫正的RGB-D显著性检测方法,使得颜色特征和深度特征相互补充。方法 首先,以RGB图像的4个边界为背景询问节点,使用特征融合的Manifold Ranking输出RGB图像的显著图;其次,依据RGB图像的显著图和深度特征计算S-D矫正概率;再次,计算深度图的显著图并依据S-D矫正概率对该显著图进行S-D概率矫正;最后,对矫正后的显著图提取前景询问节点再次使用特征融合的Manifold Ranking方法进行显著优化,得到最终的显著图。结果 利用本文RGB-D显著性检测方法对RGBD数据集上的1 000幅图像进行了显著性检测,并与6种不同的方法进行对比,本文方法的显著性检测结果更接近人工标定结果。Precision-Recall曲线(PR曲线)显示在相同召回率下本文方法的准确率较其中5种方法高,且处理单幅图像的时间为2.150 s,与其他算法相比也有一定优势。结论 本文方法能较准确地对RGB-D图像进行显著性检测。  相似文献   

10.
结合区域和边界信息的图像显著度检测   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 图像显著度检测是许多图像应用的核心问题,为了能够在复杂背景下准确提取图像中前景对象的位置和尺度信息,提出一种结合区域和边界信息的图像显著度检测方法。方法 对于图像区域信息,提出一种基于图像等照度线的方法检测显著区域信息。该方法针对不同的特征(颜色、亮度和方向)提出统一的计算方法,使得不同特征下获得的显著信息具有一致的度量标准,从而方便后续多特征显著度图的融合。对于图像边界信息,采用一种结合多尺度Beltrami过滤器的全局方法检测显著边界信息。多尺度Beltrami过滤器可以显著增强图像中的边界信息。利用全局显著度检测方法对经过过滤器处理过的图像可以准确地获取图像中最为显著的边界信息。最后,由于区域和边界分别代表图像中的不同类型信息,可以直接采用线性融合方式构建最终的图像显著度图。结果 与其他9种流行图像显著度检测算法相比,本文算法无论在简单还是复杂背景下均能够较为准确地检测出图像中的显著度信息(Precision、Recall、F测试中获得的平均值为0.5905,0.6554,0.7470的最高测试结果)。结论 提出一种结合区域和边界信息的图像显著度检测算法,通过区域和边界信息相结合的方式实现图像中显著对象的准确检测。实验结果表明本文算法具有良好的适用性和鲁棒性,为图像中复杂背景下对象检测打下坚实基础。  相似文献   

11.
目的 心血管内超声(IVUS)图像内膜和中—外膜(MA)轮廓勾画是冠脉粥样硬化和易损斑块定量评估的必要过程。由于存在斑点噪声、图像伪影和各类斑块,重要组织边界的自动分割是一个非常困难的任务。为此,提出一种用于检测20 MHz心电门控IVUS图像内膜和MA边界方法。方法 首先利用深度全卷积网络(DFCN)学习原始IVUS图像与所对应手动分割图像之间映射,预测出目标或者背景的概率图,实现医学图像语义分割。然后在此基础上,结合心血管先验形状信息,采用数学形态学闭、开操作,平滑内膜和MA边界,降低分割过程中错误分类像素或区域的影响。结果 针对来自10位病人的IVUS图像及其标注信息所组成的435幅国际标准公开数据集,从线性回归、Bland-Altman分析和面积交并比(JM)、面积差异百分比(PAD)、Hausdorff距离(HD)、平均距离(AD)等性能指标上,评价本文方法。实验结果表明,算法检测结果与手动勾画结果的相关性可达到0.94,其超过94.71%的结果落在95%置信区域内,具有良好一致性。内膜和MA边界的AD指标分别为:0.07 mm和0.08 mm;HD指标分别为:0.21 mm和0.30 mm。JM指标分别为0.92和0.93;PAD指标分别为5%和4%。此外,对临床所采集的100幅IVUS图像进行了测试,证明本文学习的模型在跨数据集上具有较好的泛化能力。结论 与现有的国际算法比较,本文方法提高了各类斑块、声影区域和血管分支等因素的识别能力,不受超声斑点的影响,能准确地、可重复地检测出IVUS图像中的关键目标边界。  相似文献   

12.
目的 高光谱图像波段数目巨大,导致在解译及分类过程中出现“维数灾难”的现象。针对该问题,在K-means聚类算法基础上,考虑各个波段对不同聚类的重要程度,同时顾及类间信息,提出一种基于熵加权K-means全局信息聚类的高光谱图像分类算法。方法 首先,引入波段权重,用来刻画各个波段对不同聚类的重要程度,并定义熵信息测度表达该权重。其次,为避免局部最优聚类,引入类间距离测度实现全局最优聚类。最后,将上述两类测度引入K-means聚类目标函数,通过最小化目标函数得到最优分类结果。结果 为了验证提出的高光谱图像分类方法的有效性,对Salinas高光谱图像和Pavia University高光谱图像标准图中的地物类别根据其光谱反射率差异程度进行合并,将合并后的标准图作为新的标准分类图。分别采用本文算法和传统K-means算法对Salinas高光谱图像和Pavia University高光谱图像进行实验,并定性、定量地评价和分析了实验结果。对于图像中合并后的地物类别,光谱反射率差异程度大,从视觉上看,本文算法较传统K-means算法有更好的分类结果;从分类精度看,本文算法的总精度分别为92.20%和82.96%, K-means算法的总精度分别为83.39%和67.06%,较K-means算法增长8.81%和15.9%。结论 提出一种基于熵加权K-means全局信息聚类的高光谱图像分类算法,实验结果表明,本文算法对高光谱图像中具有不同光谱反射率差异程度的各类地物目标均能取得很好的分类结果。  相似文献   

13.
目的 为了进一步提高锅炉燃烧火焰图像状态识别的性能,提出了一种基于Log-Gabor小波和分数阶多项式核主成分分析(KPCA)的火焰图像状态识别方法。方法 首先利用Log-Gabor滤波器组对火焰图像进行滤波,提取滤波后图像的均值和标准差,并构成纹理特征向量。然后使用分数阶KPCA方法对纹理特征向量进行降维,并将降维后的纹理特征向量输入支持向量机进行分类。结果 本文与基于Log-Gabor小波特征提取以及2种基于Gabor小波特征提取的方法相比,本文方法的分类识别正确率更高,分类精度为76%。同时,第1主分量方差比重与核函数参数d之间满足递增关系。本文方法能够准确地提取火焰图像纹理特征。结论 本文提出一种对锅炉燃烧火焰图像进行状态识别的方法,对提取的火焰图像纹理特征向量进行降维并进行分类,可以获得较高的分类精度。实验结果表明,本文方法分类精度较高,运行时间较短,具有良好的实时性。  相似文献   

14.
目的 针对基于对比度的显著检测方法,因忽略了特征的空间分布而导致准确性不高的问题,启发于边界先验关于图像空间布局的思想,提出构图先验的显著检测方法。方法 假定目标分布于三分构图线周围,根据相关性比较计算显著值。首先,对图像进行多尺度超像素分割并构造闭环图;其次,提取构图线区域超像素特征并使用Manifold Ranking算法计算显著目标与背景的分布;然后,从目标和背景两个角度对显著值进行细化并利用像素区别性对像素点的显著值进行矫正;最后,融合多尺度显著值得到最终显著图。结果 在公开的MSRA-1000、CSSD、ECSSD数据集上验证本文方法并与其他算法进行对比。本文方法在各数据集上准确率最高,分别为92.6%,89.2%,76.6%。且处理单幅图像平均时间为0.692 s,和其他算法相比也有一定优势。结论 人眼视觉倾向于在构图线周围寻找显著目标,构图先验是根据人眼注意机制研究显著性,具有合理性,且构图先验的方法提高了显著目标检测的准确性。  相似文献   

15.
目的 结合高斯核函数特有的性质,提出一种基于结构相似度的自适应多尺度SAR图像变化检测算法。方法 本文提出的算法包括差异图像获取、高斯多尺度分解、基于结构相似性的最优尺度选择、特征矢量构造以及模糊C均值分类。首先,通过对多时相SAR图像进行对数比运算获取差异图像,然后,利用基于图像的结构相似度估计高斯多尺度变换的最优尺度,继而在该最优尺度参数下逐像素构建变化检测特征矢量,最后通过模糊C均值聚类方法实现变化像素与未变化像素的分离,生成最终的变化检测结果图。结果 在两组真实的SAR图像数据上测试本文算法,正确检测率分别达到0.9952和0.9623,Kappa系数分别为0.8200和0.8540,相比传统算法有了较大的提高。结论 本文算法充分利用了尺度信息,对噪声的鲁棒性有所提高。实测SAR数据的实验结果表明,本文算法可以智能获取最优分解尺度,显著提高了SAR图像变化检测性能。  相似文献   

16.
目的 针对图像拼接中大视差图像难以配准的问题,提出一种显性子平面自动配准算法。方法 假设大视差图像包含多个显性子平面且每个平面内所含特征点密集分布。对该假设进行了验证性实验。所提算法以特征点分布为依据,通过聚类算法实现子平面分割,进而对子平面进行局部配准。首先,使用层次聚类算法对已匹配的特征点聚类,通过一种本文设计的拼接误差确定分组数目,并以各组特征点的聚类中心为新的聚类中心对重叠区域再聚类,分割出目标图像的显性子平面。然后,求解每个显性子平面的投影参数,并采用就近原则分配非重叠区域的单应性矩阵。结果 采用公共数据集对本文算法进行测试,并与Auto-Stitching、微软Image Composite Editor两种软件及全局投影拼接方法(Baseline)、尽可能投影算法(APAP)进行对比,采用均方根误差作为配准精度的客观评判标准。实验结果表明,该算法在拼接大视差图像时,能有效地配准局部区域,解决软件和传统方法由误配准引起的鬼影、错位等问题。其均方根误差比Baseline方法平均减小55%左右。与APAP算法相比,均方根误差平均相差10%左右,但可视化配准效果相同且无需调节复杂参数,可实现自动配准。结论 提出的显性子平面自动配准算法,通过分割图像所含子平面进而实现局部配准。该方法具有较高的配准精度,在大视差图像配准方面,优于部分软件及算法,可应用于图像拼接中大视差图像的自动配准。  相似文献   

17.
目的 随着互联网技术的发展,信息的数量呈几何级数增长。信息改变着人类的传统生活方式,它可以给人们的娱乐,教育,商业活动提供便利。但是另一方面,需要处理的信息数量大大超过了计算机的处理能力,因此,如何使计算机能像人眼一样可以自动在大量信息中选择重要信息进行加工就显得十分重要。图像的视觉显著性信息能够反映图像中不同区域对人视觉系统刺激的程度。可靠的显著性方法可以从大量的信息中自动预测预测和挖掘重要的视觉信息,这些信息可以为图像分割、图像检索等应用提供有价值的线索。目前,显著性检测算法的鲁棒性和实时性是研究的热点。本文提出一种基于拉普拉斯支持向量机(LapSVM)的快速显著性检测方法。方法 采用简单线性迭代聚类算法SLIC(simple linear iterative clustering)将原始图像首先分成若干个超像素块,并用它代替图像像素参与计算,可以减少算法所需的计算量。利用超像素之间相似性构建图Laplacian。分析每个图像块的边缘特性定义粗糙标识样本,并利用一种快速LapSVM进行分类。LapSVM是一种基于流形正则化的半监督分类方法。通过引入提前停止机制来加速LapSVM的训练。这样可以快速地计算出一个近似结果。计算的复杂性由原来的O(n3)降到了O(kn2),其中n是未标识样本和标识样本的数量。k是经验评价值,它远远小于n。通过分析得到的分类结果,提取出更准确的背景和目标样本作为新的标识样本再次进行LapSVM分类。最后,利用能量函数对分类结果进行优化得到最终的显著性检测结果。结果 ASD数据库是MSRA数据库的子集,包含1 000幅图片,被广泛用于各种显著性检测算法的实验中。本文算法在ASD图像数据库上与7种流行的图像显著性检测算法进行对比实验。本文算法不仅在准确率和召回率上保持了与其他算法相当的鲁棒性,平均绝对误差达到4%左右,同时算法的平均运行时间缩短为0.03 s左右。结论 提出一种基于LapSVM的快速图像显著性检测算法,通过区域边缘特征和分类结果分析,实现图像中背景和目标样本的准确检测。实验结果表明,本文算法具有良好的鲁棒性,显著地提高了算法的实时性。因此,与其他算法相比本文算法更适用于检测跟踪等实时性要求较高的场合。该方法可以在较短的时间内,以更好地准确率水平提取显著性区域。  相似文献   

18.
Content based image retrieval is an active area of research. Many approaches have been proposed to retrieve images based on matching of some features derived from the image content. Color is an important feature of image content. The problem with many traditional matching-based retrieval methods is that the search time for retrieving similar images for a given query image increases linearly with the size of the image database. We present an efficient color indexing scheme for similarity-based retrieval which has a search time that increases logarithmically with the database size.In our approach, the color features are extracted automatically using a color clustering algorithm. Then the cluster centroids are used as representatives of the images in 3-dimensional color space and are indexed using a spatial indexing method that usesR-tree. The worst case search time complexity of this approach isOn q log(N* navg)), whereN is the number of images in the database, andn q andn avg are the number of colors in the query image and the average number of colors per image in the database respectively. We present the experimental results for the proposed approach on two databases consisting of 337 Trademark images and 200 Flag images.  相似文献   

19.
目的 针对成对旋转不变的共生局部二值模式(PRICoLBP)算法对图像光照、旋转变化鲁棒性较差,且存在特征维度过大的问题,提出了一种可融合多种局部纹理结构信息的有效特征——增强成对旋转不变的共生扩展局部二值模式。方法 首先,对图像各像素点的邻域像素点灰度值进行二值量化得到二值编码序列,并不断旋转二值序列得到以不同邻域点作为编码起始点对应的LBP值;然后,分别利用极大、极小LBP值对应的邻域起始编码点和中心像素点确定两个方向矢量,并沿这两个方向矢量在两个不同尺度图像上选取上下文共生点;其次,利用扩展局部二值模式(ELBP)算法的旋转不变均匀描述子来提取上下文共生点对的中心像素灰度级、邻域像素灰度级及径向灰度差异特征间的相关性信息;最后,用上下文共生点对的特征直方图训练卡方核支持向量机,检测纹理图像类别。结果 通过对Brodatz、Outex (TC10、TC12)、Outex (TC14)、CUReT、KTH-TIPS和UIUC纹理库的分类实验,改进算法的识别率比原始的PRICoLBP算法识别率分别提高了0.32%、0.57%、5.62%、3.34%、2.1%、4.75%。结论 利用像素点LBP特征极值对应的起始编码序列来选取上下共生点对,并用ELBP算法提取共生点对局部纹理信息,故本文方法能更好描述共生点对间的高阶曲率信息及更多局部纹理信息。在具光照、旋转变化的Outex、CUReT、KTH-TIPS纹理库图像分类实验中,所提方法比原始PRICoLBP算法取得了更高的识别率。实验结果表明,改进算法相比于原始算法能在较低的特征维度下对图像光照、旋转变化具有较好的鲁棒性。  相似文献   

20.
In this paper, we propose a rotation-invariant pattern-matching scheme for detecting objects in complex color images. The complexity and computational load for matching colored objects in arbitrary orientations are reduced significantly by the 1-D color ring-projection representation. It can rapidly select the possible locations of a reference template in the input scene by computing the normalized correlation of 1-D color ring-projection patterns. Objects in the candidate locations are then verified by the pixel-to-pixel template matching. To make the pixel-based matching invariant to rotation, a color feature is used as pixel density, and the axis of least second moment is employed to estimate the rotational angle of a colored pattern. The proposed method has shown promising result based on experiments on a variety of natural and industrial images.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号