首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
为了快速有效地检测图像中的显著性区域,利用颜色通道差异信息和空间信息,提出了一种基于颜色通道比较的显著性检测算法. 该算法将显著性检测任务看作对图像前景区域和背景区域进行分离和识别的过程,首先基于RGB颜色空间构造了一组反映不同色彩信息的颜色通道,通过通道比较将不同颜色的区域分离开,然后通过分析空间信息选择出属于前景的区域,最后对所有前景区域进行合并得到最终的显著图. 我们在两个公开数据集上与现有的一些检测算法进行了对比试验,结果表明该算法具有较低的计算复杂度以及较高的检测准确率和召回率,证明该算法是简单有效的.  相似文献   

2.
针对现有的基于图像底层特征的显著性检测算法检测准确度不高的问题,提出了一种基于颜色和纹理特征的显著性检测算法。在RGB和Lab颜色空间上,同时考虑了图像的颜色对比度特征、纹理特征。运用二维信息熵作为衡量显著图的性能标准,选取最优的颜色通道,并且针对颜色及纹理的不同特点,给出了各自的显著性特征融合方法。在公开的数据库中与四种流行的算法实验对比,实验结果证明了算法的有效性。  相似文献   

3.
唐勇  杨林  段亮亮 《自动化学报》2013,39(10):1632-1641
根据视觉注意机制, 提出一种基于图像单元对比度与空间统计特性的可靠显著性区域检测方法. 通过自适应的图像分割构造图像单元结构, 以图像单元为基础, 分别利用颜色对比度和空间统计特性两种模型进行显著性区域检测, 最后, 将两种模型的检测结果通过高斯模型进行结合, 得到最终的显著性区域检测的结果. 实验表明, 该检测方法与现有的方法比较, 具有更好的精度和召回率, 能明显抑制复杂纹理和噪声, 去除复杂背景的影响.  相似文献   

4.
针对户外禁止标识提出一种新的检测算法。首先通过路标颜色找出显著性区域,然后对满足条件的区域采用中心对称投影的方法计算其位置和尺度信息。实验证明该方法具有较高的检测率和较低的虚警率,并能满足实时应用的要求。  相似文献   

5.
视觉显著性检测是很多计算机视觉任务的重要步骤,在图像分割、自适应压缩和识别物体方面都有很重要的应用。提出了一种基于HSV颜色、纹理特征和空间位置关系相结合的显著性检测算法。该方法先将图像分割成小的图像片以获取图像的局部信息,结合图像片颜色的独特性和空间分布的紧凑性计算得到颜色显著图;同时利用Gabor滤波器对图像进行不同尺度和方向地滤波得到纹理特征向量,然后对特征向量计算纹理差异得到纹理显著图;最后将二者结合得到最终显著图。实验结果表明,该方法在检测效果和抗噪能力等方面均可获得较为满意的结果。  相似文献   

6.
目的 显著性检测领域的研究重点和难点是检测具有复杂结构信息的显著物体。传统的基于图像块的检测算法,主要根据相对规则的图像块进行检测,计算过程中不能充分利用图像不规则的结构和纹理的信息,对算法精度产生影响。针对上述问题,本文提出一种基于不规则像素簇的显著性检测算法。方法 根据像素点的颜色信息量化颜色空间,同时寻找图像的颜色中心,将每个像素的颜色替代为最近的颜色中心的颜色。然后根据相同颜色标签的连通域形成不规则像素簇,并以连通域的中心为该簇的位置中心,以该连通域对应颜色中心的颜色为该簇整体的颜色。通过像素簇的全局对比度得到对比度先验图,利用目标粗定位法估计显著目标的中心,计算图像的中心先验图。然后将对比度先验图与中心先验图结合得到初始显著图。为了使显著图更加均匀地突出显著目标,利用图模型及形态学变化改善初始显著图效果。结果 将本文算法与5种公认表现最好的算法进行对比,并通过5组图像进行验证,采用客观评价指标精确率—召回率(precision-recall,PR)曲线以及精确率和召回率的调和平均数F-measure进行评价,结果表明本文算法在PR曲线上较其他算法表现良好,在F-measure方面相比其他5种算法均有00.3的提升,且有更佳的视觉效果。结论 本文通过更合理地对像素簇进行划分,并对目标物体进行粗定位,更好地考虑了图像的结构和纹理特征,在显著性检测中有较好的检测效果,普适性强。  相似文献   

7.
8.
蒋峰岭  孔斌  钱晶  王灿  杨静 《测控技术》2021,40(1):1-15
人类的视觉系统能够迅速地、有选择地从视觉场景中检测出感兴趣的目标或者具有显著特征的物体,并根据更高层次的视觉任务目的对它们进行处理和理解,从而实现相应的行为或决策.将人类这种选择性视觉注意机制引入到计算机视觉的信息处理中,可以有效地减少视觉计算所需处理的数据量、加速整个处理过程,并进一步方便更高层次视觉任务的处理,因而...  相似文献   

9.
目的 针对已有工作在颜色及结构显著性描述方面的缺陷,提出一种新的图像显著性检测方法。方法 本文方法在不同的图像区域表达上从颜色与空间结构角度计算图像的显著性,充分考虑图像的特征与像素聚类方式之间的适应性。首先,根据颜色复杂度、边缘与连通性等信息,将图像从像素空间映射到双层区域表示空间。然后,根据两个层次空间的特性,与每个图像区域的边界特性,计算图像的结构和颜色显著度。最后,由于不同图像表示中的显著性信息存在互补性,将所有这些信息进行融合得到最终的显著性图。结果 在公认的MSRA-1000数据集上验证本文方法并与目前国际上流行的方法进行对比。实验结果表明,本文方法在精确率、召回率以及绝对误差(分别为75.03%、89.39%、85.61%)等方面要优于当前前沿的方法。结论 提出了一种融合双层信息的显著性检测算法。根据图像本身信息控制区域数目构建图像双层表示,提高了方法的普适性;利用图像不同层次的特性从不同角度计算显著性,增强了方法鲁棒性。  相似文献   

10.
融合双特征图信息的图像显著性检测方法   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 图像的显著性检测是将图像中最重要的、包含丰富信息的区域标记出来,并应用到图像分割、图像压缩、图像检索、目标识别等重要领域。针对现有研究方法显著性目标检测结果不完整以及单一依靠颜色差异检测方法的局限性,提出一种综合图像底层颜色对比特征图和图像颜色空间分布特征图的显著性检测方法,能够有效而完整地检测出图像中的显著性区域。方法 本文方法结合了SLIC超像素分割和K-means聚类算法进行图像特征的提取。首先,对图像进行SLIC(simple linear iterative clustering)分割,根据像素块之间的颜色差异求取颜色对比特征图;其次,按照颜色特征对图像进行K-means聚类,依据空间分布紧凑性和颜色分布统一性计算每个类的初步颜色空间分布特征。由于聚类结果中不包含空间信息,本文将聚类后的结果映射到超像素分割的像素块上,进一步优化颜色空间分布图;最后,通过融合颜色对比显著图和图像颜色空间分布特征图得到最终的显著图。结果 针对公开的图像测试数据库MSRA-1000,本文方法与当前几种流行的显著性检测算法进行了对比实验,实验结果表明,本文方法得到的显著性区域更准确、更完整。结论 本文提出了一种简单有效的显著性检测方法,结合颜色对比特征图和图像颜色空间分布特征图可以准确的检测出显著性区域。该结果可用于目标检测等实际问题,但该方法存在一定的不足,对于背景色彩过于丰富且与特征区域有近似颜色的图像,该方法得到的结果有待改进。今后对此算法的优化更加侧重于通用性。  相似文献   

11.
为了克服图像底层特征与高层语义之间的语义鸿沟,降低自顶向下的显著性检测方法对特定物体先验的依赖,提出一种基于高层颜色语义特征的显著性检测方法。首先从彩色图像中提取结构化颜色特征并在多核学习框架下,实现对图像进行颜色命名获取像素的颜色语义名称;接着利用图像颜色语义名称分布计算高层颜色语义特征,再将其与底层的Gist特征融合,通过线性支持向量机训练生成显著性分类器,实现像素级的显著性检测。实验结果表明,本文算法能够更加准确地检测出人眼视觉关注点。且与传统的底层颜色特征相比,本文颜色语义特征能够获得更好的显著性检测结果。  相似文献   

12.
Interpolation-tuned salient region detection   总被引:1,自引:0,他引:1  
Image salient region detection is very useful in many multimedia applications,such as image retrieval,adaptive content delivery,and adaptive compression.Most existing methods are based on centersurround diferences,usually detecting the diferences around region boundaries,so these methods emphasize the high-contrast edges instead of detecting the regions.Diferent from traditional methods,our method smoothly propagates salient region information to the whole image by performing color interpolation and produces such saliency maps that uniformly highlight the whole salient regions and have high contrast between salient regions and backgrounds.We compare our method with five state-of-the-art salient region detection methods on a large public data set.The proposed method not only generates visually reasonable results but also achieves higher precision and better recall rates.  相似文献   

13.
为了帮助对视觉障碍患者有效识别道路周围的场景,提出一种基于迁移学习和深度神经网络方法,实现实时盲道场景识别。首先提取盲道障碍物的瓶颈描述子和判别区域集成显著性特征描述子,并进行特征融合,然后训练新的盲道特征表示,用Softmax函数实现盲道场景识别。实验中,对成都不同区域盲道周围障碍物采样,分别采用基于Mobilenet模型不同参数训练和测试了提出的新模型,最后在实际应用场景,实现了盲道周边障碍物的实时分类和报警,实验证明提出的方法具有很高准确率和良好的运行性能。  相似文献   

14.
Recent advances in supervised salient object detection modeling has resulted in significant performance improvements on benchmark datasets. However, most of the existing salient object detection models assume that at least one salient object exists in the input image. Such an assumption often leads to less appealing saliencymaps on the background images with no salient object at all. Therefore, handling those cases can reduce the false positive rate of a model. In this paper, we propose a supervised learning approach for jointly addressing the salient object detection and existence prediction problems. Given a set of background-only images and images with salient objects, as well as their salient object annotations, we adopt the structural SVM framework and formulate the two problems jointly in a single integrated objective function: saliency labels of superpixels are involved in a classification term conditioned on the salient object existence variable, which in turn depends on both global image and regional saliency features and saliency labels assignments. The loss function also considers both image-level and regionlevel mis-classifications. Extensive evaluation on benchmark datasets validate the effectiveness of our proposed joint approach compared to the baseline and state-of-the-art models.  相似文献   

15.
基于视觉显著图的异性纤维彩色图像分割方法   总被引:1,自引:0,他引:1  
为实现对棉花异性纤维自动视觉检测系统采集的彩色图像的精确分割,提出了基于视觉显著图的异性纤维彩色图像分割方法.通过计算颜色显著图,实现彩色异性纤维目标的识别;通过计算亮度显著图,实现灰色异性纤维目标的识别;将彩色和灰色目标进行融合,得到全部异性纤维目标.实验结果表明,该方法可以准确分割出异性纤维彩色图像中含有的各种异性纤维目标.通过比较发现,该方法在分割精度上明显优于其它方法,可以实现对异性纤维彩色图像的精确分割.  相似文献   

16.
由于忽略了对多尺度特征的提取,以及不同层次特征之间的差异,显著性目标检测仍然存在预测结构不完整、细节丢失的问题。为了解决这些问题,提出了一个新的显著性检测模型M3Net。该网络主要由多尺度特征自适应融合模块和循环反馈聚合模块组成。多尺度特征自适应融合模块旨在自适应地捕捉和聚合不同层次的多尺度特征。循环反馈聚合模块组成可以在迭代过程中对不同层次的特征聚合的同时,有效地防止特征的稀释。在五个基准数据集上的实验结果表明,该网络在Fβ、Em、MAE三种评价指标上优于十种现有网络。在DUT-OMRON数据集上,Fβ指标比排名第二的显著性检测模型提高了0.4%,Em指标提高了0.3%;在ECSSD数据集上,Fβ指标比排名第二的显著性检测模型提高了0.2%,Em指标提高了0.3%,同时网络还具有优秀的速度表现。  相似文献   

17.
针对已有方法不能很好地检测显著目标边界以及完整区域问题,提出一种基于超像素分割的图像显著性检测方法。首先,对原图像进行双边滤波降低局部颜色差异,使图像更加平滑、均匀,同时能够保留显著目标的边缘信息。然后通过计算局部窗口内像素的差异来实现显著目标边界的初步检测;滤波后的图像通过超像素分割将具有相同或相近颜色特征的像素划分到一个超像素区块内,在此基础上,综合考虑超像素区块的局部对比度与全局对比度以及空间分布关系来计算每个区块的显著值。最后,融合上述两部分的结果并通过引导滤波来对检测结果进行优化处理。在MSRA-1000公开数据集上与其他7种方法进行对比实验,所提方法的平均准确率为81.57%,平均召回率为77.13%,综合指标F-measure值为80.50%。实验结果表明,提出的方法能够很好地检测出显著目标边界与内部信息,均匀突出了显著区域,证明了所提方法的有效性和鲁棒性。  相似文献   

18.
目的 全卷积模型的显著性目标检测大多通过不同层次特征的聚合实现检测,如何更好地提取和聚合特征是一个研究难点。常用的多层次特征融合策略有加法和级联法,但是这些方法忽略了不同卷积层的感受野大小以及产生的特征图对最后显著图的贡献差异等问题。为此,本文结合通道注意力机制和空间注意力机制有选择地逐步聚合深层和浅层的特征信息,更好地处理不同层次特征的传递和聚合,提出了新的显著性检测模型AGNet(attention-guided network),综合利用几种注意力机制对不同特征信息加权解决上述问题。方法 该网络主要由特征提取模块(feature extraction module, FEM)、通道—空间注意力融合模块(channel-spatial attention aggregation module, C-SAAM)和注意力残差细化模块(attention residual refinement module,ARRM)组成,并且通过最小化像素位置感知(pixel position aware, PPA)损失训练网络。其中,C-SAAM旨在有选择地聚合浅层的边缘信息以及深层抽象的语义特征,利用通道注意力和空间注意力避免融合冗余的背景信息对显著性映射造成影响;ARRM进一步细化融合后的输出,并增强下一个阶段的输入。结果 在5个公开数据集上的实验表明,AGNet在多个评价指标上达到最优性能。尤其在DUT-OMRON(Dalian University of Technology-OMRON)数据集上,F-measure指标相比于排名第2的显著性检测模型提高了1.9%,MAE(mean absolute error)指标降低了1.9%。同时,网络具有不错的速度表现,达到实时效果。结论 本文提出的显著性检测模型能够准确地分割出显著目标区域,并提供清晰的局部细节。  相似文献   

19.
目的 在显著物体检测算法发展过程中,基准数据集发挥了重要作用。然而,现有基准数据集普遍存在数据集偏差,难以充分体现不同算法的性能,不能完全反映某些典型应用的技术特点。针对这一问题,本文对基准数据集的偏差和统计特性展开定量分析,提出针对特定任务的新基准数据集。方法 首先,讨论设计和评价数据集时常用的度量指标;然后,定量分析基准数据集的统计学差异,设计新的基准数据集MTMS300(multiple targets and multiple scales);接着,使用基准数据集对典型视觉显著性算法展开性能评估;最后,从公开基准数据集中找出对多数非深度学习算法而言都较为困难(指标得分低)的图像,构成另一个基准数据集DSC(difficult scenes in common)。结果 采用平均注释图、超像素数目等6种度量指标对11个基准数据集进行定量分析,MTMS300数据集具有中心偏差小、目标面积比分布均衡、图像分辨率多样和目标数量较多等特点,DSC数据集具有前景/背景差异小、超像素数量多和图像熵值高的特点。使用11个基准数据集对18种视觉显著性算法进行定量评估,揭示了算法得分和数据集复杂度之间的相关性,并在MTMS300数据集上发现了现有算法的不足。结论 提出的两个基准数据集具有不同的特点,有助于更为全面地评估视觉显著性算法,推动视觉显著性算法向特定任务方向发展。  相似文献   

20.
目的 现有基于RGB-D(RGB-depth)的显著性物体检测方法往往通过全监督方式在一个较小的RGB-D训练集上进行训练,因此其泛化性能受到较大的局限。受小样本学习方法的启发,本文将RGB-D显著性物体检测视为小样本问题,利用模型解空间优化和训练样本扩充两类小样本学习方法,探究并解决小样本条件下的RGB-D显著性物体检测。方法 模型解空间优化通过对RGB和RGB-D显著性物体检测这两种任务进行多任务学习,并采用模型参数共享的方式约束模型的解空间,从而将额外的RGB显著性物体检测任务学习到的知识迁移至RGB-D显著性物体检测任务中。另外,训练样本扩充通过深度估计算法从额外的RGB数据生成相应的深度图,并将RGB图像和所生成的深度图用于RGB-D显著性物体检测任务的训练。结果 在9个数据集上的对比实验表明,引入小样本学习方法能有效提升RGB-D显著性物体检测的性能。此外,对不同小样本学习方法在不同的RGB-D显著性物体检测模型下(包括典型的中期融合模型和后期融合模型)进行了对比研究,并进行相关分析与讨论。结论 本文尝试将小样本学习方法用于RGB-D显著性物体检测,探究并利用两种不同小样本...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号