首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
协同显著目标检测的目的是在包含两张及以上相关图像的图像组中检测共同显著的物体。该文提出一种利用机器学习的方法对协同显著目标进行检测。首先,基于4个评分指标从图像组中选择部分显著目标易于检测的简单图像,构成简单图像集;接着,基于协同一致性的原则,从简单图像集中提取正负样本,并用深度学习模型提取的高维语义特征表示正负样本;再者,利用正负样本训练的协同显著分类器对图像中的超像素进行分类,得到协同显著目标区域;最后,经过一个平滑融合的操作,得到最终的协同显著图。在公开数据集上的测试结果表明,所提算法在检测精度和检测效率上优于目前的主流算法,并具有较强的鲁棒性。  相似文献   

2.
针对显著性目标多样性和不确定性,机器学习算法无法检测没有先验信息的图像问题,提出了一种基于图像边缘信息构建背景模型结合SVM分类算法的显著性目标检测算法.该方法对输入图像进行超像素预处理,使像素级转化为超像素级,既抑制噪声,又提高了计算效率.利用图像边缘超像素构建图像的初始背景模型,得到初始显著图.基于SVM算法建立目...  相似文献   

3.
针对图像中特征提取不均匀、单尺度超像素划分对伪造定位结果影响较大的问题,提出一种基于深度特征提取和图神经网络(graph neural network,GNN) 匹配的图像复制粘贴篡改检测(cope-move forgery detection,CMFD) 算法。首先将图像进行多尺度超像素分割并提取深度特征,为保证特征点数目充足,以超像素为单位计算特征点分布的均匀度,自适应降低特征提取阈值;随后引入新的基于注意力机制的GNN特征匹配器,进行超像素间的迭代匹配,且用随机采样一致性(random sample consensus,RANSAC) 算法消除误匹配;最后将多尺度匹配结果进行融合,精确定位篡改区域。实验表明,所提算法具有良好的性能,也证明了GNN在图像篡改检测领域的可用性。  相似文献   

4.
图像显著性检测能够获取一幅图像的视觉显著性区域,是计算机视觉的研究热点之一。提出一种结合颜色特征和对比度特征的图像显著性检测方法。首先构造图像在HSV空间的颜色函数以获取图像颜色特征;然后使用SLIC超像素分割算法对图像进行预处理,基于超像素块的对比度特征计算图像显著性;最后将融合颜色特征和对比度特征的显著图经过导向滤波优化形成最终的显著图。使用本文算法在公开数据集MSRA-1000上进行图像显著性检测,并与其他6种算法进行比较。实验结果表明本文算法结合了图像像素点和像素块的信息,检测的图像显著性区域轮廓更加完整,优于其他方法。  相似文献   

5.
翁宇游  郑州  郭俊  赵志超  谢炜  胡雨 《激光与红外》2023,53(8):1196-1202
研究基于改进U-Net网络的接地网图像超像素分割方法,提升红外图像超像素分割效果。通过主成分分析法降维处理接地网腐蚀红外图像;利用Turbopixel超像素分割法分割降维后的红外图像,获取数个超像素区域;在全卷积U-Net网络内添加可变形卷积与重构上采样卷积,并利用反向传播算法,优化网络参数,建立改进的全卷积U-Net网络结构;在改进的全卷积U-Net网络内分割获取的数个超像素区域,输出红外图像超像素自动分割结果。实验证明:该方法可有效降维处理接地网腐蚀红外图像,实现红外图像超像素分割,分割后的红外图像边界清晰;在不同分辨率时,该方法的Dice相似性系数较高、Hausdorff距离较低,具备较高的红外图像超像素分割精度。  相似文献   

6.
基于对超像素颜色概率分布间KL散度的计算,以及对多尺度显著图的融合处理,该文提出一种新的显著性区域检测算法。首先,采用超像素算法多尺度分割图像,在各尺度下用分割产生的超像素为节点,并依据超像素分割数量对各超像素进行适当邻接连通扩展,构建无向扩展闭环连通图。 其次,依据颜色判别力聚类量化各超像素内颜色,统计颜色聚类标签的概率分布,用概率分布间KL散度的调和平均值为扩展闭环连通图的边加权,再依据区域对比度并结合边界连通性,获取各尺度下的显著图。 最后,平均融合各尺度下显著图,并进行优化处理,得到最终的显著图。 在一些大型参考数据集上进行大量实验表明,所提算法优于当前一些先进算法,具有较高精确度和召回率,并且可以产生平滑显著图。  相似文献   

7.
显著目标检测是利用计算机检测并分割出一幅图像中最引人注意的目标.因此,重点研究基于深度学习的显著性目标检测算法,在VGG网络基础上添加反卷积层构造全卷积网络实现端到端的语义分割,并利用GMM模型对颜色建模提取显著性目标空间信息,最后通过一个优化模型融合空间信息和语义信息得到最终的显著性目标图.实验结果对比显示,所提算法...  相似文献   

8.
本文旨在研究一种基于深度学习的RGBD图像协同显著目标检测模型。首先,本文构建了多分支的编码器结构,有效地提取RGBD图像的深层卷积特征;然后,使用多模态特征融合模块充分融合来自编码器的深层特征;最后,通过基于残差基本块的解码器来预测得到显著性图。此外,本文以深层次监督的方式对整个网络进行约束优化。在两个公开数据集上的测试结果表明,所提模型在预测精度上优于当前6种主流模型,这其中我们的显著性图呈现出更精确的边缘细节。   相似文献   

9.
熊艳  张群  李坤 《信息技术》2014,(5):15-17
提出了一种基于深度调制的超像素分割和视觉显著性检测方法。对于一对匹配的纹理和深度图,该方法首先对深度图像进行超像素计算,然后借助纹理和深度信息对超像素结果进行融合,完成对图像的超像素分割,最后对分割区域进行纹理和空间的全局对比,从而产生全分辨率的显著性图。实验证明,该方法简单、高效,所得显著性检测结果具有更高的精度,明显优于现有的视觉显著性检测方法。  相似文献   

10.
随着城市交通智能化发展,准确高效地获取可用车位对于解决日益严峻的停车难问题至关重要。该文提出一种基于非局部操作的深度卷积神经网络车位占用检测算法。针对停车位图像特性,引入非局部操作,度量远距离像素间的相似性,直接获取边缘高频特征;使用小卷积核获取局部细节特征;以端到端的方式训练网络。实验中,通过设置不同卷积核尺寸和非局部模块层数,优化网络结构。实验结果表明,该文所提算法与传统的基于纹理特征的车位占用检测算法相比,无论在预测精度还是模型的泛化性能,均具有显著的优势。与当前广泛应用的基于局部特征提取的卷积神经网络相比,该算法具有较大的优势。在真实场景中,该算法同样具有较高精度,具备实际应用价值。  相似文献   

11.
董波  周燕  王永雄 《电子科技》2009,34(1):23-30
当前的显著性检测算法在复杂场景下难以分割出完整显著性区域以及锐利的边缘细节。针对这一问题,文中提出了一种新颖的特征融合算法。该方法利用全卷积神经网络获取多个层次粗糙的初始特征并结合特征金字塔结构对其深度解析。设计渐进结构感受野模块将特征转换至不同尺度的空间进行优化,实现特征的渐进融合与传递,有选择性地增强显著性区域。采用全局注意力机制消除背景噪声并建立显著性像素之间的长距离依赖,以提高显著性区域的有效性,突出显著性目标,再通过学习融合个层次特征得到显著图。综合实验表明,在绝对误差减小的情况下,F-measure指标远超出其他7种主流方法。所提的显著性模型综合了全卷积神经网络和特征金字塔结构的优点,结合文中设计的渐进结构感受野和全局注意力机制,使得显著图更接近真值图。  相似文献   

12.
针对传统火焰检测模型的检测准确度较低和速度慢等问题,提出一种优化的卷积神经网络和超像素分割算法的视频火焰区域检测方法.首先使用火焰图像数据集对模型进行训练和验证,采用卷积核堆叠替换的方法改进Inception模块的结构;其次采用小卷积核替换的方法改进网络的前端结构,并将Focal-Loss函数作为损失函数以提高模型的泛...  相似文献   

13.
提出了一种基于视觉显著性的目标检测算法,用于对位于地面上的车辆、飞 机等地面可移动目标进行检测和定位。针对地面可移动目标在场景中较小的特点,设计了一种用于对 目标检测进行引导的基于视觉注意机制的目标显著模型。首先,提取图像目标的颜色特征、强 度特征和方向Gabor特征,并将其结合起来用于计算显著图。然后以超像素为单位对 显著值进行计算,并结合人眼视觉敏感度对不同距离的超像素之间的差异进行加权处理。实 验结果表明,本文算法可以有效地检测并定位出复杂背景中的地面可移动目标。  相似文献   

14.
为提高稀疏跟踪器性能,提出一种在贝叶斯推论框架下的基于视觉显著图的结构反稀疏在线目标跟踪算法。首先将基于马尔可夫(Markov)模型的关联性视觉显著度检测算法用于当前帧并计算目标模板的显著图,其次提出全局与局部分块的结构外观模型表示候选目标,将显著图映射回每一个局部块并计算出对应的自适应权重,最后提出联合全局与局部稀疏解的度量准则度量候选目标与目标模板的相似度,从而确立在贝叶斯框架下对目标状态最佳估计。在跟踪过程中,采用反稀疏表达方式一次求解优化问题计算出所有粒子权重来提高算法效率。实验结果表明,本文算法具有良好的鲁棒性和实时性。   相似文献   

15.
针对复杂背景下显著性检测方法不能够有效地抑制背景,进而准确地检测目标这一问题,提出了超像素内容感知先验的多尺度贝叶斯显著性检测方法.首先,将目标图像分割为多尺度的超像素图,在每个尺度上引入内容感知的对比度先验、中心位置先验、边界连通背景先验来计算单一尺度上的目标显著值;其次,融合多个尺度的内容感知先验显著值生成一个粗略的显著图;然后,将粗略显著图值作为先验概率,根据颜色直方图和凸包中心先验计算观测似然概率,再使用多尺度贝叶斯模型来获取最终显著目标;最后,使用了3个公开的数据集、5种评估指标、7种现有的方法进行对比实验,结果表明本文方法在显著性目标检测方面具有更好的表现.  相似文献   

16.
Detection of salient objects in image and video is of great importance in many computer vision applications. In spite of the fact that the state of the art in saliency detection for still images has been changed substantially over the last few years, there have been few improvements in video saliency detection. This paper proposes a novel non-local fully convolutional network architecture for capturing global dependencies more efficiently and investigates the use of recently introduced non-local neural networks in video salient object detection. The effect of non-local operations is studied separately on static and dynamic saliency detection in order to exploit both appearance and motion features. A novel deep non-local fully convolutional network architecture is introduced for video salient object detection and tested on two well-known datasets DAVIS and FBMS. The experimental results show that the proposed algorithm outperforms state-of-the-art video saliency detection methods.  相似文献   

17.
Color is the most informative low-level feature and might convey tremendous saliency information of a given image. Unfortunately, color feature is seldom fully exploited in the previous saliency models. Motivated by the three basic disciplines of a salient object which are respectively center distribution prior, high color contrast to surroundings and compact color distribution, in this paper, we design a comprehensive salient object detection system which takes the advantages of color contrast together with color distribution and outputs high quality saliency maps. The overall procedure flow of our unified framework contains superpixel pre-segmentation, color contrast and color distribution computation, combination, and final refinement.In color contrast saliency computation, we calculate center-surrounded color contrast and then employ the distribution prior in order to select correct color components. A global saliency smoothing procedure that is based on superpixel regions is introduced as well. This processing step preferably alleviates the saliency distortion problem, leading to the entire object being highlighted uniformly. Finally, a saliency refinement approach is adopted to eliminate artifacts and recover unconnected parts within the combined saliency maps.In visual comparison, our method produces higher quality saliency maps which stress out the total object meanwhile suppress background clutter. Both qualitative and quantitative experiments show our approach outperforms 8 state-of-the-art methods, achieving the highest precision rate 96% (3% improvement from the current highest), when evaluated via one of the most popular data sets. Excellent content-aware image resizing also could be achieved using our saliency maps.  相似文献   

18.
A feature fusion approach is presented to extract the region of interest (ROI) from the stereoscopic video. [0]Based on human vision system (HVS), the depth feature, the color feature and the motion feature are chosen as vision features. [0]The algorithm is shown as follows. Firstly, color saliency is calculated on superpixel scale. Color space distribution of the superpixel and the color difference between the superpixel and background pixel are used to describe color saliency and color salient region is detected. Then, the classic visual background extractor (Vibe) algorithm is improved from the update interval and update region of background model. The update interval is adjusted according to the image content. The update region is determined through non-obvious movement region and background point detection. So the motion region of stereoscopic video is extracted using improved Vibe algorithm. The depth salient region is detected by selecting the region with the highest gray value. Finally, three regions are fused into final ROI. Experiment results show that the proposed method can extract ROI from stereoscopic video effectively. In order to further verify the proposed method, stereoscopic video coding application is also carried out on the joint model (JM) encoder with different bit allocation in ROI and the background region.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号