共查询到18条相似文献,搜索用时 62 毫秒
1.
基于背景差分法和显著性图的海底目标检测方法 总被引:1,自引:3,他引:1
如何完整地提取视频中低对比度的小目标一直是运动目标检测中的热点和难点,尤其是处理水下移动设备拍摄的海底视频,更是具有很大挑战性。针对海底视频的特点,提出一种结合背景差分法和显著性图理论的弱小目标检测方法。该方法对减去背景后仍不清晰的含有目标的视频帧,采用显著性图理论提高目标的对比度,以利于更好地分割目标与背景;同时,利用单帧视频中最大目标个数的先验知识,来判断视频中是否有目标出现,避免因杂质太多而造成目标的错检,以提高检测系统的稳定性。在此基础上进行了与常规背景差分法的比较实验,结果显示该方法能够更好地检测到不清晰的目标。 相似文献
2.
针对病虫害分类时害虫种类多样,且类间与类内差异大等问题,提出了一种害虫分类模型PestNet.模型主要由目标定位模块OPM和多特征融合模块MFFM组成,OPM通过U型网络结构整合害虫图像浅层细节信息和深层空间信息,初步划定显著区域并输出空间语义特征.MFFM通过对空间语义特征和抽象语义特征进行双线性池化操作,弱化背景信息,增加细节特征.此外,通过目标区域裁剪和掩膜等方式辅助训练模型,提高模型分类精度.将该模型在病虫害数据集IP102上进行实验,分类准确率可达77.40%,能够实现复杂背景下大规模害虫图像的分类识别. 相似文献
3.
RGB-D显著性目标检测是计算机视觉领域的研究任务之一,很多模型在简单场景下取得了较好的检测效果,却无法有效地处理多目标、深度图质量低下以及显著性目标色彩与背景相似等复杂场景。因此,本文提出一种三分支多层次Transformer特征交互的RGB-D显著性目标检测模型。首先,本文采用坐标注意力模块抑制RGB和深度图的噪声信息,提取出更为显著的特征用于后续解码。其次,通过特征融合模块将高层的三层特征图调整到相同的分辨率送入Transformer层,有效获取远距离显著性目标之间的关联关系和整幅图像的全局信息。然后,本文提出一个多层次特征交互模块,该模块通过有效地利用高层特征和低层特征对显著性目标的位置和边界进行细化。最后,本文设计一个密集扩张特征细化模块,利用密集扩张卷积获取丰富的多尺度特征,有效地应对显著性目标数量和尺寸变化。通过在5个公开的基准数据集与19种主流模型相比,实验结果表明:本文方法在多个测评指标上有较好的提升效果,提高了在特定复杂场景下的检测精度,从P-R曲线、F-measure曲线和显著图也可以直观看出本文方法实现了较好的检测结果,生成的显著图更完整、更清晰,相比其他模型更加接近真值图。 相似文献
4.
针对复杂背号下红外图像弱小目标检测难题,提出了一种基于视觉显著性的目标检测方法。首先利用基于视觉注意机制的显著性模型计算图像的显著度图,然后根据图像的显著度图确定目标的区域,最后在原图像上确定目标的精确位置,仿真实验结果表明,本文方法能够很好地检测出红外图像中的弱小目标;与常用背景抑制法相比,该方法不仅较好地突显了目标,而且极大地消除了虚警干扰。 相似文献
5.
红外和可见光图像的融合既要突出红外图像中重要的亮度特征,又要使融合图像保留清晰的视觉效果。因此,提出了基于Gabor滤波和显著性检测的融合方法。首先,采用显著性检测得到红外和可见光图像的显著层,再使用Frankle-McCann Retinex增强算法对可见光图像进行增强,之后用Gabor滤波器将红外图像和增强后的可见光图像分解为细节层和基础层。然后,采用“最大绝对”的融合策略对显著层与细节层进行融合,最后进行图像重构。实验结果表明,得到的结果与其他八种经典算法比较中表现优异,尤其是AG、EI、IE、SF等指标方面尤为突出。 相似文献
6.
RGB深度图像(RGB–D)显著性目标检测是计算机视觉领域的研究任务之一,很多模型在简单场景下取得了较好的检测效果,却无法有效地处理多目标、深度图质量低下及显著性目标色彩与背景相似等复杂场景。因此,本文提出一种3分支多层次Transformer特征交互的RGB–D显著性目标检测模型。首先,提出一个跨模态坐标注意力模块,该模块通过采用坐标注意力抑制RGB图像和深度图的噪声信息,从而提取出更为显著的特征信息用于后续解码。其次,通过特征融合模块将高层的3层特征图调整到相同的分辨率送入Transformer层,有效地获取远距离显著性目标之间的关联关系和整幅图像的全局信息。然后,提出一个多层次特征交互模块,该模块有效地聚合多层次信息进行特征交互,从而能够更精准地定位显著性目标的位置,同时对显著性目标的边界进行细化。最后,设计一个密集扩张特征细化模块,利用密集扩张卷积获取丰富的多尺度特征,有效地应对显著性目标数量和尺寸变化。将模型在5个公开的基准数据集上与19种主流模型相比,实验结果表明:本文方法在多个测评指标上有较好的提升效果,提高了在特定复杂场景下的检测精度;从P–R(precision–re... 相似文献
7.
当前监控视频数据呈现海量增长,针对监控视频的前景目标提取已成为未来城市建设的重点研究方向.为了更加准确高效地检测视频前景目标,并且能同时适用于静态和动态背景的视频,提出了一种基于多尺度背景差的视频前景检测算法.该算法以背景差法为基础,加入了多尺度高斯金字塔影像进行改进,充分利用了多尺度图像的优点,在大尺度图像中能检测出更多目标细节,在小尺度图像中能更有效地检测出目标轮廓.运用MATLAB编程与两种常用的视频前景检测算法进行了比较和分析,并且利用Recall和Precision指标进行了精度评定.实验结果表明,这种方法检测精度较高,抗噪能力较强,不管在静态背景还是动态背景的视频中,都能取得很好的检测效果. 相似文献
8.
针对遥感图像自动判读的应用场景,提出了一种基于视觉显著性的分层目标检测方法。该方法对于每一个特征定义一个偏好函数,并定义一个将各偏好函数计算的多个视觉显著性图像合成为一个视觉显著性图像的合成偏好函数。首先对低分辨率目标图像分别使用各偏好函数计算对应特征的视觉显著性图像;然后使用合成偏好函数计算合成的视觉显著性图像;最后定位出合成偏好函数取得最大值的区域,并将其作为最有可能包含目标的候选区域。这三个步骤在定位出的候选区域对应更高分辨率的图像上反复进行,直到待检测目标被发现或者被确定不存在为止。实验结果证明,该方法能够尽早地略过那些不包含目标的区域,与传统的目标检测方法相比,具有更好的检测效果和更少的计算量。 相似文献
9.
针对目前大多数视频显著性检测中背景复杂以及显著目标边缘模糊、显著目标内部存在空洞不能一致高亮的问题,提出了一种基于动静态边缘和自适应融合的视频显著性检测算法。该算法利用静态边缘和运动边缘信息融合后初步定位显著目标,并对其进行一系列平滑操作获得目标的精确边缘然后计算梯度获得初始显著图。然后,考虑前一帧对当前帧的有效性约束,计算相邻两帧的颜色直方图进而得到两帧的相似度,由相似度决定两帧在自适应融合时各自的比重,得到当前帧的最终显著图。在公开视频显著性数据集ViSal上算法F值接近0.8,MAE接近0.06,表明该方法性能优于目前主流算法,对复杂背景有较强鲁棒性,同时能够快速、清晰而准确地提取出视频序列中的显著性目标。 相似文献
10.
为了在复杂的场景中均匀突出时空一致的显著物体,提出了一种无监督的视频显著性检测框架。该框架包含3种显著图,运动显著图、空间显著图和时间显著图。首先,本文提出利用运动对比度来突出视频中显著运动的物体,并自适应融合时空梯度场图生成运动显著图;接着,利用帧内的局部对比度和全局对比度对运动显著图中的前景目标进行精细化,得到空间显著图;其次,根据视频序列相邻帧之间的目标存在时间一致性的特点,利用相邻帧之间的颜色和运动相似度加权融合前一帧的显著图,生成时间显著图;最后,融合3种显著图得到视频显著图。本文在3个公开的数据集(DAVIS、FBMS和Segtrackv2)上对本算法进行了定性和定量的评估。实验表明,本算法在具有挑战性的场景中对目标物体的检测性能优于目前经典的显著性检测算法。 相似文献
11.
针对现有许多检测方法提取出的显著性区域不够清晰的问题,提出一种基于视觉中心偏移的视觉显著性检测方法,在对图像进行预分割的基础上,结合图像的颜色对比特征、颜色分布特征和位置特征,提取出图像显著性区域,利用视觉中心转移模拟人类视野系统的视野转移过程,对图像进行多尺度分析,融合不同尺度显著图得到最终显著图。试验结果表明,本方法较现有显著性检测方法在视觉效果和查准率召回率有明显提高,ROC曲线下的面积可达0.952。 相似文献
12.
为解决基于形状的目标检测算法受图像复杂背景的影响,本文提出了一种新的基于轮廓匹配的复杂背景中目标检测方法,算法结合了显著性检测和模板匹配的方法.首先对输入图像在超像素级别进行预处理,应用显著性区域检测方法得到不含复杂背景的区域图像,然后在显著性区域内得到初始边缘图像,对初始边缘图像进行优化处理后利用形状描述子进行轮廓匹配,最后,通过深度优先的搜索策略识别目标的假设位置并进行假设验证来确定最终的目标位置,完成复杂背景图像中的目标检测任务.在ETHZ形状数据集的实验结果证明了本文算法的可行性,根据50%-IoU和20%-IoU标准与其它几种基于形状的目标检测方法进行对比,当误报率为0.3时,算法平均检测率是96%,误报率为0.4时,检测率已经达到99%,如果接受更高误报率时检测率可达到100%,均高于其余几种算法.算法的实验和对比分析结果表明本文方法可以提高检测精度,具有明显的性能优势,为复杂背景中的目标检测提供了新的解决方法. 相似文献
13.
由于织物图像纹理多样化及疵点类别较多,为了更有效地检测织物疵点,结合织物图像特性及借鉴人类视觉感知机理,提出一种基于纹理差异视觉显著性模型的织物疵点检测算法。该算法首先对图像进行分块,计算各个图像块LBP(local binary pattern)纹理特征,与图像块平均纹理特征的相似度比较,进行显著度计算,从而有效突出了疵点区域。最后利用改进阈值分割算法,实现对疵点区域的定位。通过与已有视觉显著性模型进行比较,得出该算法更能有效地突出疵点区域;同时,分割结果与已有织物疵点检测算法相比发现,该算法具有更强的疵点检测及定位能力。 相似文献
14.
为了在图像显著性区域提取过程中改善算法的自适应性和精准度,提出基于自适应流形相似性的图像显著性区域检测算法。将图像分割成超像素,根据图像中显著性区域频率变化比较大的特性,生成图像显著性区域的高频节点;针对高频节点利用凸包运算寻找显著性区域的种子节点;使用流形算法在图像中对种子节点进行显著性区域信息扩散,得到图像的显著性区域。试验结果表明:利用流形算法搭建求解每个数据的邻接矩阵进行信息扩散,能够在保证信息精准分类的同时提高算法的自适应性,其结果优于同类的图像显著性区域检测算法。 相似文献
15.
针对游泳池监视系列图像中的游泳者进行检测,提出了基于背景减法的游泳者溺水检测方法.该方法通过架设在泳池内的固定摄像机获得连续视频监视图像,采用独立混合高斯模型描述每一被观察的像素,建立自适应背景模型并实时更新.前景目标检出后,对所得前景图像进行阴影检测和噪音去除,使得检测结果更加理想,为目标分类打好基础.实验结果表明,该方法能准确的检测出游泳者并有效的去除阴影部分. 相似文献
16.
针对自适应敏感度分割(self-balanced sensitivity segmenter, SuBSENSE)算法在真实复杂场景下距离阈值更新适应性差,导致检测效果不佳的问题,提出一种基于背景复杂度自适应距离阈值修正的SuBSENSE算法。结合时间一致性和空间一致性定义了一种背景复杂度的度量方式,以此为标准,通过距离阈值修正策略获取准确的距离阈值,以便获得更好的检测效果。本算法与像素自适应分割(based adaptive segmenter,PBAS)算法和传统SuBSENSE算法进行了对比。试验表明,在动态场景下,本算法获取的前景更加精确,精度比PBAS算法和传统SuBSENSE算法提高了6.70%和0.80%,召回率比PBAS算法和传统SuBSENSE算法分别提高了9.37%和1.24%。本算法优于对比算法,在动态场景下具有更高的鲁棒性和检测精度。 相似文献
17.
为了更好提取图像的显著性区域,提出基于信息弥散机制的图像显著性区域检测算法。在所提算法中,首先将图像分割成超像素,根据图像中显著性区域频率变化比较大的特性,生成图像显著性区域的高频节点;然后针对高频节点利用凸包运算寻找显著性区域的种子节点,最后使用二阶高斯-马尔科夫随机场信息弥散方法在图像中对种子节点进行显著性区域信息扩散,得到图像的显著性区域。试验结果表明,利用二次规划求解每个数据之间的线性关系进行信息扩散,能够达到避免阈值选择和信息精准分类的效果,其结果优于同类的图像显著性区域检测算法。 相似文献
18.
基于背景预测的红外弱小目标检测新算法 总被引:1,自引:0,他引:1
针对复杂背景中弱小目标检测难的问题,提出一种改进的双边滤波背景预测算法.该算法在双边滤波中引入梯度算子,自适应地对背景进行预测,将原始图像与预测图像相减可以抑制背景细节、增强目标信息,同时利用梯度的统计特性减少算法的计算量,提高了弱小目标检测性能.仿真和实验表明,与双边滤波的检测算法相比,该算法能够更加有效地从复杂背景中检测弱小目标. 相似文献