首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
将基于深度学习的SSD(Single Shot MultiBox Detector)目标检测方法应用于刑侦图像目标检测中。通过对目标进行多尺度特征提取,将小目标与大目标采用不同级别的特征图方式进行融合识别。实验测试结果表明,SSD方法明显地提高了小目标在刑侦图像中的检测率,且与Faster R-CNN相比发现,在置信阈度为0.5时,SSD的检测精度接近Faster R-CNN,mAP(Mean Average Precision)达到94.8%,检测速度远超Faster R-CNN,帧频FPS达到58Hz。实验结果说明SSD方法在刑侦图像目标识别上具有特别优势。  相似文献   

2.
基于区域建议网络构建一种特征金字塔多尺度网络结构,并结合全卷积操作完成微小目标与类别无关目标的检测. 为了提升图像中微小目标的检测精度,构建基于侧链接融合的3层金字塔结构网络,充分利用语义级别比较低的图像卷积特征. 为了提高类别无关的图像目标检测鲁棒性,提出特定的非极大值抑制算法,在重叠目标过滤时消除冗余目标窗口,并对目标窗口进行位置精修. 在PASCAL VOC 2007、PASCAL VOC 2012以及古代绘画数据集上的实验结果表明:所提算法对于微小目标、多尺度目标检测及种类无关的目标检测的检测精度高于已有算法.  相似文献   

3.
针对现有的RGB-D图像显著性检测技术难以充分挖掘深度图像的有效信息,无法使RGB特征和深度特征有效融合的问题,提出了一种多分支主干监督网络下的RGB-D图像显著性检测方法。基于Resnet50网络获得两种图像的各层特征,利用深度改进模块从通道和空间注意力的角度提取到有用的深度特征信息。利用特征分组监督融合模块,依据卷积神经网络的理论,对RGB和深度特征从高层到底层分组进行多尺度多模态特征融合,每组融合加入上层融合结果和真值图进行监督,最终迭代得到预测显著图。通过4个具有代表性数据集上进行的实验,对比目前先进的RGB-D图像显著性检测,表明此模型平均绝对误差指标最小,在F值、E值和S值指标上均有提高,性能优于其他模型,具有良好的鲁棒性。  相似文献   

4.
为提高高分辨率遥感图像目标检测效果,本文将多特征融合方法和孪生注意力网络相结合,提出一种新的目标检测方法。构建遥感图像目标检测的整体框架,基于锚框模型对遥感图像目标进行多层特征的提取及融合;运用孪生注意力网络对遥感图像目标实时视觉跟踪检测,引入通道和空间的双重自注意力机制,提高目标图像的特征表达能力,由此得到更加精准的检测结果。实验分析结果表明,本文方法的平均总体精度为93.8,F1指数平均值为0.88,Kappa系数平均值为0.93,均明显高于对比方法,说明本文方法具有较好的检测效果。  相似文献   

5.
提出了一种基于多层马尔科夫随机场模型的变化检测方法.首先输入的多个特征通过模拟退火方法得到对应每个特征的初步检测结果,然后利用多层马尔科夫随机场将初步检测结果进行融合.最后对图像进行目标级分割并与像素级变化检测结果相结合,根据各个目标的变化率给出了最终的变化检测.文章提出的方法运用多层马尔科夫随机场融合方法充分考虑了相邻像素间的相关性和各层之间的联系,并从目标角度进行了变化率的分析,使得融合结果更细致和精确.  相似文献   

6.
针对复杂场景下多特征跟踪算法适应性不强的问题,提出一种多特征有效融合和更新的目标跟踪方法.该方法首先在粒子滤波框架下采用加权融合的方式对目标进行多特征观测和相似性度量,通过分析粒子的空间集中度和权值分布建立一种有效的融合系数计算方法,使融合结果更加准确可靠.然后选取可信度高的特征检测遮挡,并动态调整目标模型的更新速度,以降低算法受目标变化和部分遮挡的影响.实验证明该方法对复杂的跟踪场景具有更强的鲁棒性,并适用于目标被遮挡时的跟踪.  相似文献   

7.
海战场光学遥感图像舰船目标检测   总被引:1,自引:0,他引:1  
针对海上舰船目标的检测,提出了一种适于海上区域特征的广域高分辨率光学遥感图像舰船目标检测方法.该方法基于舰船目标的视觉显著性特征,通过三个步骤实现海战场舰船目标的检测.首先,建立遥感图像的视觉显著性特征通道,根据生物视觉生理特性的原理,提取不同特征通道中目标的视觉显著性特征;然后,通过自适应特征图像选择算法,选择显著性权重最高的五幅特征显著图像,并将它们组合成一幅视觉显著性图像;最后,将视觉显著性图像分类,应用基于舰船特征的目标选择方法,将目标列表中的目标划分为舰船目标和未知类型目标.实验结果表明,此方法能以高可靠性和高精确度检测出海战场图像中的目标对象,有效地减少虚警.  相似文献   

8.
针对目前大多数显著性检测方法显著性区域轮廓不明显的缺点,提出了一种基于多尺度多特征的显著性区域检测算法.该算法利用基于改进的八邻域算法和基于熵率的超像素分割方法,获取到不同尺度下图像的亮度特征、颜色特征和纹理特征,从而使显著性区域的轮廓更明显.该算法在MSRA-1000、ECSSD、THUR15K 3个公开数据集上进行实验,并与现有的8种算法(FT,AC,IT,GB,AIM,SEG,SIM,SUN)做了对比,实验结果表明,该方法能够有效地提高图像的检测效果.  相似文献   

9.
针对合成孔径雷达图像边缘、纹理与形状信息丰富,图像尺度大难以处理的问题,提出了一种基于显著性检测的合成孔径雷达目标检测算法.将合成孔径雷达图像表示成超像素,来构建超像素间的关联关系图从而解耦整张图像.同时基于人眼视觉系统对多尺度图像进行非均匀采样的特点,分别提取图像的局部对比度显著性、像素紧凑度显著性和全局唯一性显著性映射,并使用贝叶斯估计得到SAR图像的精确显著性映射,融合三种显著性映射得到最终的显著性图实现目标检测.在各种SAR图像显著性检测实验的定性与定量结果表明,所提方法明显优于现有方法.  相似文献   

10.
利用多尺度频域分析的图像显著区域检测   总被引:1,自引:0,他引:1  
针对显著区域检测中的视觉显著性度量问题,提出了一种通过对图像的频域特征进行多尺度分析来计算显著性的方法.在多个尺度上提取图像底层特征,在频域分析各种特征图的幅度谱和相位谱,在空间域上构造相应的显著图.根据显著图,检测出图像中的显著区域.在多种自然图像和人工图像上进行实验.实验结果表明,该方法能迅速检测出与人类视觉注意结果一致的显著区域,并且在高强度噪声图像中也能取得很好的检测效果.  相似文献   

11.
RGB-D显著性目标检测是计算机视觉领域的研究任务之一,很多模型在简单场景下取得了较好的检测效果,却无法有效地处理多目标、深度图质量低下以及显著性目标色彩与背景相似等复杂场景。因此,本文提出一种三分支多层次Transformer特征交互的RGB-D显著性目标检测模型。首先,本文采用坐标注意力模块抑制RGB和深度图的噪声信息,提取出更为显著的特征用于后续解码。其次,通过特征融合模块将高层的三层特征图调整到相同的分辨率送入Transformer层,有效获取远距离显著性目标之间的关联关系和整幅图像的全局信息。然后,本文提出一个多层次特征交互模块,该模块通过有效地利用高层特征和低层特征对显著性目标的位置和边界进行细化。最后,本文设计一个密集扩张特征细化模块,利用密集扩张卷积获取丰富的多尺度特征,有效地应对显著性目标数量和尺寸变化。通过在5个公开的基准数据集与19种主流模型相比,实验结果表明:本文方法在多个测评指标上有较好的提升效果,提高了在特定复杂场景下的检测精度,从P-R曲线、F-measure曲线和显著图也可以直观看出本文方法实现了较好的检测结果,生成的显著图更完整、更清晰,相比其他模型更加接近真值图。  相似文献   

12.
弱监督显著性目标检测中常存在目标错检、区域检测不全和目标边界不清晰等问题。针对上述问题,提出了一种基于渐进式网络的弱监督显著性目标检测算法,将显著性目标检测分为目标定位、显著性区域完善和目标边界细化3个子任务分阶段完成。首先,将输入图像采样为3个不同尺度的图像,分别输入渐进式网络的3个阶段进行学习;其次,在目标定位阶段设计了嵌套位移多层感知机,平衡网络的全局信息与局部信息的提取能力,以更好地定位显著性目标;最后,根据显著性图的结构不受尺度变化影响的特点,设计了异尺度自监督模块和目标一致性损失函数来构建自监督机制,使网络能够输出区域完整、边界清晰的显著性图。在5个数据集上测试所提算法,其客观指标与主观评价都优于最近的弱监督算法,且在F值指标上可以达到相关全监督算法89%的性能。实验结果表明,所提算法能生成显著性区域更完整、显著性目标边界更锐利的显著性图,且具有良好的鲁棒性。  相似文献   

13.
针对现有的协同显著性检测算法在多显著目标复杂场景下表现不佳的问题,提出了一种基于高效通道注意力和特征融合的协同显著性检测算法。首先,检测算法利用预训练的深度卷积神经网络对场景进行多尺度特征的提取,结合边缘显著信息设计了显著性语义特征提取模块,以避免全卷积神经网络导致边缘信息的缺失;其次,通过内积基本原理得到组内图片间的关联性信息并根据其关联程度进行自适应加权,结合高效通道注意力层设计了协同特征提取算法;最后,为了将各级高层语义特征经过协同显著性特征提取之后的结果与浅层次的特征进行融合,并实现对预测结果进行多分支同步监督,设计了基于高效通道注意力的特征融合模块。通过对3个经典的数据集进行测试,并与6种现有的协同显著检测算法进行对比,结果表明本文所提算法提高了复杂场景中图像的协同显著性检测的精度以及边缘信息的丰富程度,并具有更优的协同显著性信息检测性能;通过消融实验进一步验证了所提设计算法各个模块的有效性和必要性。  相似文献   

14.
遥感图像存在背景复杂、目标尺度差异大且密集分布等不足,为提高现有算法的检测效果提出联合多尺度与注意力机制的遥感图像目标检测算法. 改进空洞空间金字塔池化模块,增大不同尺寸图像的感受野;提出注意力模块用于学习特征图通道信息和空间位置信息,提升算法对复杂背景下遥感图像目标区域的特征提取能力;引入加权双向特征金字塔网络结构与主干网结合来增进多层次特征的融合;使用基于距离的非极大值抑制方法进行后处理,改善检测框易重叠的问题. 在DIOR和NWPUVHR-10数据集上的实验结果表明:所提算法的平均精度均值mAP分别达到71.6%和91.6%,相比于主流的YOLOv5s算法分别提升了2.9%和1.5%. 所提算法对复杂遥感图像取得了更好的检测效果.  相似文献   

15.
目前的视觉注意显著区域检测算法,主要依赖像素间的相互对比,缺乏从全局角度对显著目标的分析理解。依据显著目标是显眼、紧凑和完整的思路,提出一种基于目标空间分布特性和局部复杂度的无监督视觉注意显著目标自动提取算法。首先根据局部区域与其多个尺度邻域的对比,得到亮度显著图;然后利用颜色信息的显眼性、空间分布和区域一致性得到颜色显著图;同时通过对方向的空间分布和局部复杂度进行多尺度分析得到方向显著图;最后通过显著值的空间分布和面积增强因子相结合的融合策略得到输入图像的显著图,根据显著区域确定感兴趣区域位置,在基础上完成目标检测。将此方法应用于各类具有不同特点的彩色图像进行仿真实验,得到较好的检测结果,表明该算法是切实可行。  相似文献   

16.
With the development of sensors, the application of multi-source remote sensing data has been widely concerned. Since hyperspectral image (HSI) contains rich spectral information while light detection and ranging (LiDAR) data contains elevation information, joint use of them for ground object classification can yield positive results, especially by building deep networks. Fortunately, multi-scale deep networks allow to expand the receptive fields of convolution without causing the computational and training problems associated with simply adding more network layers. In this work, a multi-scale feature fusion network is proposed for the joint classification of HSI and LiDAR data. First, we design a multi-scale spatial feature extraction module with cross-channel connections, by which spatial information of HSI data and elevation information of LiDAR data are extracted and fused. In addition, a multi-scale spectral feature extraction module is employed to extract the multi-scale spectral features of HSI data. Finally, joint multi-scale features are obtained by weighting and concatenation operations and then fed into the classifier. To verify the effectiveness of the proposed network, experiments are carried out on the MUUFL Gulfport and Trento datasets. The experimental results demonstrate that the classification performance of the proposed method is superior to that of other state-of-the-art methods.  相似文献   

17.
为了在红外与可见光图像融合中保留更多有效信息,提出一种基于区域显著性分析的融合方法.通过区域分割以及多分辨率对比度分析,获得图像的尺度不变区域显著性图(RSISM).利用RSISM能够有效表达区域的显著性特征,合理区分不同性质的区域;根据RSISM划分显著性区域、背景区域及中间区域,对各区域制定相异融合规则,并在非降采样轮廓波变换(NSCT)变换域上融合双波段图像.实验证明,与传统方法相比,该方法能够更好地保留显著性区域的红外特征及其他区域的细节信息,同时对背景热辐射干扰不敏感,有较好融合效果,并能够拓展应用于动态图像的融合中.  相似文献   

18.
水上交通场景环境复杂,通过普通光学摄像设备获取的水面图像,面临着视觉目标清晰度低、尺度多样化等问题,使得可见光视觉信号里中、小尺度目标检测相对困难。为服务于各类智慧海事应用,提出了一个旨在提高复杂水域背景下多尺度水上船舶目标检测性能的算法(multi-scale ship object detection,MS-SOD)。该算法基于当前计算机视觉技术中主流的单阶段目标检测模型框架,在其主干网络中嵌入卷积注意力模块,来优化船舶特征提取能力;在多尺度特征融合网络中引入富含细节信息的浅层特征,并使用跨阶段局部残差结构,来优化多尺度船舶特征的融合机制;同时,使用焦点损失函数,来优化模型的学习过程;并设计自适应锚框聚类算法优化先验锚框,以提高多尺度船舶目标检测能力。为验证提出算法的有效性和实效性,在构建较大规模水上船舶目标数据集的基础上,开展了广泛实验验证。结果表明:提出的算法在测试数据集上的检测准确度超过了各主流的对比方法;特别是对于大、中、小各尺度船舶目标的检测精度,相对于主流的YOLOv4算法,提出的算法分别提升了11.3%、6.0%和10.5%。  相似文献   

19.
为解决彩色图像小目标检测中目标易丢失与虚警率高的问题,提出了一种基于区域显著性和稳定性标准增强的小目标检测方法( RSSEM )。首先,在区域稳定性特征提取阶段,针对滤波导致的边缘信息缺失问题,填充图像边界并采用多级阈值二值化图像,在聚类准则下二值图像进行区域聚类和二次后验,使本文方法对小目标有较高敏感度。其次,在区域显著性特征提取阶段,利用旋转对称高斯高通滤波对灰度图像进行滤波得到显著性特征图像。最后,融合稳定性特征与显著性特征,并对强噪声滤波后实现小目标检测。在RSS数据集上,与对照组相比,本文方法能显著降低小目标的丢失率和虚警率,比最先进的算法在精确度、召回率、F值上至少提高1%,表明RSSEM的有效性。  相似文献   

20.
1 Introduction The process of reconstructing CAD model froman existing part is reverse engineering,composed of foursteps ,digitizing,data processing,feature extraction, CAD model reconstruction[1].Feature extraction has re-ceived extensive researchinthe past .Byfeature extraction,laser scanning point data of anexisting part is divid-ed.Based on the piecewise point data ,feature type is detected. Feature extraction has two key technologies :feature segmentation and feature classification.Fe…  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号