首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对X光行李图像安全检测过程中存在物品高度重叠遮挡及复杂背景干扰等问题,提出了一种融合注意力机制、数据增强策略与加权边框融合算法的改进YOLOv5网络模型用于X光违禁品检测。模型在Neck部分引入卷积注意力模块加强网络对违禁品深层重要特征的提取,抑制背景干扰;训练阶段采用Mixup数据增强策略模拟带有高度重叠及遮挡物品的检测场景,加强模型复杂样本的学习能力;测试阶段采用加权边框融合算法对冗余预测框进行优化,提高模型精准预测能力。所提模型在3个大型复杂数据集SIXray、HiXray、OPIXray进行了测试,平均精度均值分别达到了89.6%、83.1%和91.6%。结果表明:所提模型能够有效提高YOLOv5检测复杂违禁品的能力,与现有诸多先进算法相比,具有较高的准确率和稳健性。  相似文献   

2.
针对遥感图像中小目标检测精度低以及漏检现象严重的问题,提出一种基于YOLOv4改进的遥感小目标检测算法。该算法首先改进特征提取网络,删除深层次特征层,减少语义丢失现象;其次将轻量级注意力机制与RFB-S结构融合,拓展感受野,并加强网络对重要信息的关注程度,从而提升检测精度;最后使用Focal Loss函数解决正负样本不均衡问题,抑制背景目标,进一步增强检测效果。在RSOD数据集上的实验结果表明,改进后算法检测平均精度为96.5%,召回率达到87.2%,检测效果明显提升,有效改善了小目标漏检现象,对遥感图像小目标检测具有重要意义。  相似文献   

3.
赵晓枫  徐明扬  王聃漂  杨佳星  张志利 《红外与激光工程》2019,48(11):1104003-1104003(10)
在目标检测领域,基于深度学习的SSD目标检测网络同时具有实时性好和准确性高两大优点。由于特种车辆红外图像难以获取,以小轿车和公交车红外图像为研究对象,构建了红外图像Pascal VOC数据集,训练了SSD网络,并利用训练好的网络检测了红外目标图像。结果表明,红外目标的特征信息越多,检测精度越高,但红外图像中信息残缺的车辆存在漏检的问题。针对该问题,通过添加残缺窗口模块优化数据集结构,有效解决了车辆漏检问题,同时目标整体的检测准确率也明显提升。将改进数据集后的红外目标检测结果作为评价指标,能够较准确评估复杂背景下特种车辆红外隐身伪装效果。  相似文献   

4.
针对光学遥感图像飞机目标背景复杂、检测精度与检测速度不平衡、易漏检等问题,提出一种融合不同网络模块的SPSSD模型。首先,采用Resnet50替换SSD300算法中的特征提取网络,并加入可操控的空洞卷积模块,扩大特征感受野获取更多有利检测目标的特征信息;其次,加入FPN和SPP网络,得到浅层特征信息,并将感受野二次放大后的特征与深层特征信息进行融合;然后,送入ECANet网络中获取更加完整且更具有判断力的特征信息;最后,采用NWPU-RESISC45数据集3400张高分辨率飞机遥感图像输入至SPSSD模型中迭代训练,最终改进算法模型mAP值达到92.68%,较改进前的算法模型提升了5.18个百分点,检测速度达到25.1帧/s。实验结果表明,该方法可以有效兼顾飞机目标的检测精度与检测速度,一定程度上降低了目标漏检率。  相似文献   

5.
刘颖  孙海江  赵勇先 《液晶与显示》2023,(11):1455-1467
针对复杂场景下红外图像中弱小目标像素占比少、特征细节不明显致使目标特征提取困难、检测准确率低的问题,提出了一种基于注意力机制的复杂背景下红外弱小目标检测方法。该方法以YOLOv5网络为基础,设计SimAMC3注意力机制模块,优化网络的特征提取层;设计目标检测头,通过增加特征融合层来改变其开始进行特征提取的深度,获得新的弱小目标检测层,使浅层特征层更好地保留弱小目标的空间信息;改进预测框筛选方式,提高距离相近或重叠目标的检测精度。实验选取了两个SIRST红外弱小目标图像数据集,对其进行标注并训练。实验结果表明,改进后的算法与原YOLOv5算法相比,平均精度均值(mAP)分别提升了4.8%和7.1%,在不同复杂背景下均可有效检测出红外弱小目标,体现了良好的鲁棒性和适应性,可以有效应用于复杂背景中的红外弱小目标检测。  相似文献   

6.
为解决在车道线磨损、被遮挡以及光照变化等复杂场景中车道线检测精度较低的问题,提出了一种基于编码-解码网络的车道线检测算法。首先,对Resnet18网络进行改进和优化,组成编码网络;然后,结合ASPP模块和金字塔注意力机制组成解码网络,对图像进行像素级的语义分割,识别并区分车道线;最后基于自适应拟合算法拟合车道线。在Tusimple公开数据集上进行训练和测试,结果表明,该算法的准确率、检测速率、误检率和漏检率分别为:96.45%、35帧/秒、2.59%、1.41%,在复杂场景下的检测精度较高,鲁棒性较强。  相似文献   

7.
本文研究天波雷达基于距离?多普勒(Range?Doppler, RD)图像的干扰检测问题。在干扰检测过程中,错误检测可能是干扰的漏检与虚警问题,为此考虑采用主动学习方法,将算法模型难以判决的样本由专家标注,并将标注样本加入至训练集中以达到提升检测性能的目的。同时,也需要解决训练集样本的冗余问题,为此使用原型数据学习方法,建立有干扰和无干扰样本数据云,有效地降低训练集样本量。实测数据实验表明,原型方法将初始训练集样本数量降低至23.5%,主动学习方法取得的检测准确率为97.42%,而传统监督学习最近邻方法准确率为87.96%。因此,本文方法能够有效提升天波雷达干扰检测能力,为天波雷达是否需要进行干扰处理与换频检测等工作提供可靠依据。  相似文献   

8.
随着科技的不断发展,图像充斥在人类生活的任何角落,因此如何提取出图像中包含的信息,完成对图像目标的检测是当前研究的热点问题。针对一阶段目标检测算法可能会对目标图像产生漏检的情况,本文使用MobileNet V2和ResNet50网络对传统的Faster R-CNN的主干特征提取网络进行改进。在公开数据集上的实验结果表明,基于MobileNet V2特征提取的Faster R-CNN网络占用的计算资源和存储资源最少,基于ResNet50特征提取的Faster R-CNN网络的检测效果最优。此外,两种改进的Faster R-CNN网络均能有效克服一阶段目标检测算法中的漏检问题。  相似文献   

9.
遥感图像普遍目标尺度变化较大,背景较为复杂,这些问题导致当前目标检测算法出现漏检或检测效果不佳等现象。文章选择YOLOv3算法作为基础网络进行改进,对训练数据做Mosaic数据增强,增加困难样本数量。结合ECA通道注意力机制,丰富特征的表达能力。使用CIOU损失作为定位损失,增强了目标回归框的检测精度和收敛速度。在遥感图像数据集RSOD上进行训练和测试,实验结果表明,改进的YOLOv3检测效果更佳,鲁棒性更强,具有很好的实用价值。  相似文献   

10.
水下环境存在光线差、噪声大等复杂情况,导致传统水下目标检测方法检测精度较低、漏检率较高。针对上述问题,在现阶段通用的Faster R-CNN的基础上,提出一种自动色阶与双向特征融合的水下目标检测算法。首先,采用自动色阶对水下模糊图像进行增强处理;其次,采用PAFPN进行双向特征融合,以增强对浅层信息的表达能力;然后,在训练前后均引入柔性非极大值抑制(Soft-NMS)算法,来修正并生成候选目标区域;最后,采用FocalLoss函数,解决正负样本分配不均衡的问题。实验结果表明,所提算法在URPC2020数据集上的检测准确率可达59.7%,召回率可达70.5%,相比现阶段通用的Faster R-CNN算法,分别提高了5.5个百分点和8.4个百分点,有效提高了水下目标检测的准确率。  相似文献   

11.
近年来,基于深度学习的视觉检测方法在海面舰船目标检测领域中的应用愈加广泛。为了解决传统视觉检测方法检测精度不高,对小目标检测效果不好的问题,提出了一种基于Attention-YOLOv3的海面舰船目标检测方法,有效提高了对舰船目标的检测性能。在对主流的One-stage与Two-stage模型结构及特点的调研分析的基础上,利用YOLOv3的特征提取网络Darknet-53来获取图像特征,通过特征金字塔网络(FPN)网络结构融合特征提取网络中深浅层的语义信息,并添加注意力机制模块来进一步优化网络性能。将改进后的Attention-YOLOv3模型应用到海面舰船检测场景中进行验证,基于搜集到的舰船目标制作成COCO格式的数据集进行训练,使用包含海面舰船目标的图片作为测试集进行测试。实验结果表明,改进后的Attention-YOLOv3网络对比原检测网络模型,解决了小目标检测不敏感的问题,达到了更高的检测效果。  相似文献   

12.
针对现有利用可见光与红外模态融合的行人目标检测算法在全天候环境下漏检率高的问题,提出一种基于光照感知权重融合的多模态行人目标检测算法。首先,使用引入高效通道注意力(ECA)机制模块的ResNet50作为特征提取网络,分别提取两个模态的特征;其次,对现有光照加权感知融合策略进行改进,通过设计一种新的光照感知加权融合机制获取可见光与红外模态的对应权重,并进行加权融合得到融合特征,从而降低算法的检测漏检率;最后,将从特征网络最后一层提取的多模态特征和生成的融合特征共同送入到检测网络,完成行人目标检测。实验结果表明,所提算法在KAIST数据集下具有良好的检测性能,在全天候下对行人目标的检测漏检率为11.16%。  相似文献   

13.
基于半监督学习的SAR目标检测网络   总被引:1,自引:0,他引:1  
现有的基于卷积神经网络(CNN)的合成孔径雷达(SAR)图像目标检测算法依赖于大量切片级标记的样本,然而对SAR图像进行切片级标记需要耗费大量的人力和物力。相对于切片级标记,仅标记图像中是否含有目标的图像级标记较为容易。该文利用少量切片级标记的样本和大量图像级标记的样本,提出一种基于卷积神经网络的半监督SAR图像目标检测方法。该方法的目标检测网络由候选区域提取网络和检测网络组成。半监督训练过程中,首先使用切片级标记的样本训练目标检测网络,训练收敛后输出的候选切片构成候选区域集;然后将图像级标记的杂波样本输入网络,将输出的负切片加入候选区域集;接着将图像级标记的目标样本也输入网络,对输出结果中的正负切片进行挑选并加入候选区域集;最后使用更新后的候选区域集训练检测网络。更新候选区域集和训练检测网络交替迭代直至收敛。基于实测数据的实验结果证明,所提方法的性能与使用全部样本进行切片级标记的全监督方法的性能相差不大。  相似文献   

14.
针对低光照环境下现有的目标检测算法普遍存在检测精度较低的问题,提出一种改进YOLOv5的双通道低光照图像目标检测算法(YOLOv5_DC)。首先,通过伽马变换和叠加高斯噪声的方法合成低光照图像,扩充数据集,提高模型的泛化能力;其次,提出特征增强模块,引入通道注意力机制,融合增强图像和原始图像的低级特征,抑制噪声特征的影响,改善网络的特征提取能力;最后,在颈部网络中加入特征定位模块,增加特征图在目标区域的响应值,使网络更关注目标区域,提高网络的检测能力。实验结果表明:所提YOLOv5_DC算法实现了更高的检测精度,在低光照图像目标检测数据集ExDark*上的平均精度均值(mAP)@0.5达71.85%,较原始的YOLOv5算法,提高了1.28个百分点。  相似文献   

15.
雾天环境下的图像对比度低,图像中的目标较为模糊并且其特征提取存在一定难度。现有的目标检测方法对于雾天图像的检测准确率偏低。针对上述问题,本文在Double-Head框架上基于图像的特征提取部分和预测头部进行改进。首先,在提取的深层特征图上添加通道和空间双维度的复合注意力机制,提高网络关注显著目标的能力;其次,将原始图像经过改进的暗通道先验以及处理后得到的先验矩阵和特征图进一步融合,获取更全面的雾天图像特征信息;最后,在预测头部引入可分离卷积,使用解耦合预测头对目标进行最终的分类和回归。该方法在RTTS数据集上的mAP为49.37%,在合成数据集S-KITTI和S-COCOval数据集上的AP值分别为66.7%和57.7%。与其他主流算法相比,本文算法具有更高的目标检测精度。  相似文献   

16.
为解决人员密集情景下行人检测存在大量的目标误检、漏检的情况,本文提出了一种改进的基于Cascade-RCNN的目标检测网络,提高了人员检测的准确率.对目前检测效果较好的Cascade-RCNN做了一些改进:选用ResNeXt101代替ResNet作为骨干网络,以便提取更加充分的特征;为了获得更好的标记框,用kmeans聚类算法得到更符合目标形态的anchor长宽比例,通过WBF算法融合多个模型的结果得到更精确的边界框,同时引入多尺度训练以提高对小尺度目标的检测能力.实验结果表明,在CrowdHuman公开数据集上,用ResNeXt101提取特征其得分提高了 3.7%,用kmeans聚类算法生成anchor比例和WBF算法融合多预测框其准确率提升了 0.7%和1.2%,最终整体性能较基础Cascade-RCNN提升近6%.  相似文献   

17.
针对行人检测在复杂环境下存在的高误检率和丢失率问题,提出了一种基于YOLOv5s的改进模型YOLOv5s-RFDH。该模型在保留YOLOv5s基线网络的基础上,在特征提取和检测部分进行了优化改进,以提高行人检测在复杂场景中的准确性和鲁棒性。针对CrowdHuman数据集和WiderPerson数据集进行行人目标检测。以上数据集行人密集且存在大量遮挡,因此,采用了K-Means++聚类算法来重新聚类数据集以获取适合数据的锚框;引入感受野模块(Receptive Field Block, RFB)来进行特征提取,在不同分支中使用空洞卷积增加感受野从而提取更深层次的特征信息,并最终将这些特征融合在一起,提升了小目标行人的检测精度;解耦头可以解决目标检测中的尺度不变性问题,引入解耦检测头将分类和回归任务分离,从而能够更加准确地检测到不同尺度和大小的目标。在CrowdHuman数据集和WiderPerson数据集划分出的测试集上进行对比实验,结果表明,改进后的模型在检测准确率上得到提升,丢失率有所下降,在以上两个不同数据集上检测准确率分别提升1.4%和1.2%,丢失率分别降低2.0%和1.7%。  相似文献   

18.
提出了一种基于FCOS神经网络的小建筑物目标检测算法,针对FCOS模型在特征提取阶段提取到的小建筑物目标特征较少问题,引入多尺度检测和可变形卷积方式,加强网络对小建筑物目标的特征提取能力,并通过改进后的SGE注意力机制降低特征图中的干扰噪声权重。改进后的网络可以提取到更多的小建筑物目标特征,对环境干扰噪声的鲁棒性更强。在自己搭建的数据集上进行了实验测试,结果表明,在相同环境下网络改进后建筑物的整体检测准确率提升了1.7%,其中对小建筑物目标提升了3.6%,减少了小建筑物目标漏检、误检的问题。  相似文献   

19.
深度学习算法以其端到端训练和高准确率等优势被广泛应用于合成孔径雷达图像舰船检测领域。然而,SAR图像中舰船目标尺寸跨度较大,且易受到复杂背景和噪声的干扰,从而影响识别精度。为了进一步提高网络的检测精度,本文提出了一个多尺度注意力融合网络。该网络主要包含一个多尺度特征注意力融合模块,该模块使用骨干网络输出的特征图,融合多尺度的信息,在空间和通道维度对FPN输出的特征图进行增强,用于抑制噪声和背景对舰船目标的影响,提升网络的特征提取能力。此外,本文还提出了余弦相似损失,通过计算目标与非目标区域的余弦相似度,使网络更准确地区分船舶目标与背景,以进一步提高准确率。大量的实验表明,在SSDD和SAR?Ship?Dataset数据集上,本文所提的方法与现有的几种算法相比具有更高的检测精度。  相似文献   

20.
李颀  叶小敏  冯文斌 《液晶与显示》2023,(10):1445-1454
车辆检测对于辅助驾驶系统至关重要,由于雾天道路场景严重退化,图像中的车辆信息不明显,导致车辆检测存在漏检、误检的问题。针对上述问题,本文提出了一种融合毫米波雷达和机器视觉的雾天车辆检测方法。首先,采用暗通道去雾算法对图像进行预处理,提高雾天图像中车辆信息的显著性。然后,采用知识蒸馏改进YOLOv5s算法,在YOLOv5s的特征提取网络中引入知识蒸馏,在目标定位和分类阶段计算蒸馏损失,对损失进行反向传播训练小型网络模型,在保证视觉检测准确度的同时提高检测速度。最后,采用基于潜在目标检测区域搜索的距离匹配算法对视觉检测结果和毫米波雷达检测结果进行决策级融合。以检测目标的类型和距离为匹配依据,滤除干扰信息和错误信息,保留毫米波雷达检测和视觉检测融合后的检测置信度较高的目标,从而提高车辆检测的准确率。实验结果表明,该方法在雾天下最高检测准确率达92.8%,召回率达90.7%,能够实现雾天对车辆的检测。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号