首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
目前的目标检测技术已趋于成熟,但小目标检测仍是研究的难点。针对目标检测过程中小目标检测更容易出现漏检等问题,提出一种改进的YOLOv7目标检测模型。结合特征分离合并思想,对YOLOv7网络模型中的MPConv模块进行改进,以减少网络特征处理过程造成的特征损失,并通过实验确定放置改进MPConv模块的最佳位置。由于小目标检测过程中容易出现漏检的现象,利用ACmix注意力模块提高网络对小尺度目标的敏感度,降低噪声所带来的影响。在此基础上,使用SIoU替换原YOLOv7网络模型中的CIoU来优化损失函数,减少损失函数自由度,提高网络鲁棒性。在Okahublot公开的FloW-Img子数据集上进行实验,结果表明,对于数据集中的密集、小目标和超小目标三种情况的图片,改进后的YOLOv7网络模型相比原网络,漏检情况得到明显改善,且mAP达到71.1%,相比基线YOLOv7网络模型提升了4个百分点,检测效果优于原网络模型与传统经典目标检测网络模型。  相似文献   

2.
随着深度学习在国内目标检测的不断应用,常规的大、中目标检测已经取得惊人的进步,但由于卷积网络本身的局限性,针对小目标检测依然会出现漏检、误检的问题,以数据集Visdrone2019和数据集FloW-Img为例,对YOLOv7模型进行研究,在网络结构上对骨干网的ELAN模块进行改进,将Focal NeXt block加入到ELAN模块的长短梯度路径中融合来强化输出小目标的特征质量和提高输出特征包含的上下文信息含量,在头部网络引入RepLKDeXt模块,该模块不仅可以取代SPPCSPC模块来简化模型整体结构还可以利用多通道、大卷积核和Cat操作来优化ELAN-H结构,最后引入SIOU损失函数取代CIOU函数以此提高该模型的鲁棒性。结果表明改进后的YOLOv7模型参数量减少计算复杂性降低并在小目标密度高的Visdrone 2019数据集上的检测性能近似不变,在小目标稀疏的FloW-Img数据集上涨幅9.05个百分点,进一步简化了模型并增加了模型的适用范围。  相似文献   

3.
虽然基于深度学习的目标检测算法在道路场景中的目标检测方面已经取得了很好的效果,但是对于复杂道路场景中的密集目标,远处的小尺度目标检测精度低,容易出现漏检误检的问题,提出一种改进YOLOv7的复杂道路场景目标检测算法。增加小目标检测层,增加对小目标的特征学习能力;采用K-means++重聚类先验框,使得先验框更贴合目标,增加网络对目标的定位精度;采用WIoU(Wise-IoU)损失函数,增加网络对普通质量锚框的关注度,提高网络对目标的定位能力;在颈部和检测头引入协调坐标卷积(CoordConv),使网络能够更好地感受特征图中的位置信息;提出P-ELAN结构对骨干网络进行轻量化处理,降低算法参数量和运算量。实验结果表明,该改进算法在华为SODA10M数据集下的mAP达到64.8%,比原算法提高2.6个百分点,模型参数量和运算量分别降低12%和7%,达到检测精度和检测速度的平衡。  相似文献   

4.
针对“低小动”无人机的反制技术已成为低空空域安全防御的重要手段,然而实时检测与准确识别是实施有效反制的前提条件与关键基础。针对城市低空环境下,目标检测算法对不同背景下小尺度无人机目标检测精度低,容易出现漏检误检且易受外界因素干扰等问题,提出了一种基于改进YOLOv7的“低小动”无人机目标检测方法。首先采集大量不同环境、不同背景下的无人机样本构建数据集,并采用ViBe(visual background extractor)算法进行预处理;其次引入坐标注意力机制与SPDConv(space-to-depth convolution)模块改进和优化YOLOv7的网络结构;最后提出融合ViBe和改进YOLOv7的二级检测架构,将改进后的YOLOv7作为网络模型检测经ViBe处理后的图像。依据原图与处理图像的位置大小关系,将检测出的目标坐标映射回归至原图片,从而完成目标检测提取。实验结果表明,所提目标检测方法检测精度达96.5%,较原YOLOv7方法提高了15.8个百分点,显著提升了“低小动”目标的检测精度,能够满足低空无人机的实时精准检测的需求。  相似文献   

5.
为了研究传统目标检测算法在进行道路小目标检测时效果不佳及漏检率较高等问题,本文提出了一种基于改进YOLOv3的小目标检测方法.首先通过设计新的特征融合结构降低小目标漏检率,并且使用DIOU损失提高定位精确度.同时对YOLOv3算法中的聚类算法进行改进,采用K-means++算法改进聚类先验框中心点的提取,选取更为合适的Anchor Box,用于提高检测的平均精度和速度.在自制混合数据集上对行人及车辆进行对比检测,在不影响检测速度的情况下,改进的YOLOv3算法能够有效降低小目标物体漏检率,并且提高了检测精度.根据实验结果,本文所提出的改进YOLOv3模型在混合数据集上的平均精度达到92.82%,与未改进的YOLOv3算法相比提高了2.77%.  相似文献   

6.
在真实场景下准确实时检测小目标交通标志对自动驾驶有重要意义,针对YOLOv5算法检测小目标交通标志精度低的问题,提出一种基于改进YOLOv5的小目标交通标志实时检测算法。借鉴跨阶段局部网络思想,在YOLOv5的空间金字塔池化上设置新的梯度路径,强化特征提取能力;在颈部特征融合中增设深、浅卷积特征的可学习自适应权重,更好地融合深层语义和浅层细节特征,提高小目标交通标志的检测精度。为验证所提算法的优越性,在TT100K交通标志数据集上进行了实验验证。实验结果表明所提算法在小目标交通标志上的平均精度均值(mean average precision,mAP)为77.3%,比原始YOLOv5提升了5.4个百分点,同时也优于SSD、RetinaNet、YOLOX、SwinTransformer等算法的检测结果。所提算法的运行速度为46.2 frame/s,满足检测实时性的要求。  相似文献   

7.
本文针对图像中小目标难以检测的问题,提出了一种基于YOLOv5的改进模型.在主干网络中,加入CBAM注意力模块增强网络特征提取能力;在颈部网络部分,使用BiFPN结构替换PANet结构,强化底层特征利用;在检测头部分,增加高分辨率检测头,改善对于微小目标的检测能力.本文算法在人脸瑕疵数据集和无人机数据集VisDrone2019两份数据集上均进行了多次对比实验,结果表明本文算法可以有效地检测小目标.  相似文献   

8.
针对交通场景中由光照、遮挡、目标小以及背景复杂等因素导致目标检测精度低,易出现漏检和误检问题的情况,提出了一种基于YOLOv7的交通目标检测算法;该算法在主干网络中融入多头注意力机制,以增强网络特征学习能力,从而更好地捕获数据和特征内部的相关性;在YOLOv7颈部网络引入协调注意力模块(CA),将位置信息嵌入到注意力机制中,忽略无关信息的干扰,以增强网络的特征提取能力;增加一个多尺度检测网络,以增强模型对不同尺度目标的检测能力;将CIoU损失函数更改为SIoU函数,以减少模型收敛不稳定问题,提高模型的鲁棒性;实验结果表明,改进的算法在BDD100K公开数据集上的检测精度和速度分别达到了59.8% mAP和96.2 FPS,相比原算法检测精度提高了2.5%;这表明改进的算法在满足实时性要求的同时,具备良好的检测精度,适用于复杂情况下的交通目标检测任务。  相似文献   

9.
10.
论文针对将遥感图像用于目标检测时地面车辆小目标的漏检和虚警问题,基于YOLOv3,对其躯干网络做如下改进:取消多尺度融合,独立地输出各个尺度上的特征图;在每个独立输出的尺度上引入dilation卷积和Inception-ResNet结构.基于VEDAI数据集,进行YOLOv3和改进模型的训练和测试,改进模型对车辆小目标...  相似文献   

11.
针对遥感图像目标检测过程中存在的背景复杂、目标特征不明显、小目标排列密集的问题,基于YOLOv7算法,提出了一种改进的遥感图像目标检测算法YOLOv7-RS(YOLOv7-Remote Sensing),提高了遥感图像的目标检测精度。首先,向特征提取网络中融合SimAM减少背景噪声的干扰;其次,提出了D-ELAN网络增强遥感目标的特征提取能力;再次,利用SIOU损失函数以提高算法模型的收敛速度;最后,优化了正负样本分配策略,改善了遥感图像中小目标密集排列时的漏检问题。实验结果表明,YOLOv7-RS在NWPU VHR-10和DOTA数据集上的mAP达到95.4%和74.1%,相较于其他主流算法有了明显提升。  相似文献   

12.
针对自动驾驶场景,现有车辆检测算法对小目标车辆检测效果不好,导致车辆检测精度不高的问题,该文提出改进YOLOv4算法。首先增加小目标检测层,降低小目标车辆的漏检率;然后使用EIoU(efficient intersection over union)损失函数替换CIoU(complete intersection over union)损失函数,降低算法的边界框回归损失,提高算法的检测精度。在数据预处理阶段采用Mosaic数据增强的方法提高小目标车辆的训练效果,以及使用K-Means聚类算法选出更合适的检测锚框。在KITTI数据集上实验,改进算法平均检测精度为95.84%,检测速度为37.12帧/s,相比YOLOv4算法,平均检测精度提高2.84%。实验结果表明,改进YOLOv4算法达到了提高车辆检测效果的目的。  相似文献   

13.
YOLOv3是一种单步目标检测算法,不需要产生区域候选网络(RPN)来提取目标信息,相对于双步目标检测算法具有更快的检测速度。但是,现有算法在小目标检测上存在精度不高和漏检现象的问题,为此提出了一种基于YOLOv3算法的训练集优化和图层处理的检测方法。首先在标准数据集VOC2007+2012和自建的举手行为数据集上采用K-means算法做聚类分析,以得到适应数据集训练尺寸的anchor大小;然后通过调整训练参数及选择合理的标签标注方式进行训练;最后对输入图像进行图层处理并进行目标检测。实验结果表明,聚类分析后VOC2007验证集的平均准确度(mAP)提高了1.4%,并有效解决了原算法在检测过程中较高卷积层上感受野小的问题,从而使YOLOv3算法在小目标物体的检测上精度提高,漏检率也相对下降。  相似文献   

14.
针对当前目标检测任务中对小目标检测识别率低,漏检率高的问题,提出一种基于门控通道注意力机制(EGCA)和自适应上采样模块的改进YOLOv3算法。该算法采用DarkNet-53作为主干网络进行图片基础特征提取;引入自适应上采样模块对低分辨率卷积特征图进行扩张,有效增强了不同尺度卷积特征图的融合效果;在三个尺度通道输出预测结果之前分别加入EGCA注意力机制以提高网络对小目标的特征表达和检测能力。将改进的算法在公开数据集RSOD(remote sensing object detection)上进行实验,小目标检测精度提升了8.2个百分点,最为显著,平均精度AP值达到56.3%,较原算法提升了7.9个百分点。实验结果表明,改进的算法相比于传统YOLOv3算法和其他算法拥有更好的小目标检测能力。  相似文献   

15.
赵伟  王爽  赵东洋 《工矿自动化》2023,(11):121-128
为解决煤矿井下无人驾驶电机车由于光照不均、高噪声等复杂环境因素导致的多目标检测精度低及小目标识别困难问题,提出一种基于SD-YOLOv5s-4L的煤矿井下无人驾驶电机车多目标检测模型。在YOLOv5s基础上进行以下改进,构建SD-YOLOv5s-4L网络模型:引入SIoU损失函数来解决真实框与预测框方向不匹配的问题,使得模型可以更好地学习目标的位置信息;在YOLOv5s头部引入解耦头,增强网络模型的特征融合与定位准确性,使得模型可以快速捕捉目标的多尺度特征;引入小目标检测层,将原三尺度检测层增至4层,以增强模型对小目标的特征提取能力和检测精度。在矿井电机车多目标检测数据集上进行实验,结果表明:SD-YOLOv5s-4L网络模型对各类目标的平均精度均值(m AP)为97.9%,对小目标的平均检测精度(AP)为98.9%,较YOLOv5s网络模型分别提升了5.2%与9.8%;与YOLOv7, YOLOv8等其他网络模型相比,SD-YOLOv5s-4L网络模型综合检测性能最佳,可为实现矿井电机车无人驾驶提供技术支撑。  相似文献   

16.
成浪  敬超 《图学学报》2023,(2):324-334
针对X线图像违禁品目标检测中存在的识别定位困难以及忽略物品方向性的问题,提出了一种基于改进YOLOv7的X线图像旋转目标检测算法。首先,通过在原网络中融合高效注意力机制模块提高模型对深层重要特征的提取能力;然后,改进扩展的高效长程注意力机制的特征融合路径,在模块之间增加跳跃连接和1×1卷积架构,使网络提取更丰富的物品特征;最后,针对X线图像中违禁品放置方向任意的问题,使用密集编码标签表示法对角度进行离散化处理,提高违禁品定位的准确性。实验结果表明,改进的算法在HiXray,OPIXray和PIDray数据集上分别取得了91.2%,92.6%和66.4%的检测精度,较原YOLOv7模型分别提高了20.2%,10.6%和15.5%,在有效提高X线图像违禁品检测精度的基础上,为保障公共安全提供了很好的技术支持。  相似文献   

17.
小目标检测在计算机视觉领域具有重要意义,但现有方法在应对小目标的尺度变化、目标密集和无规则排列等挑战时经常出现漏检和误检的问题。为解决这些问题,提出基于改进YOLOv5算法的ATO-YOLO。为提升检测模型的特征表达能力,提出一种结合注意力机制的自适应特征提取模块(adaptive feature extraction,AFE),通过动态调整权重分配突出关键目标的特征表示,提高目标检测任务在不同场景下的准确性和鲁棒性。设计一种三重特征融合机制(triple feature fusion,TFF),能够在不同尺度下充分利用多尺度信息,将多个尺度的特征图融合,以获取更全面的目标特征,提升对小目标的检测效果。引入一种输出重构模块(output reconstruction,ORS),通过去除大目标检测层并增加小目标检测层,实现精确定位和识别小目标,并且相对于原模型复杂度更低,检测速度更快。实验结果表明,ATO-YOLO算法在VisDrone数据集上的mAP@0.5达到了38.2%,较原YOLOv5提升了6.1个百分点,且FPS较改进前提升了4.4%,能够快速准确地对小目标进行检测。  相似文献   

18.
遥感图像中各类舰船小目标检测存在检测难度大、检测精确度低等问题,因此提出一种基于改进YOLOv3-Tiny的遥感舰船小目标检测方法。先对训练数据进行Mosaic数据增强,丰富小尺度样本数据集,解决遥感图像小目标检测泛化能力低的问题,再在特征提取网络中加入混合域注意力机制CBAM,强化小目标的特征提取,提高对遥感舰船小目标的检测能力。实验结果表明,改进后的方法能够更加准确、快速地对遥感舰船小目标进行检测,显著提高了检测的准确率和召回率。  相似文献   

19.
航拍图像目标检测对于高效解译航拍图像,并用于地图绘制、资源普查、城乡规划等领域有着重大现实意义。针对无人机航拍图像中的物体尺度变化大、易受到背景干扰和微小目标容易错检漏检的问题,提出一种基于YOLOv7进行改进的航拍图像目标检测算法(AirYOLOv7)。AirYOLOv7通过在原网络的特征提取阶段结合三维注意力机制,在特征融合阶段结合通道注意力机制,以帮助模型更好地聚焦于图像中的关键信息。考虑到航拍图像中存在许多微小物体,算法额外增加了一个用于检测微小物体的预测头,并在每个预测头前引入C3STB,以增强算法对不同尺度目标的检测能力。针对IoU损失对微小物体的位置偏差非常敏感,通过在原边框回归损失中引入Wasserstein距离来衡量微小物体之间的差异,以提高算法对微小物体的检测能力。实验结果表明,AirYOLOv7在DOTA和VisDrone这两个公开的光学航拍数据集上的mAP分别达到78.65%和51.79%,相较于原始的YOLOv7分别提高了1.92个百分点和2.28个百分点,证明了改进方法在光学航拍图像上的有效性。  相似文献   

20.
针对通用目标检测算法在检测小目标时存在错检和漏检等问题,提出了一种小目标检测算法IPH(Involution Prediction Head),将其运用在YOLOv4和YOLOv5的检测头部分,在VOC2007数据集上的实验结果表明,运用IPH后的YOLOv4小目标检测精度APs(AP for small objects)相比原始算法提升了1.1%,在YOLOv5上的APs更是提升了5.9%。经智能交通检测数据集进一步检验,IPH算法和去下采样能有效提升小目标检测精度,减少错检和漏检的情况。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号